PESQUISA NAVAL ISSN 1414-8595 Suplemento Especial da REVISTA MARÍTIMA BRASILEIRA NÚMERO 16 - OUTUBRO DE 2003 Serviço de Documentação da Marinha ISSN 1414-8595 PESQUISA NAVAL SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA PATROCÍNIO ESTADO-MAIOR DA ARMADA (EMA) EDITOR-CHEFE ALTE ESQ JOSÉ ALFREDO LOURENÇO DOS SANTOS CHEFE DO ESTADO-MAIOR DA ARMADA EDITORES ADJUNTOS V ALTE (EN) OLAVO AMORIM DE ANDRADE INSTITUTO DE PESQUISAS DA MARINHA – IPqM C ALTE RICARDO SERGIO PAES RIOS CENTRO DE ANÁLISES DE SISTEMAS NAVAIS – CASNAV C ALTE PAULO CESAR DIAS DE LIMA INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULO MOREIRA - IEAPM C ALTE (EN) ALAN PAES LEME ARTHOU CENTRO TECNOLÓGICO DA MARINHA EM SÃO PAULO - CTMSP C ALTE ARNON LIMA BARBOSA SUBCHEFE DE LOGÍSTICA E MOBILIZAÇÃO - EMA COORDENAÇÃO CMG EVANDRO RUI CONDÉ MARLIÈRE MARIA HELENA SEVERO DE SOUZA DIVISÃO DE CIÊNCIA E TECNOLOGIA - EMA EDIÇÃO SERVIÇO DE DOCUMENTAÇÃO DA MARINHA PESQUISA NAVAL ISSN 1414-8595 Suplemento Especial da REVISTA MARÍTIMA BRASILEIRA NÚMERO 16 - OUTUBRO DE 2003 Serviço de Documentação da Marinha A Pesquisa Naval, suplemento da tradicional Revista Marítima Brasileira, se destina a divulgar os resultados científicos e tecnológicos obtidos sob a égide da Marinha do Brasil, bem como servir de veículo para intercâmbio com instituições de pesquisa. Os artigos aqui publicados não refletem a posição ou a doutrina da Marinha e são de responsabilidade de seus autores. Pesquisa Naval / Serviço de Documentação da Marinha - v. 1, n. 1, 1988 - Rio de Janeiro - RJ - Brasil - Ministério da Marinha Anual Título Abreviado: Pesq. Nav. ISSN 1414-8595 1. Marinha - Periódico - Pesquisa Científica. Serviço de Documentação da Marinha CDU 001.891:623.8/.9 CDD 623.807.2 REVISTA PESQUISA NAVAL SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA SUMÁRIO Apresentação Almirante-de-Esquadra José Alfredo Lourenço dos Santos Chefe do Estado-Maior da Armada ...................................................................................... IX Capítulo I Uma Analogia Físico-Matemática entre um Processo Termodinâmico Adiabático Não Reversível e a Estimativa de Pesos de um Meio Naval em Concepção. Contra-Almirante (EN) Tiudorico Leite Barboza - Assessor Especial para Construção Naval da EMGEPRON......................................................................................................... 11 Capítulo II Estudo da Aplicação de Célula Bragg Multicanal em Medidas de Apoio a Guerra Eletrônica A. F. S. Tinoco, M.C. – Divisão de Engenharia Eletrônica - Instituto Tecnológico de Aeronáutica – (ITA) M. A. Faria Pires, Cap.Av. – Divisão de Fotônica, Instituto de Estudos Avançados (IEAv) André César da Silva, Maj.-Eng., PhD. – Divisão de Fotônica – IEAv W. J. Perrella, D.C. – Divisão de Engenharia Eletrônica - ITA J. E. B. Oliveira, PhD. – Divisão de Engenharia Eletrônica - ITA ............................ 25 Capítulo III Cálculo dos Ganhos dos Filtros do Sistema de Rastreamento de Foguetes do Centro de Lançamento de Alcântara para o Segundo Protótipo do Veículo Lançador de Satélites Mauricio A. P. Rosa, Alexandre D. Caldeira, Francisco A. Braz Filho, Lamartine N. F. Guimarães, Eduardo M. Borges e Jonas Rubini Júnior - Instituto de Estudos Avançados do Centro Técnico Aeroespacial (CTA) .......................................................................................... 39 Capítulo IV Nonlinear Flapping Oscillations in Helicopter Rotors Roberto Ramos, M. Eng and Donizeti de Andrade, PhD - Technological Institute of Aeronautics (ITA), Aerospace Technical Center (CTA) ..................................................... 53 Capítulo V Avaliação do Efeito de Diferentes Dopantes sobre a Histeresimetria Magnética dos Compósitos de Hexaferritas de Bário Dopadas: Policloropreno Utilizados como RAMS Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM), Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ) ........................ Capítulo VI Influência nas Medidas de Refletividade do Efeito da Dispersão de Partículas Ferrimagnéticas em Matrizes Poliméricas Roberto da Costa Lima - Instituto de Pesquisas da Marinha (IPqM); PEMM-COPPE da Universidade Federal do Rio de Janeiro (UFRJ) 65 Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM); Instituto de Macromoléculas da Universidade Federal do Rio de Janeiro (IMA-UFRJ) Júlio César dos Santos Leandro - IPqM Augusto Cesar de Carvalho Peres - IMA Manoel Ribeiro da Silva - Instituto de Física (IF) da UFRJ Júlio Maria Neto - Instituto de Física (IF) da UFRJ ......................................................... 73 Capítulo VII Estudo da Cinética de Sinterização do Sistema UO2-Gd2O3 Thomaz Augusto Guisard Restivo, M.Sc. CF(EN) Luciano Pagano Jr. - Centro Tecnológico da Marinha em São Paulo-Aramar .... 81 Capítulo VIII Using MCDM Methods In An Application For Outranking The Ballast Water Management Options Carlos Francisco Simões Gomes - CASNAV...................................................................... 91 Capítulo IX Controle Fuzzy de Algoritmos Estocásticos de Otimização Global e VFSR Hime Aguiar e Oliveira Junior - Engenheiro Eletrônico – FINEP ...................................... 103 Capítulo X Sistemas Criptográficos Baseados em Identidades CT Waldyr Dias Benits Júnior - Centro de Coordenação de Estudos da Marinha em São Paulo Prof. Dr. Routo Terada, PhD -Prof. titular do Instituto de Matemática e Estatística da Universidade de São Paulo ............................................................................................. 115 Capítulo XI Estratégias de Implementação e Efeitos de Arraste dos Grandes Programas de Desenvolvimento Tecnológico Nacionais: Experiências do Programa Nuclear da Marinha do Brasil Capitão-de-Fragata (EN) Leonam dos Santos Guimarães - Coordenador do Programa de Propulsão Nuclear - Centro Tecnológico da Marinha em São Paulo ............... 129 Capítulo XII Análise da Confiabilidade do Sistema de Suprimento de Energia Elétrica de Emergência de um Reator Nuclear de Pequeno Porte Bonfietti, G. e Oliveira Neto, J. M. - Instituto de Pesquisas Energética e Nucleares – IPEN – CNEN/SP ............................................................................................................... 147 Capítulo XIII Utilização de Técnicas de Processamento Digital de Sinais para a implementação de funções biquadráticas CT(EN) Paulo Henrique da Rocha, M.Sc.- Centro Tecnológico da Marinha em São Paulo.. 163 Capítulo XIV Variabilidade Meteorológica do Nível do Mar em Baixa Freqüência em Cananéia, SP e Ilha Fiscal, RJ Alessandro Filippo - Depto. Geoquímica - Universidade Federal Fluminense (UFF) Björn Kjerfve - University of South Carolina e Depto. Geoquímica da UFF Rogério Neder Candella - Instituto de Estudos do Mar Almirante Paulo Moreira Audalio Rebelo Torres Jr. - Depto. Meteorologia da UFRJ ..................................................175 Capítulo XV Caso da Praia do Gonzaguinha em São Vicente - SP - Pesquisa do Transporte de Sedimentos na Baía de Santos Gilberto Berzin -Universidade Santa Cecília -UNISANTA Alexandra Franciscatto P. Sampaio - Universidade Santa Cecília ..................................... 191 Capítulo XVI Caracterização Termohalina da Região Norte do Brasil Danielle Sara Correia Alves - Universidade do Estado do Rio de Janeiro 1º Ten (T) Marcia Helena Moreira Valente - Centro de Hidrografia da Marinha .............. 205 Capítulo XVII Modelagem de Equações Estruturais na Melhoria da Gestão CC (T) Sérgio Luís Dutra de Lamare, M.Sc. - Centro de Análises de Sistemas Navais..... 217 Capítulo XVIII Comportamento da Taxa de Falha como Conhecimento Necessário para a Formulação de Hipóteses Estatísticas na Pesquisa da Confiabilidade CMG (T-RRm) Paulo Antonio Cheriff dos Santos, MSc - (MB)/ComOpNav Paulo Fernando Ferreira Frutuoso e Melo, DSc - COPPE/UFRJ. Carlos Rodrigues Pereira Belchior, DSc - COPPE/UFRJ ..................................................... 231 Capítulo XIX Estimativa da Pressão Máxima em Contenções de Reatores Navais Devido a um Acidente de Perda de Refrigerante no Circuito Primário Teofilo Mendes Neto, MSc - IPEN/CNEN-SP João Manoel Losada Moreira, PhD - Centro Tecnológico da Marinha em São Paulo........... 245 Capítulo XX Determinação do Fator de Pico Utilizando Sinais de Detectores Out-Of-Core em Reatores Navais Rose Mary Gomes do Prado Souza, MSc - Centro de Desenvolvimento da Tecnologia Nuclear - CDTN-CNEN/BH João Manoel Losada Moreira, PhD - Centro Tecnológico da Marinha em São Paulo........... 257 Capítulo XXI Análise da Distribuição e Identificação de "Outliers" de um Conjunto de Dados de Primeira Detecção Radar Utilizando a Ferramenta "Boxplot" CC Cleber Almeida de Oliveira, MSc - Centro de Apoio a Sistemas Operativos - CASOP.... 269 Capítulo XXII Complementando DEA com o Cálculo Probabilístico de Produtividades Globais na Comparação de Desempenhos em um Segmento do Setor Público CC Cleber Almeida de Oliveira - Centro de Apoio a Sistemas Operativos - CASOP Annibal Parracho Sant'Anna - Universidade Federal Fluminense ....................................... 277 Capítulo XXIII Dimensionamento do Número Ótimo de Equipamentos "Stand By" em uma Rede Local de Microcomputadores Solange Fernandes Pinheiro - Universidade Federal Fluminense CF(IM) Antonio Carlos Bodini Junior -Diretoria de Finanças da Marinha ......................... 295 Capítulo XXIV Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes CC (EN) Júlio César Silva Neves , DSc. Cap QEM Alexandre Laval Silva , M.C. - Instituto Militar de Engenharia....................... 309 APRESENTAÇÃO Esta é a primeira edição que não conta com a orientação segura do seu idealizador e primeiro Editor-Chefe, V Alte (Refº) MARIO JORGE FERREIRA BRAGA. A continuidade da Revista, assegurada por esta edição, pretende prestar-lhe o justo reconhecimento. A Marinha do Brasil sabe que todo salto em desempenho que obteve ocorreu após a incorporação de tecnologia nova. Em verdade, muitas delas adquiridas prontas, mas a cada dia, acrescidas do esforço sadio e idealista de novos homens de ciências, acostumados a repetir tentativas, a perseverar pelo sucesso. Senhores pesquisadores, o Estado-Maior da Armada agradece e parabeniza-os pelos trabalhos, estimulando-os a fazer crescer, com zelo e dedicação, o desempenho da Marinha e do País. Em nome da Marinha do Brasil, muito lhes agradeço. 10 Pesquisa Naval Nº 16, Outubro de 2003 I Capítulo UMA ANALOGIA FÍSICO-MATEMÁTICA ENTRE UM PROCESSO TERMODINÂMICO ADIABÁTICO NÃO REVERSÍVEL E A ESTIMATIVA DE PESOS DE UM MEIO NAVAL EM CONCEPÇÃO. Contra-Almirante (EN) Tiudorico Leite Barboza, atual Assessor Especial para Construção Naval da EMGEPRON e Ex-Diretor do Departamento de Ciência e Tecnologia do Ministério da Defesa. Abstract This paper discusses the difficulties faced by naval architects in order to control the tendency for light weight growth of a ship by occasion of her conception as if there was some phenomena similar to Entropy as it was embedded into the design process and tries to proof that really it exists. Sumário Este artigo discute as dificuldades encontradas pelos arquitetos navais no exercício do controle da tendência ao crescimento apresentada pelo deslocamento leve do navio, durante o desenvolvimento da sua fase de concepção do projeto, como se existisse algum fenômeno similar à Entropia que fosse inerente ao projeto de engenharia, e procura provar que ele, de fato, existe. 1.0 - INTRODUÇÃO É comum entre os arquitetos navais, a preocupação com o crescimento de pesos do navio (deslocamento), desde o início da Fase de Concepção, quando dos chamados “Estudos de Exeqüibilidade”, ocasião em que o meio ainda é uma abstração, até ao final da construção, que é a materialização da idéia concebida. Em suma, para o Arquiteto Naval, a variável deslocamento parece ser de extremo e difícil controle, com uma indesejável tendência crescente, efeito semelhante à inflação para o economista. 12 Pesquisa Naval Nº 16, Outubro de 2003 Atualmente, diferentemente do que ocorria há algumas dezenas de anos, os estudos de exeqüibilidade eram feitos totalmente por meios manuais, incluindo estimativas, cálculos, gráficos e desenhos. A partir da década de 1960, começaram a surgir nos E.U.A, ferramentas computacionais, chamadas modelos de síntese (“ Ship Synthesys Model”), que são formidáveis ferramentas de apoio ao projeto na sua fase de concepção, pois admite, idealmente, como variáveis de entrada (“inputs”), alguns elementos de Requisitos de Estado-Maior (REM) e praticamente todos os chamados “Requisitos de Alto Nível dos Sistemas” (RANS); como saída (“output”), tem-se uma primeira idéia da configuração do meio naval , desde as suas dimensões principais, incluindo o deslocamento, até às suas características de desempenho, como velocidade máxima mantida, estabilidade, comportamento no mar (“seakeeping”), etc.; e com o advento dos “personal computers” (PC), até mesmo uma idéia da silhueta é fornecida, dependendo, evidentemente, não somente da habilidade do programador, mas também da experiência e capacidade de aprofundamento do arquiteto naval que o orienta na execução da elaboração deste instrumento. Evidentemente, o próprio arquiteto naval pode também ser um grande programador e executar as duas tarefas, isto é, se auto-orientar e programar, mas não é o que comumente ocorre. Além disso, até à época atual, o computador é um instrumento que ainda apenas resolve, mas não formula1, isto é, sua grande vantagem é a solução de problemas com grande velocidade e capacidade de armazenamento de dados para problemas que são formulados pelo homem, com soluções e métodos de cálculo também concebidos por este. Por esta razão, mesmo um instrumento como um modelo de síntese, não torna dispensável o trabalho dedicado e sobretudo experiente de uma equipe de projeto; a experiência (”expertise”) é fundamental também para reduzir tempo na convergência de um processo que é iterativo e, por isso mesmo, conhecido no jargão dos arquitetos navais como “espiral de projeto”. A figura de mérito que estaciona tal espiral (define a convergência) a qual, em essência, é um verdadeiro algoritmo, sem dúvidas é o deslocamento. Este, por ser produto de um processo iterativo, obriga que, mesmo com a ferramenta modelo de síntese, o projetista assuma, usando razoável intuição, um valor inicial para o deslocamento, valor este, inferior, é claro, ao máximo admissível pelos requisitos estabelecidos (no caso do deslocamento, normalmente pelos REM). No exercício de C&T voltado para resultados, procura-se, mesmo utilizando ferramentas teóricas, isto é, extraídas da teoria científica, atingir um resultado eminentemente prático. Está aí a diferença entre ser teórico e ser conceitual. Assim, quando se utiliza a solidez dos conhecimentos teóricos, para rejeitar, prontamente, um suposto “invento maravilhoso”, quando já vislumbramos, antecipadamente, que este contraria, por exemplo, o Segundo Princípio da Termodinâmica, tudo que se está 1 Em matéria de Ciência não cabem as palavras sempre, nunca e impossível e, portanto, as ficções científicas, envolvendo o conceito de inteligência artificial, não podem ser desconsideradas. Pesquisa Naval Nº 16, Outubro de 2003 13 fazendo é aplicar o conteúdo conceitual que se tem agregado sobre o assunto, ao julgamento quanto à possibilidade prática da existência de um fato. Quando também se recorre a analogias de comportamento de sistemas, sejam eles físicos, químicos, biológicos ou até mesmo sociais, estamos fazendo a extensão de conhecimentos teóricos adquiridos no campo de uma disciplina, para bem conceituar um problema que ocorre no campo de outra disciplina, de modo a torná-lo melhor compreensível e permitir-lhe uma solução prática mais assimilável. É o que se faz, por exemplo, nos estudos de transmissão de calor, em que o tratamento que se dá aos circuitos térmicos, nos quais aparecem resistências térmicas ao fluxo de calor, é o mesmo aplicado aos circuitos elétricos, onde aparecem, mais precisamente, as reatâncias elétricas, das quais a resistência elétrica é um tipo particular mais identificado com os processos habituais do fenômeno da transmissão de calor. Também é nesta linha que, a compreensão ou comprovação de um fenômeno que nos parece intuitivo, mas que não sabemos bem que leis o governam, podem ser comprovados, melhor compreendidos, qualificados e até mesmo quantificados, se nos valemos de fenômenos de mesma analogia, já conceituados e com leis estabelecidas. Este trabalho se propõe a procurar demonstrar que as leis que regem a tendência ao crescimento do deslocamento de um navio (meio naval), desde as fases iniciais do projeto, como já foi dito, são análogas àquelas que regem a tendência ao crescimento da Entropia, objeto da 2ª Lei da Termodinãmica. 2.0 - METODOLOGIA A metodologia a ser usada para atingir o propósito deste trabalho consiste em primeiro desenvolver uma análise matemática, consubstanciada, visando discutir um problema prático, real a ser enunciado, vivido pelos arquitetos navais que já tiveram a oportunidade de projetar, para demonstrar que as deduções, equações, igualdades e desigualdades envolvidas nesta discussão se enquadram, em analogia, com aquelas discutidas na Termodinâmica e associadas, ao conceito de Entropia, âmago da 2ª Lei desta Ciência. “Seja um processo iterativo convergente para o desenvolvimento de um ciclo de projeto de um navio, que partindo de um deslocamento inicial arbitrado ∆0, permite ao final de algum ciclo j, chegar-se a um deslocamento final ∆f, que seja considerado aceitável em função do raio de convergência R adotado no processo iterativo utilizado, ou seja ,∆j—∆j-1≤ R, a partir de um certo j. Tendo sido imposto como requisito que o deslocamento final ∆f de um navio deve ficar no intervalo [∆1 , ∆2], considerado adequado em face também dos demais “Requisitos do Armador” (REM, no caso da MB), pergunta-se se o valor de ∆f obtido (contido no intervalo estabelecido, se exeqüível) ao final do ciclo j, utilizando o processo iterativo convergente mencionado, é dependente do valor ∆0 arbitrado como valor inicial, com ∆1 ≤ ∆0 ∆2, já que o processo é convergente.” ≤ 14 Pesquisa Naval Nº 16, Outubro de 2003 Esta pergunta, não deve ficar por conta das opiniões subjetivas e nem da intuição que muitas vezes conduz a equívoco. Merece uma investigação com ferramentas de análise adequada, o que se procura fazer ao longo dos itens seguintes; infelizmente, com a limitação imposta ao número máximo de páginas que podem ser apresentadas no trabalho em pauta. Assumamos uma expressão analítica confiável do deslocamento e o conceito de “coeficiente de majoração” aplicado a esta característica do navio, (uma de suas dimensões principais), durante a fase do projeto, ambos apresentados pela referência bibliográfica 1 deste trabalho. A expressão concebe o deslocamento ∆ como uma função polinomial da forma: ∆=k0∆0 +k1∆1/3+k 2∆2/3+k3∆3/3+k4∆4/3 (1) ∆ 0 +k1∆ ∆1/3+k 2∆ ∆2/3+k3∆ ∆3/3+k4∆ ∆4/3 pode ser utilizada A equação ∆=k0∆ para gerar a função F(∆) definida como: ∆)=(k0∆0 +k1∆1/3+k 2∆2/3+(k3-1)∆ ∆3/3+k4∆4/3)=0, F(∆ (2) ∂∆ é: cuja derivada parcial ∂F/∂∆ ∂F/∂∆=1/3.k1.∆-2/3+2/3.k2.∆-1/3+(k3-1)+4/3.k4.∆44/3=0 ⇒ Reduzindo ao mesmo denominador e multiplicando numerador e denominador por ∆3/3 vem: k1 Λ1 3 + 2k 2 Λ2 3 + 3(k 3 − 1)Λ3 3 + 4k 4 Λ4 3 ∂F ∂Λ = 3.Λ3 3 − ∂∆ ∂F = − ∂∆ ∂F = ∆3 3 ∆3 3 − 1 3.k1 ∆1 3 + 2 3.k 2 ∆2 3 + k 3 .∆ + 4 3.k 4 [ (3) ∆ ∆ − 1 3.k1 ∆ + 2 3.k 2 ∆2 3 + k 3 .∆ + 4 3.k 4 ∆ [ 13 ∂∆ ∂F = -1/∂ ∂F/∂∆ ∂∆ significa a taxa de variação A derivada parcial negativa -∂∆ ∂∆/∂ ∆), da variável ∆ (deslocamento) em relação a uma variação ∂F da própria função F(∆ sendo chamada pela referência bibliográfica 1 de “Coeficiente de Majoração do Deslocamento M”. Pelo seu significado intrínseco, deveria ser chamado mais propriamente de “Coeficiente de Auto-Majoração do Deslocamento” e será como o ∂∆ ∆) é variado. E como qualquer quando um valor de uma componente da função F(∆ Pesquisa Naval Nº 16, Outubro de 2003 15 variação em F(∆) é devido a uma variação de peso que venha afetar uma parcela da função F(∆), podemos escrever, para variações pequenas: ∂∆ = M. δP , onde M= ∆ ∆ − 1 3.k1 ∆ + 2 3.k 2 ∆2 3 + k 3 .∆ + 4 3.k 4 ∆4 3 [ 13 ] (4) δP= Variação de peso do deslocamento leve devido a alterações de pesos em uma ou mais parcelas componentes da expressão: P =1/3. k1.∆1/3+2/3.k 2.∆2/3+ k3.∆+4/3.k4.∆1/3=P1+P2+P3+P4 (5) Onde: -P1 o somatório de pesos proporcionais a ∆1/3; - P2 o somatório de pesos proporcionais a ∆2/3; - P3 o somatório de pesos proporcionais a ∆; e - P4 o somatório de pesos proporcionais a ∆4/3 3.0 - RESULTADOS E DISCUSSÃO Como vimos na introdução, para o Arquiteto Naval, a variável deslocamento parece tender a aumentar, exatamente como ocorre com a Entropia nos processo termodinâmicos, em que somente os processos “adiabáticos reversíveis” (isoentrópicos) mantém sua Entropia constante; esta por sua vez, somente pode decrescer com rejeição de calor no processo. O princípio da entropia, fundamento da 2ª Lei da Termodinâmica, nos leva a concluir pelo aumento da Entropia do próprio Universo , caracterizando a sua tendência à incontrolabilidade. Caberia então a pergunta (embora muitos arquitetos navais possam não tê-la feito). Existiria uma identificação em termos físico-matemáticos desta analogia ? A resposta a esta pergunta está no desenvolvimento do item abaixo. As causas do aumento de Entropia nos processos termodinâmicos são as chamadas irreversibilidades, que podem ser internas ou externas ao sistema considerado. As irreversibilidades internas existem em função do processo termodinâmico pelo qual passa o sistema e assim estas estão presentes nos processos não reversíveis ou não quase-estáticos. As irreversibilidades externas influenciam o “estado entrópico” do sistema devido à troca de calor com o ambiente na fronteira sistema-meio. Por esta razão, o processo somente é isoentrópico se for adiabático reversível. O processo termodinâmico é sempre representado por uma função matemática de mais de uma variável. No caso do processo isoentrópico, o diferencial da função entropia é uma diferencial exata, isto é, uma função de ponto, cujo resultado de sua integração ao longo do processo é função apenas do 16 Pesquisa Naval Nº 16, Outubro de 2003 estado inicial e do estado final, qualquer que seja a trajetória, que do ponto de vista termodinâmico eqüivale ao processo. Já nos processos não isoentrópico, que caracterizam os processos reais, o diferencial da função entropia depende da trajetória ou caminho, isto é, no sentido termodinâmico, dependem do processo.Esta discussão é resumida pela 2ª Lei da Termodinâmica apresentada abaixo, onde Q representa calor, T temperatura absoluta e S, Entropia: dS ≥ ∫ dQ (6), onde a igualdade vale para os processos reversíveis e o sinal de maior T vale para os processos irreversíveis. Também podemos escrever esta desigualdade pela seguinte igualdade que também tem sua correspondente analogia no cálculo do deslocamento: dQ dQ rev + δ Wirrev, onde rev corresponde à variação dS1 que haveria se o T T dS= processo fosse reversível e δ Wirrev corresponde à variação dS2 devido ao trabalho dissipativo causado pelas irreversibilidades. Do item 3.0, grupo de equações (4), concluímos que a função deslocamento ∆ , numa etapa qualquer do ciclo do projeto, incluindo, evidentemente, o final de ciclo, pode ser definido como sendo do tipo ∆ = ∆ ( ∆ 0, M, p). Assim, o incremento δ∆ será dado por: δ∆ = δ∆ ∂∆ ∂∆ .δ∆ 0 + .δM + .δp ∂∆ 0 ∂M ∂p (5) A condição necessária e suficiente para que a expressão acima represente uma diferencial exata e, assim o valor de δ∆ seja independente da trajetória ou caminho (neste caso δ∆ =d δ ), é a existência simultânea das três igualdades abaixo: ∂∆ ∂∆ = ; ∂∆ 0 ∂M ∂∆ δ∆ = ∂M ∂p ; e ∂∆ ∂∆ = ∂∆ 0 ∂p (6) Pesquisa Naval Nº 16, Outubro de 2003 17 Vislumbra-se assim, que além de não ser fácil a representação de ∆ por uma função elementar2 simples, menos provável é ainda querer que esta seja também uma função de ponto. A demonstração de que, de fato, ela não é uma função de ponto teve que ser excluída do contexto deste trabalho devido à limitação de páginas, mas será objeto de uma próxima edição e já fica aqui como promessa do autor. A trajetória, do ponto de vista matemático, ou puramente geométrico, representa uma curva no R2 ou no R3. Na Termodinâmica corresponde ao processo termodinâmico e na estimativa de pesos corresponde à evolução do processo do deslocamento, segundo o Método de Cálculo ou Algoritmo utilizado. O método de cálculo ou algoritmo, por não traduzir a integração de uma diferencial exata, é equivalente ao gerador de irreversibilidades internas que existe nos processos termodinâmicos; as alterações de pesos dos componentes de cada um dos grupos que compõem o deslocamento, por decorrência dos impactos não associados ao método ou algoritmo de cálculo, representam as irreversibilidades externas, já que não dependem do processo de cálculo, mas sim das alterações decorrentes das novas atualizações dos valores de pesos que vão sendo incorporadas à medida que o projeto se desenvolve, este bastante dinâmico, nos vários aspectos. É bastante razoável e intuitivo, portanto, que haja dependência do valor inicial assumido para o deslocamento e do seu processo de estimativa no valor final deste, da mesma forma que num processo não isoentrópico, o valor da Entropia final depende do valor inicial e do processo. A variação da entropia S do processo termodinâmico é medido pela integral de dQ ; para o processo de evolução do cálculo de pesos o valor da variação do T deslocamento é medido pela integração de M 1 p . Como num processo isoentrópico dS=0, num d[Mp]=dN ou d processo com isodeslocamento d (Mp)=0. Como o símbolo S para Entropia vem de sistema, pois é um conceito aplicado ao próprio Universo como sistema fechado, simbolizamos a nossa variável Mp por N de navio, que é o sistema objeto deste trabalho. A Entropia é uma propriedade instável no sentido do seu crescimento, ou seja, um excitação no sentido de aumentar S produz, como efeito, uma realimentação no sentido de intensificar este aumento. Pela eqüivalência das formulações acima, é de todo razoável que exista uma analogia para esse efeito no que se refere ao deslocamento, ou seja, uma excitação no sentido de aumentar o deslocamento, ∆ produz como resultado, uma realimentação para o aumento ainda maior de ∆ . 2 Lembremos que função elementar é aquela capaz de ser expressa na forma tradicional clássica y=f (x). 18 Pesquisa Naval Nº 16, Outubro de 2003 i)-Analogia com rendimento térmico da Máquina de Carnot Vamos estabelecer o conceito de rendimento do processo de convergência para o cálculo do deslocamento, por similaridade com o rendimento do Ciclo de Carnot. Como a analogia termodinâmica estabelecida é de que 1/p (p ⇒ peso) equivale à temperatura T e M equivale a calor Q, podemos introduzir o conceito de “eficiência do processo de convergência do cálculo de pesos” por analogia com o ciclo ideal de Carnot para “Máquina Térmica”. Numa “Máquina Térmica” propriamente dita ( que produz trabalho à custa da rejeição de calor de uma fonte quente QH com temperatura absoluta TH para uma fonte fria QL), o rendimento térmico é dado por ηt = 1 − QL TL enquanto numa =1 − , QH TH máquina térmica refrigeradora (frigorífica ou bomba de calor), o conceito existente é o de “coeficiente de eficácia”, dado por e β b= TH = TH − TL β f= TL 1 = no caso da frigorífica TH − TL TH −1 TL 1 , no caso da bomba de calor. TL 1− TH Para um correto entendimento da analogia termodinâmica que existe entre o rendimento térmico ou eficácia da “Máquina de Carnot” e o que foi chamado de “eficácia do processo de convergência do cálculo de pesos”, cabem as seguintes observações: - as temperaturas TH e TL são absolutas e portanto positivas, com TH>TL. Assim, a diferença TH−−TL, presente nas expressões acima são sempre positivas, pois coeficientes de rendimento ou de eficácia são grandezas positivas. Assim, como a eqüivalência estabelecida entre a temperatura termodinâmica T e a variável da Arquitetura Naval p (peso) é T ⇔ 1 p , a diferença entre TH-TL , corresponde a 1 1 − pH pL <0. Assim, as expressões equivalentes no cálculo da “eficiência do processo de convergência do cálculo de pesos” serão adaptadas de forma a conter expressões positivas que passarão a ser da forma 1 1 − >0, nessa ordem. Essa necessidade pL pH Pesquisa Naval Nº 16, Outubro de 2003 19 de adaptação decorre do fato de que a variável peso p além de poder ser negativa, foi colocada em eqüivalência com o inverso da temperatura T, isto é, T ⇔ 1 p Considerando p como peso a adicionar, quer seja por valores menores que uma cota superior pH, quer por valores maiores que uma cota inferior pL, a analogia mais consistente, em termos de semelhança de expressões, com rendimento ou eficácia de um ciclo térmico é com a máquina térmica refrigeradora do tipo frigorífica, pois as analogias com máquina térmica propriamente dita ou com bomba de calor nos conduziria a valores de rendimento ou de coeficiente de eficácia negativos (o exercício fica por conta do leitor). A nossa “frigorifica” teria assim um coeficiente de eficácia dada por: β= 1 pL 1 1 − pL pH = 1 1 1 pL − pL pH = 1 > 1, pL 1− pH pois pL<pH. Escrito desta forma, o coeficiente acima expressa o objetivo de diminuir pL, o que tem consistência, pois se deixarmos crescer pL, em decorrência, crescerá também pH, pois pH é sempre maior que pL. É relevante lembrar que o calor Q tem a eqüivalência com M e, portanto, o valor de β também pode ser expresso por β = ML 1 = , o que corrobora com M H − M L MH −1 ML a expectativa de que MH>ML, ou seja , quanto maior o peso p acrescentado, maior seu impacto no acréscimo de deslocamento, devido não somente ao acréscimo de peso em si, mas também devido à sua majoração produzida pelo operador M. Note também que quando pH tende a pL, β tende a ∞ , significando uma impossibilidade prática, pois neste caso a máxima e a mínima variações de peso entre ∆ 0 (assunção inicial) e o valor final de convergência ∆f são de mesma magnitude, independente de ∆ 0 , o que , como já vimos não pode ocorrer. Termodinâmicamente, eqüivaleria a uma frigorífica com rendimento ou eficiência infinita, por trocar calor com fontes de temperaturas TH e TL, infinitamente próximas, o que seria uma “extravagância” do ponto de vista prático, pois não haveria sentido em utilizar uma fonte quente com temperatura TH, que já é infinitamente próxima de TL. Quando pL tende a zero, β tende a 1 (unidade), o que na prática significa que nada se fez, ou seja, ∆ permaneceu estacionado na assunção inicial ∆ 0 (lembrar que ∆= ∆ 0 +Mp). 20 Pesquisa Naval Nº 16, Outubro de 2003 ii) Significados de pH e pL Não parece ser difícil identificar que pH e pL são patamares ou cotas superior e inferior por quais passou o cálculo de pesos nos diversos ciclos iterativos. Se o ciclo converge com pH próximo de pL, significa que se desenvolveu o processo de cálculo de pesos, com grande eficácia ou pouco trabalho. Este, por sinal, tem como analogia 1 pH − p L 1 − = K , onde k é constante e, portanto, tanto menor o pL pH p H .p L W=K trabalho quanto menor a diferença entre pH e pL. É importante observar que o processo de cálculo tramita entre pH e pL à custa da interação feita pelo coeficiente M que tem a eqüivalência a Q. Assim, o processo é tão mais eficaz quanto mais for possível trabalhar numa região de baixo M e de baixa derivada primeira de M com relação a ∆3, pois assim é baixa a diferença MH-ML. Neste caso, se tivermos também proximidade entre pH e pL teremos, como conseqüência, pequenas diferenças MHpH−−MLpL que eqüivalem, no modelo, a diferenças de Entropia ou, para ficar mais próximo do jargão comum, “gerações de Entropia”, responsáveis por quedas de eficiência do processo. 4.0 - CONCLUSÕES 4.1-Sobre o que é coeficiente de auto-majoração M, do ponto de vista de um balanço de energia na Arquitetura Naval: O “coeficiente de auto-majoração M” para um dado sistema navio de formas conhecidas é a grandeza cuja variação, entre dois calados H m1 e Hm2, mede o saldo líquido de variação de Energia devido ao trabalho executado pelas forças do campo gravitacional e do meio fluido no qual este sistema navio está em equilíbrio hidrostático4. 4.2-O que traz a sua analogia termodinâmica: Uma analogia “termodinâmica” da evolução da variável M, confirmado pela verossimilhança das equações que governam a 2 ª Lei da Termodinâmica, justificaria também o seu comportamento “entrópico”, razão pela qual uma majoração do seu valor, na fase inicial do ciclo de projeto, ou seja, quanto mais se assume o valor inicial do deslocamento no entorno da cota superior permissível, tende-se pela natureza do processo iterativo real, a facilitar a que o valor deste limite seja ultrapassado pelo valor obtido na convergência do ciclo. 3 É também uma demonstração a que o autor se compromete a apresentar em próxima edição, devido à limitação das doze páginas. 4 Idem nota 3 Pesquisa Naval Nº 16, Outubro de 2003 21 4.3-A aplicação prática dos resultados e da discussão exposta: O resultado da análise indica ser recomendável para o arquiteto naval que se envolve, ou irá se envolver, na concepção do navio (projetista), tome as seguintes orientações: a) - Deve-se iniciar o ciclo de projeto na Fase de Concepção, arbitrando, de preferência, um valor para o deslocamento, se possível até mais baixo do que o menor valor admissível na faixa estabelecida pelos requisitos e se procure estabelecê-lo como meta. Para tal, convém utilizar estatísticas disponíveis, estabelecendo diferenças percentuais entre valores concebidos ao final de fases iniciais do projeto e o final da construção e, por extrapolação reversa (contas “de trás para a frente”), chegar-se a um valor a ser estabelecido como meta. Infelizmente, não temos em nossa Marinha um banco de dados para tal fim, já que nos últimos 25 anos, rigorosamente, os navios que projetamos e que se tornaram verdades, são contados nos dedos, utilizando-se uma única mão! Como alternativa, a referência bibliográfica 2 que, inspirou margens de peso no projeto das corvetas da classe “Inhaúma”, pode servir de guia, mas alguns cuidados sobre esta utilização serão feitas no item c) deste item, por razões de ordenação; b) - De preferência, não se deve considerar, margens para pesos estimados ou calculados nas fase iniciais do projeto do navio, nem para os grupos que, isoladamente, compõem o peso leve do navio, nem para o próprio deslocamento leve obtido pelo somatório dos pesos destes grupos. Caso o projetista venha a adotá-las, por instinto de precaução, ou por recomendação de um critério5, não deve fazê-lo com que estas sejam generosas, principalmente se há falta de confiabilidade na estima destes pesos, por indisponibilidade de dados, almejando assim uma suposta margem de segurança; não se deve esquecer que “margem de segurança” é uma expressão elegante para “margem de ignorância”, no bom sentido da Engenharia, isto é, a margem de segurança existe para evitar a catástrofe, já que nos critérios e métodos de cálculo, os materiais são considerados ideais e quase sempre isotrópicos, o que não ocorre na realidade; os processos e carregamentos são considerados, quase sempre, determinísticos e quando identificados como essencialmente aleatórios, são enquadrados numa distribuição de probabilidade, em que a probabilidade de excedência de uma ou mais variáveis aleatórias, envolvidas no processo, é admitida, segundo um determinado critério6; - Com relação às conclusões a) e b) acima, vale comentar que a tendência que se teve nos ciclos da Fase de Concepção das corvetas da classe Inhaúma foi, ao que tudo indica, justamente ser generoso nas margens, por inspiração, na época, (final dos 5 6 Critério, ao pé da letra, significa opinião, o que nem sempre está fundamentada. Idem nota 5 22 Pesquisa Naval Nº 16, Outubro de 2003 anos de 1970 e início da década de 1980) da referência bibliográfica 2 que enfatizava a ocorrência dos seguintes fatos na U.S. Navy: i)-após a estimativa do deslocamento leve elaborada ao final da Fase Preliminar (final do período compreendido pelo desenvolvimento das Fases de Concepção e Preliminar e que antecede o das fases do Projeto de Contrato, Projeto de Construção e Construção), o crescimento do deslocamento foi menor que cerca de 34% para os 100% dos 60 navios pertencentes ao espaço amostral considerado naquela referência; menor que cerca de 14% para 60% dos navios; menor que 9% para 40% dos navios; e menor que 4% para 20% dos navios; e ii)- após a estimativa do deslocamento leve elaborada ao final da Fase de Contrato (que antecede o período compreendido pelo desenvolvimento do projeto de construção e construção), os percentuais análogos foram: 24% para os 100% dos navios; 6% para 80%; 3% para 60%; 2% para 40%; e, fato de realce, margens negativas que chegaram próximas de –5% para cerca de 25% dos navios considerados. Aqui cabe uma observação: Diferentemente do que ocorre em nossa Marinha, Na U.S. Navy, a Fase preliminar estabelece o “congelamento” (“freezing”) da configuração do meio naval (dimensões principais, principalmente), incluindo a chamada “carga militar” e por isto esta fase é também chamada de Fase de Validação (“validation”). A atuação como “ente” por assim dizer, do coeficiente de auto-majoração M, somente se dá nas etapas de concepção, em que as dimensões principais estão sendo recicladas até convergirem definitivamente. Assim, é fácil entender, de maneira simples, como o fenômeno se dá: quando se considera mais um peso p e a seu valor se dá uma margem, cresce o valor do deslocamento leve, não somente pelo efeito de p, mas também pelo acréscimo de uma margem. Como isto ocorre, para mais de um componente, origina-se uma seqüência conexa de causas e efeitos em cascata: mais deslocamento gera necessidade de rever o projeto da estrutura que, inevitavelmente, cresce em peso e, então, novo valor para o deslocamento; agora, com mais deslocamento, para manter a velocidade que se tinha na configuração anterior, requer-se maior potência propulsiva; maior potência propulsiva acarreta maior peso da planta propulsora como um todo, incluindo mais óleo combustível, mais óleo lubrificante; os sistemas auxiliares são mais exigidos, portanto, a princípio também mais pesados. A carga elétrica, por sua vez, é obviamente aumentada e se já estiver no limite de sua margem, mais potência elétrica é requerida, de novo com plantas geradora e distribuidora mais pesadas; auxiliares e acessórios do casco, dependentes do deslocamento, tais como sistema de fundeio (máquina de suspender, ferro, amarras, etc.) crescem em peso, e assim por diante, peso gerando peso, o que em geral, acarreta necessidade de rever as dimensões principais e, aí, recomeça o ciclo. É esta a noção intuitiva de analogia com a entropia, que do ponto de vista físico também significa desordem, perda, passagem constante de um estado menos provável para um mais provável, instabilidade. No fim, convergir é o grande desafio do Pesquisa Naval Nº 16, Outubro de 2003 23 Arquiteto Naval e se ele não tiver o bom senso e a “expertise” para afirmar “já estou satisfeito, pois o resultado já está dentro da tolerância”, o processo continua, sem que isso signifique eficácia. O entendimento científico de um fenômeno, aliado à intuição que já se tinha deste, pode ser o elo que falta na corrente que interliga a Ciência ao resultado prático, isto é, Ciência ao “design” e “design” à Tecnologia. 5.0 - BIBLIOGRAFIA 1.______. ECOLE NATIONALE SUPERIEUR DE TECHNICQUES AVANCEES (ENSTA) Guide Pour la Conduite des Etudes de Projet de Batiments de Surface-1983 2. ______.GALE Peter A. Margins in Naval Surface Ship Design. Naval Engineers Journal, April 1975. 24 Pesquisa Naval Nº 16, Outubro de 2003 II Capítulo ESTUDO DA APLICAÇÃO DE CÉLULA BRAGG MULTICANAL EM MEDIDAS DE APOIO A GUERRA ELETRÔNICA1 A. F. S. Tinoco(1), M.C. – [email protected] M. A. Faria Pires(2), Cap.-Av. – [email protected] André César da Silva(2), Maj.-Eng., PhD. – [email protected] W. J. Perrella(1), D.C. – [email protected] J. E. B. Oliveira(1), PhD. – [email protected] (1) Divisão de Engenharia Eletrônica Instituto Tecnológico de Aeronáutica – ITA Pça. Mal. Eduardo Gomes, 50 – V. das Acácias – 12228-900 São José dos Campos, SP – Brasil Tel./Fax: (12) 3947-5879 (2) Divisão de Fotônica Instituto de Estudos Avançados – IEAv Rodovia dos Tamoios, km 5,5 Torrão de Ouro – 12228-840 São Jose dos Campos, SP – Brasil Fone: (12) 3947-5360 - Fax (12) 3944-1177 Resumo Este trabalho apresenta o estudo da aplicação de células Bragg Multicanal para a detecção de sinais de microondas, com ênfase em duas características relevantes para aplicações em medidas de Apoio a Guerra Eletrônica (MAGE): composição espectral e ângulo de chegada. A formulação matemática empregada fundamenta-se na teoria de modos acoplados, para abordar o fenômeno de difração acusto-óptico, e na teoria de difração de Fresnel, para determinar a transformada de Fourier espacial do feixe óptico. Os resultados obtidos proporcionam esclarecimentos relevantes sobre a operação de 26 Pesquisa Naval Nº 16, Outubro de 2003 processadores ópticos que utilizam células Bragg multicanal. Resultados de simulações referentes à resolução em freqüência e ângulo de chegada são apresentadas, para uma célula Bragg com 64 canais em GaP com freqüência central igual a 800MHz e 480 MHz de largura de faixaR:. 1 Palavra - chaves: Processador óptico, detecção de sinais de microondas, célula Bragg multicanal, analisador de espectro Abstract This paper presents an investigation of the potential of multichannel Bragg cell for detecting microwaves signal characteristics required by Electronic warfare support measurements namely: signal spectrum and angle of arrival. The theoretical formulation developed to this aim relies on both, the coupled mode formulation and the Fresnel’s diffraction theory. Such approach yielded very insightful results regarding to the multichannel Bragg cell performance. Numerical simulation were carried out using a GaP Bragg cell with 64 channels and a 800 MHz IF center frequency. I – Introdução A caracterização do ambiente eletromagnético no qual diversas aplicações em guerra eletrônica ocorrem requer a utilização de tecnologias e técnicas de processamento de sinais que possibilitem rápidas detecções em amplas faixas de freqüências do espectro de microondas, bem como alta resolução na identificação das coordenadas angulares das fontes de sinais. Dentre as várias soluções que estão sendo desenvolvidas em diversos grupos de pesquisa, ressalta-se a que utiliza um processador acusto-óptico bidimensional, por possibilitar a obtenção simultânea do espectro e da orientação da fonte, isto é, o seu ângulo de chegada [1]. A arquitetura de um processador óptico que pode atender a estes requisitos é aquela que se fundamenta na utilização de uma célula Bragg multicanal alimentada por uma rede de antenas, de tipo linear ou circular. As amostras dos sinais eletromagnéticos obtidas com a rede de antenas apresentam dependências com relação ao espectro e à direção de propagação dos sinais e são utilizadas para gerar ondas acústicas, por meio de uma rede de transdutores piezoelétricos. Estas ondas acústicas dão origem à modulação da transmitância óptica da célula Bragg. Iluminando-se esta célula com um feixe óptico, com distribuição espacial apropriadamente conformada, obtém-se, por meio de uma lente de Fourier, a formatação da intensidade óptica com distribuição, no plano focal, que permite determinar, simultaneamente, o espectro e a orientação da fonte de sinais eletromagnéticos [1]. Este artigo é constituído de quatro partes, além desta introdução. Na segunda parte, apresenta-se uma análise, com teor de revisão, da resposta de um processador óptico que utiliza células Bragg monocanal, a qual tem como um dos seus objetivos o estabelecimento de uma nomenclatura que facilite a identificação e a compreensão de como os parâmetros físicos e geométricos se inserem na modelagem do processador Pesquisa Naval Nº 16, Outubro de 2003 27 óptico. A generalização desta formulação para o caso de um processador com célula Bragg multicanal alimentada por uma rede linear de antenas é apresentada na terceira parte deste trabalho. A abordagem matemática, desenvolvida com esta finalidade, permite determinar as características do feixe óptico difratado, para operação em regime de Bragg e com eficiência de difração linear com relação à potência, em função dos seguintes parâmetros: geometrias das redes de antenas e de transdutores piezoelétricos, fases dos sinais que alimentam os transdutores, composição espectral do sinal e largura de faixa da célula Bragg. A generalização do resultado assim obtido decorre da sua aplicabilidade para redes lineares aperiódicas e sinais de microondas com fases arbitrárias. Quando aplicada para redes uniformes e distribuição de fase linear, a formulação propicia interpretações imediatas para as dependências da resposta do processador com relação aos seguintes parâmetros: número de transdutores, largura e espaçamento entre transdutores e coeficiente angular da variação de fase. A quarta parte refere-se aos resultados numéricos obtidos utilizando-se dados de células Bragg multicanal disponíveis comercialmente [2], [3]. As dependências das resoluções em freqüência e em ângulo de chegada são analisadas em função das características das redes de antenas e de transdutores. II – Processador Óptico Com Célula Bragg Monocanal Para facilitar a compreensão deste trabalho descreve-se, inicialmente, a estrutura básica de um AEAP. A Fig. 1 ilustra a representação esquemática de um processador óptico a célula Bragg monocanal, configurado como analisador de espectro. Fig. 1: Representação esquemática de um analisador de espectro a célula Bragg monocanal. Iniciando a descrição do processador pela unidade de acesso de microondas, observa-se que o sinal de saída da antena é acoplado a um conversor de freqüência, o qual alimenta um transdutor piezoelétrico, com seção transversal LxD. Este transdutor gera a onda acústica que, ao se propagar na direção Y, modula, espacialmente e temporalmente, a 28 Pesquisa Naval Nº 16, Outubro de 2003 transmitância óptica da célula Bragg. Esta célula, por sua vez, ao ser iluminada com um feixe óptico apropriadamente formatado e orientado com relação às frentes de onda acústica, proporciona em sua saída, um feixe com características modificadas pela onda acústica, o qual é transmitido através da lente de Fourier. Finalmente, o feixe óptico, assim processado, é detectado por uma rede de fotodetectores, posicionada em um dos seus planos focais [4]. Para modelar matematicamente a resposta do processador, considera-se a situação na qual a representação complexa do sinal na entrada do transdutor apresenta as seguintes características: Vin (t ) = A (t ) exp j ( 2π f I t − ψ o ) (1) Recorrendo-se à teoria de modos acoplados para uma célula Bragg ideal, alimentada por um sinal definido em (1), mostra-se que, na região linear da eficiência de difração, a representação complexa da transmitância da célula Bragg é dada por [5] x y T ( x, y, t ) = η L rect rect A (t − tR ) exp j ( 2π f I t −ψ ) D W (2) onde η é o coeficiente de acoplamento acusto-óptico normalizado da célula Bragg, rect[x]=1 se |x|≤1 e rect[x]=0 |x| ≥1, ψ = ψ o+ 2 π f I t R , tR=(2y+W)/(2vs) e vs é a velocidade da onda acústica. A célula Bragg, assim modulada, é iluminada por um feixe óptico gerado por um diodo laser, cujo campo elétrico tem a seguinte representação complexa E y ( x, y, z , t ) = Eo ( x, y ) exp j ( 2π f o t − kz + φo ) (3) Portanto, utilizando-se (1) e (2) em combinação com a teoria de difração de Fresnel para calcular o campo elétrico do feixe óptico no plano da rede de fotodetectores, obtém-se: E y ( p , q, t ) = h ( t ) ∫ ∫ ∞ −∞ { V (t − t )W ( x, y ) exp j λ2πF ( py + qx ) }d in R (4) com h (t ) = ηL F exp j 2π f o t + φo − 4π λF λ x y W ( x, y ) = Eo ( x, y ) rect rect D W (5.a) (5.b) Pesquisa Naval Nº 16, Outubro de 2003 29 onde λ é o comprimento de onda do laser, F é a distância focal da lente de Fourier, p e q são as coordenadas cartesianas no plano de Fourier e L é a dimensão do transdutor na direção de propagação do feixe óptico, conforme mostrado na Fig. 1. Uma análise de (5) revela que o campo difratado, no plano focal, é proporcional à transformada de Fourier ponderada com peso W(x,y). O resultado geral representado pela equação (5), pode ser particularizado para uma situação na qual a integração dupla poder ser realizada de forma analítica; portanto considera-se um feixe óptico com distribuição de campo uniforme com relação às coordenadas x e y. Nesta situação, obtém-se: E y ( p, q, t ) = Eoη LDW A (t − τ ) exp j 2π ( f o + f I ) t − ψ o − 2π f I τ + φo ex λF { p fI πL ⋅ sinc − q sinc π λF λ F vs } W (6) onde Eo é a amplitude do campo elétrico, τ=W/vs é a abertura temporal da célula Bragg e sinc(x)=[sen(x)]/x. A equação revela, com relação à coordenada “p”, que é paralela à direção de propagação acústica, a ocorrência de um lóbulo principal, com valor de pico posicionado em p=λFfI/vs e largura, entre os pontos de 3 dB, inversamente proporcional à dimensão W, a qual especifica o diâmetro do feixe óptico incidente, conforme mostrado na Fig. 1. Por outro lado, com relação à coordenada “q”, observa-se que a posição do pico do lóbulo central está localizada em q=0, independentemente da freqüência de FI na saída do conversor de microondas. Adicionalmente, a largura, entre os pontos de 3 dB, é inversamente proporcional a D. De acordo com o objetivo proposto na introdução deste artigo, observa-se que o resultado apresentado em (6) permite uma rápida identificação e compreensão de como os parâmetros geométricos e físicos aparecem no modelo matemático do processador à célula Bragg monocanal. III – Processador Óptico Com Célula Bragg Multicanal Recorrendo à nomenclatura adotada na Fig. 1. e enfatizando apenas as características mais relevantes do processador bidimensional, obtém-se a representação esquemática apresentada na Fig. 2. 30 Pesquisa Naval Nº 16, Outubro de 2003 Fig. 2: Representação esquemática do processador óptico com célula Bragg multicanal. Nesta configuração o feixe óptico incidente deve ser formatado de tal forma que as colunas acústicas geradas pelos “N” transdutores da rede sejam apropriadamente iluminadas. As características de células Bragg disponíveis são apresentadas na Tabela I. Tabela I: Características de células Bragg multicanal de GaP, [3]. Modo acústico Comprimento de onda Número de canais Freqüência central (MHz) Largura de faixa (MHz) Tempo de subida (ns) Abertura temporal (µs) Produto tempo-largura de faixa/canal Crosstalk (dB) Altura do eletrodo (µm) Comprimento do eletrodo (µm) Espaçamento dos eletrodos (µm) Eficiência de difração (% a 200 mWRF e 633 nm) Uniformidade eficiência de difração canal-canal (dB) Defletor [1 –1 0]S [1 –1 0]S [1 632,8 830 64 64 400 800 200 480 1,0 200 <-30 125 1800 250 22 2,56 1280 -35 50 383 250 9 ± 0,75 ± 0,75 2 < ± Pesquisa Naval Nº 16, Outubro de 2003 31 Na modelagem da resposta do processador ilustrado na Fig. 2, considera-se que a representação complexa do sinal de FI aplicado na entrada do transdutor de ordem “n”, com 1 ≤ n ≤ N, seja descrito por: Vin( n) (t , x ) = An (t ) exp j ( 2π f I t −ψ n ( x ) ) (7) Aplicando-se a formulação desenvolvida na secção anterior para cada canal, obtém-se a seguinte expressão para o campo óptico processado pelo canal “n”, na saída da célula Bragg, plano focal esquerdo da lente de Fourier, E y( n) ( x, y, t ) = η Lg n ( x ) Eo ( x, y ) rect x y rect D W An (t − tR ) ⋅ W exp j 2π ( f o + f I ) t − ka y − ka − ψ n ( x ) + φo 2 (8) onde ka=2πfI /vs é o número de onda acústico. Para prosseguir com a análise, são exploradas as similaridades com a formulação apresentada em (4) e determinado o campo elétrico total do feixe óptico, no plano da rede de fotodetectores N E Total ( p, q, t ) = ∑ E y( y n =1 n) ( p , q, t ) (9) onde E y( n) ∞ 2π ( px + qy ) dxdy λF ( p, q, t ) = ∫ ∫ E y(n) ( x, y, t ) exp j −∞ (10) Por razões de clareza, considera-se conveniente, neste estágio do trabalho, introduzir algumas simplificações e concentrar a análise em cada parcela de (9) e posteriormente realizar o somatório indicado. As simplificações são: iluminação uniforme e envoltória A(t) com variação suave com relação ao tempo. Procedendo com estas hipóteses, obtém-se: E y( n) ( p, q, t ) = KW exp j (ω o + ω I ) t An (t − τ ) ⋅ p f ∞ 2π q − ψ n ( x ) dx − I W ∫ g n ( x) exp j sinc π v F λ λ F s −∞ (11) onde K=(ηLEo/λF)exp[j(φo-4πF/λ)] e W e L referem-se às dimensões da coluna gerada pelo transdutor de ordem “n”. O resultado apresentado em (11), conforme esperado, revela a presença de um lóbulo principal cuja posição, no eixo “p”, depende da freqüência de FI. Por outro 32 Pesquisa Naval Nº 16, Outubro de 2003 lado, a determinação da dependência com relação à coordenada “q” está condicionada ao conhecimento das distribuições dos transdutores, gn(x), e do comportamento da fase, ψn(x). Portanto, é conveniente utilizar esta formulação para uma situação que possibilite a obtenção de expressão analítica para a integral. Desta forma, as soluções simplificadas podem ser muito úteis para a orientação da investigação de processadores com redes de transdutores mais complexas. As características de uma rede constituída de N=2M+1 transdutores que facilita a compreensão dos resultados desta análise é apresentada na Fig. 3. Fig. 3: Características de uma rede linear, periódica e simétrica de transdutores piezoelétricos alimentada por sinais com fases proporcionais às ordens dos transdutores. Os transdutores têm dimensão D, na direção x, e secção transversal LxD, no plano xz; a separação entre transdutores consecutivos também é igual a D. φ denota um valor de referência para a diferença de fase. A análise da Fig. 3 permite obter as representações para as quantidades gn(x) e ψn(x), as quais, substituídas em (11), proporcionam: E y( n) πD q ⋅ λF ( p, q, t ) = KA exp j (ωo + ω I ) t DW sinc p f 4π D ⋅ sinc π − I W exp jn q − φ λF λ F vS (12) Realizando a superposição das contribuições geradas por cada um dos 2M+1 canais da célula Bragg, determina-se com os auxílios de (10) e (12) a seguinte expressão para o campo no plano focal p f E Total ( p, q, t ) = KWD exp j (ω o + ω I ) t A (t − τ ) sinc π − I y λ v F S π D ⋅ sinc q R ( q, φ , M ) λF (13) Pesquisa Naval Nº 16, Outubro de 2003 33 onde 2 M + 1 4π D sen q −φ λ 2 F R ( q, φ , M ) = 4π D sen q −φ λF (14) O resultado acima revela que, para a situação ilustrada na Fig. 3, o comportamento do campo com relação às coordenadas “p” e “q” são independentes. Adicionalmente, observa-se que a posição do pico do lóbulo principal no eixo “p” é proporcional à freqüência de FI, fI, enquanto que no eixo “q” é determinada pela diferença de fase entre transdutores consecutivos, “φ”. Ressalta-se que a representação matemática do parâmetro R(q,φ,M) está de acordo com a teoria de difração de múltiplas aberturas, conforme ilustrado na Fig. 4 [5]. Esta concordância revela que para o feixe óptico cada canal da célula Bragg se comporta como uma abertura retangular, com transmitância modulada pelo sinal de microondas. A análise de (14) revela que R(q,φ,M) exibe um comportamento periódico com relação à quantidade (4πD/λ)q-φ. Os valores dos máximos absolutos de R(q,φ,M) ocorrem quando λF (φ + 2kπ ) ; k = 0, ± 1, ± 2,K (15) 4π D Portanto, para um máximo absoluto de ordem, “k”, observa-se uma dependência linear entre a sua posição no eixo “q” e a diferença de fase “φ”. Este resultado demonstra que o fator de escala que relaciona posição e defasagem, λF/4πD, independe da freqüência do sinal de microondas. qk = Fig. 4: Comportamento da amplitude do primeiro lóbulo do fator de rede, R(q,φ,M), para célula Bragg com diversos números de canais. 34 Pesquisa Naval Nº 16, Outubro de 2003 A análise de (14) revela que R(q,φ,M) exibe um comportamento periódico com relação à quantidade (4πD/λ)q-φ. Os valores dos máximos absolutos de R(q,φ,M) ocorrem quando qk = λF (φ + 2kπ ) ; k = 0, ± 1, ± 2,K 4π D (15) Portanto, para um máximo absoluto de ordem, “k”, observa-se uma dependência linear entre a sua posição no eixo “q” e a diferença de fase “φ”. Este resultado demonstra que o fator de escala que relaciona posição e defasagem, λF/4πD, independe da freqüência do sinal de microondas. Devido ao comportamento periódico de R(q,φ,M) faz-se necessário selecionar os parâmetros do processador de tal forma que a distância entre as posições de dois máximos absolutos consecutivos seja a mais elevada possível. De acordo com (14) esta diferença é dada por ∆q = qk +1 − qk = λ F 2 D (16) Conseqüentemente, para evitar a presença de mais de um lóbulo principal ao longo do eixo “q”, para uma dada geometria da rede de fotodetectores; é necessário utilizar processadores com F elevado ou D reduzido. Os limites destes parâmetros são estabelecidos por razões práticas e pela eficiência de difração da célula Bragg [5]. A formulação desenvolvida até este estágio do artigo pode ser estendida para uma rede de transdutores na qual a largura dos transdutores no eixo x, D, e o espaçamento entre eles, De, são diferentes. Neste caso, mostra-se que (15) e (16) são alteradas, respectivamente, para: qk = λF (φ + 2kπ ) 2π ( D + De ) (17) e ∆q = λ F ( D + De ) (18) Portanto, a assimetria assim introduzida da rede de transdutores flexibiliza as especificações de sua geometria, sem contudo comprometer a linearidade da relação entre fase e posição. Outro aspecto da análise do processador que merece considerações adicionais é o que diz respeito às fases dos sinais aplicados aos transdutores. Como um dos objetivos deste trabalho é o estudo da aplicação do processador para medida de ângulo de chegada, considera-se a situação, de interesse prático, na qual a direção de propagação da onda eletromagnética forma um ângulo θ com a linha de base da rede linear e não uniforme de antenas, constituída de cinco antenas, conforme ilustrado na Fig. 5 [3]. Pesquisa Naval Nº 16, Outubro de 2003 35 Fig. 5: Representação esquemática das redes não periódicas de antenas e transdutores utilizadas para detectar o ângulo de chegada. Ressalta-se que Di≠di. Na situação ilustrada na Fig. 5 a amplitude relativa do sinal recebida pela antena de ordem “n” é dada por: dn d senθ cos 2π f R t − n senθ (19) c c onde En(fR, θ) é o campo distante normalizado da antena de ordem “n”, dn é a distância entre esta antena e a antena de referência, fR é a freqüência do sinal, antes do conversor de freqüência, e c=1/(µoεo)1/2. Vin( n) (t , f R ) = En ( f R ,θ ) A t − Os sinais, representados por (19), após serem processados pelo conversor, proporcionam as seguintes entradas de FI para os transdutores: Vin( n) (t ) = An (t ) cos [2π f I t −ψ n ] En ( f R ,θ ) (20) onde ψn=(2πfR/c)dnsen(θ). A partir deste resultado foi possível desenvolver a análise do processador com redes de antenas e de transdutores não uniformes com base na formulação simplificada apresentada em (7) a (11) deste trabalho. As expressões matemáticas, assim obtidas, revelam que a dependência da posição do lóbulo principal no eixo “p” continua proporcional à freqüência de FI, porém somente quando a razão entre a separação dos transdutores for igual à razão entre a separação das antenas, às quais eles estão conectados, a posição do primeiro lóbulo principal no eixo “q” relaciona-se com o ângulo de chegada de forma simples, q = α Fsen (θ ) (21) 36 Pesquisa Naval Nº 16, Outubro de 2003 onde α é o fator de escala que depende das geometrias das redes de antenas e de transdutores e F é a distância focal da lente de Fourier. Portanto, por meio de (21), conclui-se que, uma vez medida a posição do lóbulo principal no eixo “q”, é possível calcular o ângulo de chegada θ. Ressalta-se que não é objetivo desta publicação a análise do processamento do sinal pós-fotodetectores, porém uma abordagem dos fundamentos deste tópico, com base na formulação aqui apresentada, pode ser acessada em [5]. IV – Resultados Numéricos Para ilustrar parte da formulação sobre processador multicanal apresentada na secção anterior, avaliou-se numericamente a resposta em relação à freqüência e ao ângulo de chegada de um processador que emprega célula Bragg especificada na segunda coluna da tabela I. Dentre as várias simulações realizadas, apresentase, na Fig. 6, os resultados obtidos com uma rede uniforme de 64 transdutores, na qual, as dimensões dos transdutores são: L=383µm, D=50µm e De=250µm. As fases dos sinais são selecionadas de acordo com a representação esquemática da Fig. 3. Como o número de transdutores é par, pequenos ajustes foram realizados na teoria apresentada (13). Os resultados apresentados na Fig. 6 têm motivação apenas ilustrativa. Estudos mais elaborados estão sendo conduzidos com o objetivo de desenvolver software apropriado para otimizar a resposta do processador para configurações com maior potencial de aplicação prática, inclusive com a utilização de rede circular de antenas. A análise da Fig. 6 revela que os dois lóbulos principais estão separados em freqüência por 2 MHz e em ângulo por 0,5°. Em aplicações práticas é importante obter-se resoluções semelhantes com um número inferior de transdutores e antenas. Porém, este estudo será motivo de outra publicação. Fig. 6: Resposta do processador óptico em ângulo e freqüência. As características dos picos dos lóbulos principais são: (1) f = 802 MHz e φ = 44.5° e (2) f = 800 MHz e φ = 45°. Pesquisa Naval Nº 16, Outubro de 2003 37 V – Conclusões Neste trabalho, apresentou-se os resultados de estudos que estão sendo desenvolvidos visando à aplicação de célula Bragg multicanal em detecção de sinais de microondas com ênfase nas seguintes características: espectro e ângulo de chegada. A formulação obtida leva em consideração os principais parâmetros de projeto, de forma clara, e possibilita a compreensão de vários fundamentos de processadores a célula Bragg que não são claramente apresentados na literatura disponível. A continuação deste trabalho com o objetivo de criar ferramenta computacional para otimizar os projetos das redes de antenas e transdutores constitui um dos objetivos dos autores deste trabalho Referências Bibliográficas [1] Lee, J.P., “Two-dimensional Acousto-optic Processor Using a Circular Antena Array with a Butter Matrix”, Optical Engineering, Vol. 31, No 9, pp. 1999-2011, Sep., 1992. [2] NEOS Technology, (2001), Melbourne, Florida, USA, [Online]. Available: http:// www.neostech.com [3] PAPE, D.R.,”Multichannel Bragg cells: design, performance and applications”, Optical Engineering, pp. 2148 - 2158, Vol. 31, 1992. [4] Tinoco, A.F.S., “Analisador de Espectro Acusto-óptico para Sinais de Microondas”, Instituto Tecnológico de Aeronáutica, São José dos Campos, SP, Tese, 1999. [5] A. Vanderlug, Optical Signal Processing, W. Joseph, Ed. New York, John Wiley & Sons, Inc., 1992, pp. 566-569. 38 Pesquisa Naval Nº 16, Outubro de 2003 SICONTA O SICONTA é um sistema de controle tático que possui um elevado grau de modularidade, sendo configurável para instalação em praticamente qualquer tipo de navio ou submarino. O porte compacto e a simplicidade de operação são algumas das características do sistema, que, aliadas à tecnologia de ponta utilizada em seu projeto, fazem do SICONTA um dos melhores sistemas de sua categoria a nível mundial. CARACTERÍSTICAS PRINCIPAIS Acompanhamento manual e automático de alvos. Compilação multi-sensores do panorama tático. Auxílio a manobras táticas e à navegação. Controle de aeronaves. Interface com sistema de armas. Controle de guerra eletrônica. INTERFACEAMENTO COM SENSORES Radares de vigilância e navegação. IFF. Transpondedores de helicópteros. MAGE. Enlaces digitais de dados. Sonares. "HARDWARE" E "SOFTWARE" Dois tipos de consoles: horizontal e vertical. Processadores 68030 e 68020. Barramento padrão VME. Interfaces de comunicação 802.3, 802.5, RS-422 e RS-232. Visualização de radares em terminais gráficos. TCP/IP e HDLC. Sistema operacional VRTX32. Sistema implementado de forma distribuída e tolerante a falhas. III Capítulo CÁLCULO DOS GANHOS DOS FILTROS DO SISTEMA DE RASTREAMENTO DE FOGUETES DO CENTRO DE LANÇAMENTO DE ALCÂNTARA PARA O SEGUNDO PROTÓTIPO DO VEÍCULO LANÇADOR DE SATÉLITES Mauricio A. P. Rosa, Alexandre D. Caldeira, Francisco A. Braz Filho, Lamartine N. F. Guimarães, Eduardo M. Borges e Jonas Rubini Júnior Instituto de Estudos Avançados do Centro Técnico Aeroespacial (CTA) Rod. dos Tamois, km 5,5, São José dos Campos, SP CEP 12228-900 e-mail: [email protected] Resumo Os filtros atualmente implementados no sistema de rastreamento de foguetes do Centro de Lançamento de Alcântara (CLA), são do tipo α−β−γ com ganhos fixos por fase para um total de apenas duas fases para todo o evento. Os principais objetivos deste trabalho são: apresentar uma metodologia desenvolvida para produzir conjuntos de ganhos de filtros adequados para o rastreamento de foguetes no CLA cujos dados reais ainda não se encontram disponíveis, inferir os ganhos para o lançamento do segundo protótipo do Veículo Lançador de Satélites - VLS1V02 e avaliar o desempenho dos filtros utilizados no rastreamento do VLS1-V02 durante os primeiros 55,8 segundos de vôo. Palavras-chave: rastreamento de foguetes; filtragem de dados de radares;segurança de vôo; veículo lançador de satélites Abstract The filters presently implemented in the rocket tracking system of the Centro de Lançamento de Alcântara (CLA) are of the α−β−γ type with fixed gains for each 40 Pesquisa Naval Nº 16, Outubro de 2003 flight phase for a total of only two phases for the entire event. The main objectives of this work are: to present a developed methodology to calculate sets of filter gains suitable for rocket tracking at CLA whose real flight data are not available yet, to determine the filter gains for the tracking of the second prototype of the Satellite Launcher Vehicle - VLS1-V02 and to analyze the performance of the filters during the first 55.8 seconds of the VLS1-V02 flight. 1. Introdução A motivação principal para a realização deste trabalho foi estabelecer, em cooperação com pesquisadores do Instituto de Aeronáutica e Espaço (IAE) do Centro Técnico Aeroespacial (CTA), uma metodologia de cálculo dos ganhos dos filtros para os radares ADOUR e ATLAS, para rastreamento de foguetes atualmente lançados do Centro de Lançamento de Alcântara (CLA) que não tenham dados de lançamentos anteriores destes radares disponíveis. O filtro que vem sendo utilizado no CLA é do tipo α−β−γ com ganhos constantes e iguais para todas as direções, ajustados para uma trajetória de foguete dividida em duas fases: propulsada e balística. O melhor conjunto α−β−γ foi obtido através da metodologia do índice de manobrabilidade do alvo /1/, modificada para considerar o fato de não se ter disponíveis dados de lançamentos anteriores. Na próxima seção é comentado o sistema de rastreamento de foguetes do CLA. A seguir, descreve-se o filtro do tipo α−β−γ, destacando-se os modelos cinemático e de medidas utilizados, o procedimento de cálculo do índice de manobrabilidade do alvo e o procedimento usado para a extração de ruído dos sinais. Posteriormente, são apresentados os procedimentos e critérios adotados no desenvolvimento da metodologia de cálculo de ganhos de filtros e são calculados os ganhos dos filtros para o lançamento do foguete VLS1-V02. Na seqüência, são analisados os ganhos dos filtros utilizados no rastreamento do VLS1-V02 durante o vôo normal (até 55,8 segundos), destacando-se o desempenho dos filtros e, finalmente, são apresentados os comentários mais relevantes observados nestas análises e algumas recomendações para desenvolvimentos futuros. 2. Sistema de Rastreamento de Foguetes do CLA O sistema de rastreamento de foguetes do CLA é composto, basicamente, por duas estações de radares e seus respectivos sistemas de tratamento de dados. A primeira estação, situada no Maranhão, responsável pelo rastreamento do foguete, consiste de dois radares, o ADOUR, considerado de proximidade, situado a 6 km da rampa de lançamento, e o ATLAS, de precisão, distante 30 km. A segunda estação, localizada no Centro de Lançamento da Barreira do Inferno (CLBI), no Rio Grande do Norte, é utilizada para a definição do ponto de injeção em órbita do satélite e não será analisada neste trabalho. Pesquisa Naval Nº 16, Outubro de 2003 41 Os dados brutos são adquiridos pelos radares ADOUR e ATLAS fornecendo as informações de elevação, azimute e distância do foguete. A seguir, estes dados são enviados a dois sistemas de tratamento de dados de localização que apresentam como característica importante a operação em tempo real, condição necessária para o rastreamento de foguetes. Uma das finalidades destes sistemas é efetuar a filtragem dos dados brutos (medidas de posição do foguete pelos radares) através de algoritmos computacionais e gerar o que denomina-se dados filtrados (valores de posição e velocidade estimados do foguete) através dos quais é possível inferir, a todo instante, a posição na superfície terrestre de uma possível queda do foguete. Denomina-se trajetória do ponto de impacto à evolução temporal desta grandeza. Os dados filtrados de cada radar são enviados para os sistemas centrais de tratamento de dados de localização. Somente os dados do radar designado são enviados para as estações de visualização de trajetória. Estas estações possuem terminais que estão localizados na sala da Segurança de Vôo. O principal objetivo da Segurança de Vôo é o acompanhamento visual da evolução das trajetórias de posição e do ponto de impacto do foguete. No caso em que a trajetória do ponto de impacto tende a deixar uma região de segurança pré-estabelecida, é de responsabilidade da Segurança de Vôo abortar a missão. 3. Filtro do Tipo α−β−γ A fórmula de recursão (filtro de Kalman) da estimativa do vetor de estado para o instante t k +1 de um sistema dinâmico é dada por [ ] x$ ( k + 1) = x$ p ( k + 1) + W ( k + 1) z ( k + 1) − z$ p ( k + 1) , onde xˆ (k + 1) é a atualização da estimativa do vetor de estado, xˆ p (k + 1) o valor predito da estimativa do vetor de estado, filtro, (1) W (k + 1) a estimativa do vetor ganho do z (k + 1) o valor medido e zˆ p (k + 1) o valor predito da estimativa da medida. No caso de rastreamento de alvos, a utilização desta fórmula e a obtenção do vetor ganho dependem dos modelos cinemático e de medidas adotados. O modelo cinemático estocástico adotado para os filtros atuais do sistema de rastreamento de foguetes do CLA é o de aceleração constante por partes (processo de Wiener) /1/. Neste modelo, o ruído branco de processo, v ( k ) , é o incremento da aceleração durante o k -ésimo período de amostragem. Portanto, definindo-se T = t k +1 − t k como um período de amostragem uniforme, compreendido entre os 42 Pesquisa Naval Nº 16, Outubro de 2003 instantes t k e escrita como t k +1 , a equação matricial que descreve a dinâmica do foguete pode ser x (k + 1) = F x (k ) + à v(k ) , (2) para s(t k ) x( k ) = v el (t k ) , a (t k ) onde 1 T T 2 2 T , F = 0 1 0 0 1 T 2 2 Γ = T 1 (3) s , vel e a representam a posição, velocidade e aceleração do foguete, respectivamente, e v(k ) é um escalar. O modelo de medidas da posição em uma direção específica é dado por z ( k ) = H ( k ) x ( k ) + w( k ) , (4) com [ ] H (k ) = 1 0 0 , onde (5) w( k ) representa o ruído das medidas. O vetor de estado predito, x$ p ( k + 1) , é calculado em função da última atualização da estimativa do vetor de estado, x$ ( k ) , através da equação xˆ p (k + 1) = F xˆ (k ) , enquanto que o valor predito da medida, de estado predito, (6) z$ p ( k + 1) , é calculado em função do vetor x$ p ( k + 1) , pela equação zˆ p (k + 1) = H xˆ p (k + 1) = HF xˆ (k ) . (7) Pesquisa Naval Nº 16, Outubro de 2003 43 O vetor ganho de filtros do tipo α−β−γ apresenta a seguinte notação W ≡ α ; β γ ; , T 2T 2 (8) onde α, β/T e γ/2T2 são os ganhos para as variáveis de posição, velocidade e aceleração, respectivamente, e α, β e γ são constantes a serem determinadas. Doravante, embora de uma maneira imprecisa, os parâmetros α, β e γ serão ocasionalmente denominados ganhos dos filtros, por questão de simplicidade. O algoritmo completo considera a mesma fórmula de recursão para todas as direções. Os filtros implementados atualmente no CLA consideram ganhos idênticos em todas as direções (x, y e z) e apenas dois conjuntos de ganhos distintos (duas fases de vôo) para todo o vôo, independentemente se o foguete apresenta mais do que um estágio de propulsão, como são os casos do VS40 e VLS. A seguir é apresentada a metodologia de cálculo dos ganhos através do índice de manobrabilidade do alvo. Pode-se mostrar /1/ que, para o modelo cinemático adotado, a matriz de covariância da estimativa do vetor de estado converge para um valor de estado estacionário. Além do mais, pode-se obter expressões explícitas para o vetor ganho em função do parâmetro λ , denominado índice de manobrabilidade do alvo: γ2 = λ2 , 4(1 − α ) (9) β = 2( 2 − α ) − 4 1 − α , (10) β2 γ = α O índice de manobrabilidade do alvo, σvT 2 λ= , σw (11) λ , é dado por: (12) onde os parâmetros σ v e σ w representam as incertezas no movimento do alvo e nas medidas dos radares, respectivamente, e T é o tempo de amostragem dos radares. 44 Pesquisa Naval Nº 16, Outubro de 2003 O parâmetro σ v depende, basicamente, do modelo cinemático adotado para o rastreamento do alvo. No presente caso σ v é calculado a partir da curva nominal de aceleração longitudinal do veículo. Na Referência 1 é recomendado utilizar-se valores na faixa ∆ a max / 2 ≤ σ v ≤ ∆ a max , onde ∆ a max é a maior variação absoluta de aceleração num intervalo de amostragem (T), compatível com aquele dos radares, para uma dada fase do vôo. Na presente análise, adotou-se o valor mínimo desta faixa, isto é, σ v = ∆a max / 2 . Uma vez que o parâmetro σ w é função das características particulares de cada radar, associa-se o valor deste parâmetro ao desvio padrão, obtido a partir do ruído de média zero, retirado das medidas de posição dos radares do alvo rastreado. O valor de σ w global é obtido através das variâncias dos ruídos nas direções x, y e z, usando-se a fórmula σ w = σ w2 , x + σ w2 , y + σ w2 ,z . (13) 4. Extração de Ruídos de Dados dos Radares Nesta seção é explicada de forma sucinta a técnica utilizada para a obtenção do ruído de medida de média zero. Um exemplo deste ruído é apresentado na Figura 1 para um vôo emulado do VLS. Entende-se como vôo emulado forçar o radar a acompanhar uma trajetória de um vôo fictício do foguete. Este vôo emulado recebe o nome de SAGADA, que é a abreviatura em Francês para “Site Automatique”, “Giseman Automatique” e “Distance Automatique”, os quais são os ângulos de elevação e de azimute e a distância do foguete ao radar, respectivamente, e que representam os dados de posição medidos, em coordenadas esféricas. Este tipo de dado será amplamente utilizado no cálculo dos ganhos do filtro, uma vez que dados reais de vôo ainda não estão disponíveis. Entende-se aqui como ruído de média zero aquele que apresenta uma distribuição aproximadamente simétrica de pontos em torno do valor zero. O cálculo da média pode ser utilizado para se inferir a proximidade desta de zero. O ruído de média zero é obtido da diferença entre os respectivos valores de posição medidos e os produzidos por uma curva polinomial de ajuste, uma vez que o valor real não é conhecido. Estas curvas polinomiais são ajustadas aos valores medidos para cada fase distinta de vôo e cada direção. O procedimento de extração de ruídos e o cálculo das variâncias para cada direção foram desenvolvidos no ambiente MATLAB /2/. Pesquisa Naval Nº 16, Outubro de 2003 Figura 1: Ruído na coordenada 45 z , radar ATLAS, do SAGADA do VLS. 5. Metodologia de Cálculo de Ganhos dos Filtros O objetivo da análise apresentada nesta seção é estabelecer um critério para inferir ganhos de filtros, para os radares ADOUR e ATLAS, adequados para o rastreamento de foguetes, cujos dados reais brutos ainda não estejam disponíveis, tais como o VLS e outros foguetes. O vôo do VS30 (em março de 1999) foi o único evento para o qual foram fornecidos dados brutos reais e de SAGADA para ambos os radares, portanto, este caso foi utilizado como base para se estabelecer um critério de cálculo de ganhos dos filtros que utilize somente dados de SAGADA, uma vez que se considera que este é o único tipo de dado disponível para análise. Para a solução das Equações (9) a (12), obtidas da metodologia do índice de manobrabilidade do alvo, é necessário conhecer-se as incertezas σ v e σ w . A incerteza σ v é obtida da curva de aceleração nominal do foguete. A incerteza σ w é calculada corrigindo-se o valor desta grandeza, obtida com ruído de SAGADA do foguete analisado, por um fator que é a razão das incertezas calculadas para os ruídos real e de SAGADA do VS30. A Figura 2 ilustra o comportamento da curva de desvio padrão da diferença entre os pontos de impacto nominal e filtrado, σ PI , em função do ganho α. O valor deste parâmetro que minimiza esta curva para ruído real é considerado, para este 46 Pesquisa Naval Nº 16, Outubro de 2003 estudo, o de referência. Desta forma, os ganhos α assim produzidos para as fases de propulsão e balística com dados reais do VS30 foram utilizados para se obter fatores de correção que devem ser aplicados aos calculados através da metodologia do índice de manobrabilidade do alvo. Considera-se que estes fatores, utilizados somente para o cálculo do ganho α, prevaleçam para vôos semelhantes, até mesmo de outros tipos de foguetes como, por exemplo, o VLS. Com o ganho α assim obtido, calculam-se os respectivos ganhos β e γ através da solução das Equações (10) e (11). A seguir são apresentados os procedimentos de cálculo destes fatores e os ganhos para o VS30. 12000 R a d a r A D O U R - F a s e P r o p u ls a d a Desvio Padrão do Ponto de Impacto (m) SAGADA REAL 10000 8000 6000 4000 2000 0 .0 2 0 .0 4 0 .0 6 0 .0 8 0 .1 0 0 .1 2 0 .1 4 0 .1 6 G a n h o A lp h a Figura 2: Desvio padrão do ponto de impacto para ruído real e de SAGADA para a fase propulsada, calculado com dados do radar ADOUR. O VS30 é um foguete com uma fase inicial propulsada de 31 segundos e o restante do vôo é balístico até aproximadamente 350 segundos. A Figura 3 mostra as curvas de aceleração longitudinal nominal e real para este vôo. Nota-se que a curva real é muito próxima à nominal, o que indica o sucesso do vôo. Pesquisa Naval Nº 16, Outubro de 2003 47 13 12 Aceleração Longitudinal do VS30 (g) 11 10 9 8 N O M IN A L 7 REAL 6 5 4 3 2 1 0 -1 0 10 20 30 40 50 60 70 T em p o (s) Figura 3: Curvas de aceleração longitudinal nominal e real para o lançamento do VS30 realizado em 15/03/99. Os valores calculados de σ v , para as fases propulsada e balística do VS30, para o tempo de amostragem de 0,05 segundos, são 1,98 e 0,34 m/s2, respectivamente. A incerteza nas medidas, σ w , bem como a razão destas incertezas para ruído real e de SAGADA, para ambos os radares e por fase do vôo, são mostradas na Tabela 1. As razões das incertezas entre ruído real e de SAGADA, apresentadas na última linha desta tabela, são os fatores utilizados para inferir incertezas de medidas reais para casos de lançamentos em que só estejam disponíveis dados de SAGADA. Tabela 1: Valores de σ w (m) para cada fase e radar para o vôo do VS30. 48 Pesquisa Naval Nº 16, Outubro de 2003 Os valores de σ w para ruído real e os de σ v mencionados anteriormente são utilizados para calcular os ganhos dos filtros através da metodologia do índice de manobrabilidade do alvo. A Tabela 2 apresenta os ganhos α calculados através da metodologia do índice de manobrabilidade do alvo e da minimização do desvio padrão ( σ PI ) utilizando dados reais, bem como os percentuais relativos de correção entre estes ganhos, para cada fase do vôo do VS30 e cada radar. Tabela 2 Ganho α Metodologia do índice Minimização de σ PI de manobrabilidade do com dados reais alvo Propulsada Balística Propulsada Balística ADOUR 0,098 0,049 0,105 0,052 ATLAS 0,194 0,090 0,135 0,085 Perce corre Propu + − Portanto, em casos em que não sejam disponibilizados dados reais mas se conheçam dados de SAGADA, tais como para o VLS, os ganhos dos filtros devem ser inferidos com a metodologia apresentada. Este procedimento deve ser reavaliado, à medida que mais dados reais estejam disponíveis. 6. Avaliação dos Ganhos dos Filtros para o Lançamento do VLS1-V02 A seguir, serão avaliados os ganhos dos filtros do sistema de rastreamento de foguetes do CLA, para o lançamento do foguete VLS1-V02. O VLS1-V02 é o segundo protótipo do Veículo Lançador de Satélites em desenvolvimento no IAE. O vôo está programado para apresentar 6 fases. A Figura 4 mostra as acelerações dos três primeiros estágios seguidas de uma fase balística e, finalmente, o quarto e último estágio. Nesta figura não é mostrada uma fase balística, posterior a este último estágio, por não ser importante para a Segurança de Vôo. Embora existam 6 fases distintas, o sistema atual de filtragem só permite a divisão do lançamento em duas, o que implica na necessidade de agrupamento de algumas destas fases. Pela análise feita anteriormente, os ganhos da fase propulsada são bem diferentes dos da balística, assim sendo, adotou-se, para efeito de cálculo, uma fase de 0 a 193 s (Fase−1) e outra de 193 a 569,4 s (Fase−2). Pesquisa Naval Nº 16, Outubro de 2003 49 Aceleração Longitudinal Nominal do VLS (m/s 2 ) 90 80 70 60 50 40 30 20 10 0 0 100 200 300 400 500 600 T e m p o (s ) Figura 4: Aceleração longitudinal nominal do VLS. Na Tabela 3 são apresentados os valores de σ v , calculados a partir da curva de aceleração nominal do VLS1-V02, para a divisão de fases estabelecida. Tabela 3: Valores de σ v (m/s2) para o VLS1-V02. Fases Tinicial (s) T final (s Fase-1 Fase-2 0 193 193 569,4 Utilizando-se os dados referentes ao SAGADA do VLS para os radares ADOUR e ATLAS, calculou-se as incertezas nas medidas destes radares, σ w . A estes valores aplicaram-se as razões apresentadas na Tabela 1, para ambas as fases do VLS1V02, com o intuito de inferir resultados reais deste parâmetro, os quais são mostrados na Tabela 4. Considerou-se a razão da fase balística do VS30 para a Fase–2 do VLS1V02, uma vez que a duração do quarto estágio é bem menor que a da balística. Tabela 4: Valores inferidos das incertezas nas medidas, Fase–1 Fase–2 ADOUR 114,6 773,7 σ w (m). 50 Pesquisa Naval Nº 16, Outubro de 2003 Com os dados das Tabelas 3 e 4 obteve-se os valores de λ e respectivos valores de α, β e γ para ambas as fases, para os radares ADOUR e ATLAS. Considerando-se as correções propostas na Tabela 2, os valores calculados para estes parâmetros são apresentados nas Tabelas 5 e 6, para os radares ADOUR e ATLAS, respectivamente. Tabela 5: Parâmetros do filtro para o radar ADOUR. Fase–1 Fase–2 † λ 4,63(–5) † 2,70(–6) α 0,069 0,027 Leia como 4,63×10–5 Tabela 6: Parâmetros do filtro para o radar ATLAS. Fase–1 Fase–2 † λ 1,71(–4) † 6,43(–5) α 0,105 0,077 Leia como 1,71×10–4 7. Análise do Rastreamento do VLS1-V02 O lançamento do segundo protótipo do Veículo Lançador de Satélites (VLS1V02) ocorreu em 11 de dezembro de 1999 no CLA. O vôo do foguete transcorreu normalmente até 55,8 segundos do lançamento, quando ocorreu uma explosão no motor do segundo estágio e o foguete deixou de ser propulsado /3/. A partir deste instante, embora a missão de colocação do satélite em órbita tenha sido perdida, permitiu-se que o foguete continuasse evoluindo, adiando assim a sua destruição, uma vez que este, embora em trajetória anômala, ainda permaneceu dentro dos limites de segurança. Desta forma, os radares continuaram coletando dados do foguete até o instante de 189 segundos aproximadamente. Os desempenhos dos filtros serão analisados somente para os primeiros 55,8 segundos de vôo, tempo este em que o vôo foi considerado normal pois os ganhos dos filtros são fixos e calculados a partir de condições nominais de vôo. Verifica-se, através da Figura 5, que o ponto de impacto calculado através dos dados do radar ADOUR teve uma mudança considerável de comportamento, a partir do instante 49 segundos. Isto ocorreu devido a variações inesperadas e acentuadas nos componentes de posição e velocidade do foguete a partir deste instante, calculados pelo sistema de filtragem deste radar. Constatou-se que tais oscilações não se originaram no sistema de filtragem de dados e sim nos próprios dados brutos medidos pelo radar ADOUR. Pesquisa Naval Nº 16, Outubro de 2003 51 O radar ATLAS é designado somente a partir do instante 8,3 segundo de vôo. Verificou-se que o efeito de inicialização do filtro pode ter conseqüências bastante graves no que diz respeito à segurança de vôo, uma vez que o ponto de impacto foi muito afetado pela inicialização imprecisa do filtro deste radar. Como pode ser observado na Figura 5, grandes alterações deste parâmetro, nos primeiros instantes após a sua designação, afetaram o rastreamento do foguete por este radar até aproximadamente 25 segundos após o lançamento. Portanto, alternativas de inicialização do filtro diferentes da atual, que considera o foguete estacionado na rampa de lançamento no momento de designação, devem ser consideradas a fim de minimizar o seu efeito sobre o ponto de impacto. Quanto a este radar, notou-se ainda que o conjunto de ganhos do filtro foi menos eficiente para o movimento na direção y do que o observado nas outras direções /4/. Isto sugere que projetar conjuntos de ganhos distintos para cada direção deve melhorar o desempenho do filtro. 6000 Desvio do Ponto de impacto (m) R adar ATLAS 5000 ADOUR 4000 3000 2000 1000 0 0 10 20 30 40 50 T e m p o (s ) Figura 5: Desvio do ponto de impacto calculado pelos sistemas de filtragem dos radares ADOUR e ATLAS. 8. Comentários e Recomendações Embora o radar ATLAS tenha passado a ser o radar primário a partir do instante 8,3 segundo de vôo do VLS1-V02, pôde-se observar que o radar ADOUR apresentou um melhor desempenho (menor desvio do ponto de impacto) que o radar ATLAS até aproximadamente o instante 40 segundos de vôo. Portanto, a não ser que atitudes sejam tomadas para melhorar a inicialização do radar ATLAS e que se permita 52 Pesquisa Naval Nº 16, Outubro de 2003 a utilização de ganhos distintos por direção, deve-se avaliar a possibilidade de permitir que o radar ADOUR permaneça, por mais tempo que os 8,3 segundos iniciais, como o radar primário. Em virtude das análises realizadas apresentam-se as seguintes recomendações: i) analisar os resultados do SAGADA para o radar ADOUR, posterior ao lançamento do VLS1-V02, a fim de verificar se as oscilações observadas nos dados reais estão presentes também nestes dados; ii) melhorar a inicialização do filtro do radar ATLAS e avaliar a possibilidade de permitir que o radar ADOUR permaneça por mais tempo que os 8,3 segundos iniciais de vôo como o radar primário; iii) considerar a possibilidade de estender a metodologia atual para cálculos de conjuntos de ganhos distintos por direção e para múltiplas fases de vôo; iv) desenvolver um algoritmo computacional completo de extração de ruído de média zero; e v) estudar a viabilidade de desenvolver novos filtros com ganhos adaptativos (utilizando o conceito de Kalman), adequados também para situações anômalas. Os resultados da análise do vôo do VLS1-V02 mostraram que, de um modo geral, os sistemas de filtragem, para ambos os radares, tiveram um bom desempenho durante o periodo de vôo analisado. Para estes estudos foram desenvolvidas ou aprimoradas várias ferramentas de cálculo e de análise, que permitiram, também, uma melhor compreensão e visualização do problema estudado /4/. 9. Referências Bibliográficas [1] Yaakov Bar-Shalon and Xiao-Rong Li, “Estimation and Tracking: Principles, Techniques and Software”, Artech House Inc., 1993. [2] “MATLAB: The Language of Technical Computing”, The Math Works Inc. US, 1998. [3] Carrara, Walter José, “Análise da Falha do Propulsor do Veículo VLS1-V02”, DOC. 590.000.000/B6012, IAE/CTA, Fevereiro de 2000. [4] A. D. Caldeira, E. M. Borges, F. A. Braz Filho, Jonas Rubini Jr., L. N. F. Guimarães e M. A. P. Rosa , “Avaliação e Análise dos Ganhos dos Filtros do Sistema de Rastreamento de Foguetes do Centro de Lançamento de Alcântara para o vôo do VLS1-V02”, Relatório de Pesquisa, CTA/IEAv-RP-001/2000. 10. Agradecimentos Os autores gostariam de expressar os seus agradecimentos ao Cel. Gastão e ao Cel. Lousada, pela oportunidade e confiança depositada no grupo, aos colegas do IAE, Ten.-Cel. Pelson, Maj. Eudy, Raul, Laís e Yoshino, pela imprescindível colaboração e esclarecedoras discussões em todas as etapas deste desenvolvimento, e a todos que, de alguma forma, contribuíram para o sucesso deste trabalho. IV Capítulo NONLINEAR FLAPPING OSCILLATIONS IN HELICOPTER ROTORS Roberto Ramos, M. Eng Donizeti de Andrade, PhD Technological Institute of Aeronautics (ITA), Aerospace Technical Center (CTA) 12228-900 São José dos Campos, São Paulo, Brazil e-mail: [email protected], [email protected] Resumo Este trabalho apresenta um estudo do movimento não-linear de batimento das pás de rotores de helicópteros em vôo pairado considerando os efeitos de rajadas de vento. A equação diferencial não-linear para o movimento de batimento é obtida e as simulações computacionais juntamente com a análise de bifurcações mostram que acima de um ângulo de passo coletivo crítico, grandes oscilações em batimento podem ocorrer devido ao fenômeno de salto (“jump”), particularmente sob fortes ventos e com velocidades de rotação reduzidas. Estas grandes oscilações, talvez destrutivas, não são previstas pelo modelo linear e podem estar relacionadas com o fenômeno de “blade sailing”, uma ocorrência comum em operações navais. _____________ Accepted for presentation at the 29th European Rotorcraft Forum, Friedrichshafen, Germany, Sept. 16-18, 2003. Abstract This work presents a study of the nonlinear flapping motion of helicopter rotor blades in hover considering gust effects. The nonlinear differential equation for the flapping motion is obtained and the computational simulations and bifurcation analysis show that above a critical collective pitch angle, large flapping oscillations can occur due to a jump phenomenon, particularly under high winds and with reduced rotational speeds. These large, possibly destructive, oscillations 54 Pesquisa Naval Nº 16, Outubro de 2003 are not predicted by the linear model and may be related to the phenomenon of blade sailing, a common occurrence in naval operations. Keywords. helicopter, rotor, flapping, nonlinear, dynamics, oscillations, gust, naval operations. Nomenclature R - rotor radius, m w - vertical gust velocity, m/s Vmw - mean wind velocity, m/s α - gust amplitude, m/s β - flapping angle, rad γ - Lock number λ - wavelength, m λ1 - nondimensional flapping frequency ratio vi - induced velocity, m/s φ - inflow angle, rad θ 0 - collective pitch angle, rad Ω - rotor rotational speed, rad/s p B , q B , rB - components of the blade angular velocity Introduction Helicopter response in gusty air has been poorly studied, despite its importance for several applications, particularly in naval operations. Large flapping oscillations in helicopter rotors can occur at low rotational speeds in high winds, a phenomenon called blade sailing (Refs. 1,2). Tail-boom strikes have happened during the startup or shutdown of the rotor system, occasionally yielding severe damage (Refs. 3,4,5). For some naval helicopters, like the H-46 Sea Knight, a relatively small flapping angle is enough to result in blade strike and thus a linear analysis is suitable to study the phenomenon. However, despite the standard low collective and inflow inputs, the coupling with a high amplitude gust at low rotor speeds can amplify the nonlinear structural effects. Pesquisa Naval Nº 16, Outubro de 2003 55 This work investigates the resulting nonlinear flapping motion of rotor blades in hover considering gust effects. The aim is to compare the linear model commonly used for small flapping oscillations analysis (Refs. 6,7,8) to a more general nonlinear model for the rotor blades in hover that allows large flapping oscillations to occur due to gusty air and collective pitch command. The arising of large destructive oscillations in structures due to a gust input is not a new phenomenon. The famous case of the Tacoma Narrows Bridge, not still completely understood, illustrates that the linear approach, based on resonance, may not be the correct explanation for the observed large oscillations. The resonance phenomenon requires stringent conditions of damping and gust/structure frequencies to take place. A recent and more plausible hypothesis is based on the nonlinearity of the system, which obviously cannot be captured by linearizing the model, under the small angle assumption (Ref. 9). Previous Work Large flapping oscillations in helicopter rotors have been studied by some researchers (Refs. 1-5). The focus has been the blade sailing, which is an aeroelastic phenomenon affecting helicopter rotors when rotating at low speeds in high wind conditions. Particularly at low speeds, during startup or shutdown, gusts are of concern since the blade is free to flap and bend in the absence of strong centrifugal forces (Ref. 10). For very low rotor speeds, the aerodynamic forces are much less than at full rotor speed and the droop stops are of some value. Many rotors have spring-loaded, centrifugally operated droop stops that prevent the blades from going below the rotor hub’s height until the rotor speed is near its operating value. Despite this there have been numerous events where the helicopter blades have actually impacted the helicopter fuselage, which is called “tunnel strikes”. Besides the airframe, the flight crew and any personnel working close to the aircraft can be affected. The U.S. Army requires that the rotor can be safely started and stopped in 45-knot winds, while U.S. Navy requires a 60-knot capability (Ref. 10). The blade sailing phenomenon is particularly applicable to naval helicopters or those operating off exposed sights such as oil rigs (Refs. 1,2). Naval Helicopters Naval helicopters, like LYNX, NH90 and EH101, are vertical flight vehicles that operate from the deck of ships like aircraft carriers, frigates and naval amphibious assault vessels. They often operate in bad weather, involving harsh and unstable conditions. Statistically, a helicopter can safely land on a frigate in the North Sea only 10 percent of the time in winter (Refs. 3,4,5). 56 Pesquisa Naval Nº 16, Outubro de 2003 High winds, the rotor downwash and the turbulent airflow over the ship’s superstructure generate an aerodynamic environment that increases the pilot’s workload and reduces the operational safety, particularly during helicopter approach, landing and takeoff. These severe conditions affect the control performance, handling qualities and structural limits of the helicopter, yielding the blade strikes. The occurrence of the large flapping oscillations may be related to resonance due to the matching between the angular frequency of the rotor and the shedding frequency of vortices from the sharp edges of the ship. However, when the rotor is prone to large flapping deflections, the nonlinear effects become relevant and resonance may not be the unique explanation for the large flapping motion observed in practice. Bifurcation, limit cycles and chaos must also be taken into account. Sensitive dependence on initial values and strong change of flapping behavior according to several varying parameters are conditions that must be evaluated through analytical and numerical tools. The nonlinear theory based on a topological approach is still poorly understood and used by engineers. Except possibly for limit cycle oscillations (Ref. 11), concepts like attractors, bifurcations and Lyapunov exponents are nearly absent of the aeronautical research, even about helicopter rotor dynamics, which is inherently nonlinear. The engineering analysis based on Computational Fluid Dynamics (CFD) and Wind Tunnel tests is very important, but the tools of the bifurcation and chaos theory can shed light on the complex dynamics of naval helicopters, driving and complementing the experimental work. The investigation and understanding of the nonlinear aeroelastic phenomena related to helicopter operations in a hostile wind environment can determine operational and design modifications for improved safety and autonomy. Integrated Model for Rotor Dynamics with Aerodynamic Gust Disturbance The aerodynamics and structural dynamics of the rotor, linked to an autopilot used to trim the system, may be represented by Fig. 1 (Refs. 12,13): Figure 1. Structure-Aerodynamics-Control Interactions Pesquisa Naval Nº 16, Outubro de 2003 57 The airloads theory relates the velocity field about the section to the lift, drag and pitching moment. The induced flow theory links the rotor airload distribution to the inflow velocity distribution at the rotor disk. The structural model relates the rotor airloads to the blade motions. The autopilot provides the collective and cyclic control inputs required for the desired flight condition, specified by hub thrust, roll and pitch moment coefficients. The pilot must keep a trimmed flight condition in an aeroelastic context and, thus, an aeromechanical control problem must be resolved (Ref. 12). Aiming to consider a possible aerodynamic disturbance, like a vertical gust or turbulence, the integrated rotor model includes this external effect on the velocity distribution. The resulting airloads (lift and pitching moment) can produce significant deviations from the specified hub thrust, roll and pitch moment coefficients, possibly preventing the autopilot from keeping the planned set-points and trajectories and, thus, increasing the pilot workload. Nonlinear Flapping Model with Gust Effects The flapping degree of freedom of helicopter rotors was introduced to isolate the problem created by the advancing and retreating sides, associated to the dissymmetry of lift in forward flight (Ref. 7). The flapping, lagging and torsional degrees of freedom of the flexible rotor interact nonlinearly and a lot of work has been dedicated to analyze these couplings (Ref. 11). According to the integrated model in Fig. 1, the aerodynamic loads are dependent on the structure deformation (Ref. 14). However, the structure is also dependent on the aerodynamic environment and gusty air can produce large deflections, amplifying the nonlinear effects. In order to study the flapping behavior in gusty air and analyze the nonlinear effects, the rotor is assumed to be fully articulated, operating in a hovering state with no translational velocity. The rotor blade is assumed to be rigid and the nonlinear flapping model is derived using the blade element theory (Ref. 8). The flapping model includes a simplified sinusoidal vertical gust and collective pitch inputs with constant inflow, neglecting the couplings with the other degrees of freedom. Initially it is important to identify the sources of the flapping nonlinearities and the conditions under which these nonlinearities are significant. In order to accomplish this, the equation of motion of the rotor blade about the flapping axis must be obtained. Using the Newtonian approach and Euler’s equations 58 Pesquisa Naval Nº 16, Outubro de 2003 based on a blade-body axis system and considering the blade as a very slender rod, the angular acceleration of the blade about the flapping axis y is given by (Ref. 8): αy = dq B − p B rB dt (1) where p B = Ω sin β q B = −dβ / dt rB = Ω cos β (2) Therefore the angular acceleration of the blade about the y axis is: αy =− d 2β − Ω 2 sin β cos β dt 2 The Equation (3) determines the flapping nonlinearity, which is significant only for large angles. However, this condition is typical for blade sailing phenomenon and thus the linear approximation is not applicable. The inflow angle for a radial blade element located at distance r from the rotor hub obtained in Ref. 8, made up of the effect of induced velocity (downwash) and the induced angle due to flapping velocity, can be modified by including gust effects, as follows: φ= r dβ + vi − w dt Ωr (4) where φ is the new inflow angle, assumed to be relatively small. Therefore, the nonlinear differential equation for the flapping motion in hover with gust effects is: d 2 β γΩ dβ + + λ12Ω 2 sin β cos β 2 8 dt dt γθ γv γΩ = 0 − i Ω 2 + w 6R 8 6ΩR (5) Pesquisa Naval Nº 16, Outubro de 2003 59 The gust effects are modeled by a simplified vertical sinusoidal wave actuating uniformly over the rotor blades (Ref. 15): 2π w = α sin Vmw t λ (6) This gust model is far from the complex air wake patterns that exist in a real environment, particularly over ships (Ref. 16), but it allows a preliminary study of the fluid-structure-pilot nonlinear interactions in dangerous situations. The term λ12 Ω 2 sin β cos β of the Equation (5) represents the nonlinearity of the flapping motion and it is usually approximated by the term λ12 Ω 2 β for small amplitude oscillations (Refs. 6,7,8). While this approximation seems reasonable for stability analysis purposes around an equilibrium position, the gust response may require a nonlinear analysis considering the possibility of the arising of large oscillations. Simulation of the Nonlinear Flapping Equation A common approach for rotor stability analysis is to find the equilibrium points using the complete nonlinear equations and then linearize the equations around these points. However, though commonly assumed, this static nonlinear approach may not be adequate for response problems, for, in fact, the modeling requires the use of nonhomogeneous differential equations with forcing terms that interact in a complex way. Therefore, the aeroelastic investigation developed in the present work uses the fully nonlinear model describing the dynamic flapping behavior and is based on the Runge–Kutta simulation of the Equation (5). Fig. 2 shows the differences between the solutions predicted by the nonlinear model and the linear one, for the following set of parameters and inputs: R = 5 .7 m γ =8 Ω = 10rad / s λ1 = 1 θ 0 = 4 deg v i = 0m / s α = 21m / s λ = 15m Vmw = 3m / s 60 Pesquisa Naval Nº 16, Outubro de 2003 Figure 2. Nonlinear and linear gust/collective pitch response. The low rotational speed used in the simulation represents a condition of startup or shutdown of the rotor system, when the centrifugal force is small. This condition is also associated with a low stiffness of the rotor blades. The simulation considered a high amplitude sinusoidal gust input, thus generating a large aerodynamic force. The combination of low stiffness, large aerodynamic force and nonlinear effects gave rise to the excessive flapping of the rotor blades shown in Fig. 2. Possibly this nonlinear phenomenon is present in some blade sailing occurrences. A linear model can be used to study this phenomenon if relatively small flapping angles are considered. However, for large angles the nonlinearity becomes important and a new class of phenomena can occur, including bifurcations and, possibly, chaos. Bifurcation Analysis 2 1 2 Approximating the term λ Ω sin β cos β in Equation (5) by λ12 Ω 2 ( β − 2 β 3 / 3) , valid for the considered range of the flapping angles (0 to 1 Pesquisa Naval Nº 16, Outubro de 2003 61 rad), a nonlinear Duffing-type model is obtained, as follows: d 2 β γΩ dβ 2 2 + + λ1 Ω (β − 2β 3 / 3) 8 dt dt 2 γv γΩ γθ = 0 − i Ω2 + w 6R 8 6ΩR (7) Equation (7) can be written in the general form: d 2β dβ + + bβ + cβ 3 a 2 dt dt = B0 + B1 sinωt = f (θ0 , w) (8) A first approximate solution is given by: β (t ) = C 0 + C1 sin(ωt + σ ) (9) Substituting (9) in (8) and using the method of harmonic balance (Refs. 17,18), the result is a system of algebraic equations involving C 0 , C1 , σ : C1 (−ω 2 + b + 3cC02 + 3cC12 / 4) = = B1 cosσ − aωC1 = B1 sinσ (10) C0 (b + cC + 3cC / 2) = B0 2 0 2 1 The flapping response given by (9) and (10) exhibits the nonlinear behavior called jump phenomenon, related to a cycle bifurcation (Ref. 19). This occurrence is due to the multi-value solutions of C1 for a particular B0 . Two limit cycles with different stability properties coexist for some values of the control parameter (collective pitch command theta0). 62 Pesquisa Naval Nº 16, Outubro de 2003 Fig. 3 shows the jump phenomenon related to the Duffing-type Equation (7). Figure 3. Bifurcation diagram for beta (flapping amplitude) varying according to the control parameter theta0 (collective pitch command). Discussion of the Analysis Results The large damping, approximately equal to γ/16 (γ range is, typically, from 5 to 15), prevents large flapping oscillations from occurring in normal conditions, which is a highly desirable property. However, the computational simulations and the bifurcation analysis show that a combination of low rotational speeds, low gust frequencies and large gust amplitudes can give rise to large, possibly destructive, flapping oscillations if the collective pitch is commanded above a critical angle. This jump phenomenon is inherent to nonlinear systems and is not predicted by the linear model. Fig. 2 shows the large difference between the flapping amplitudes predicted by the two models. The origin of the discrepancies between the two models is that the principle of superposition does not apply for the nonlinear flapping and, thus, the gust and collective pitch input contributions are not additive, yielding the large oscillations. Pesquisa Naval Nº 16, Outubro de 2003 63 Therefore the reduction of excessive tip deflections by increasing the blade collective pitch setting as suggested in Refs. 3-5 should be carefully analyzed, taking into account the possible onset of the jump phenomenon. Conclusions The analysis of the Equation (5) reveals that a helicopter rotor, as a nonlinear dynamic system, may be extremely sensitive to a gust input, despite the large flapping damping. Probably a careful nonlinear analysis validated by experimental results will be particularly important for naval operations, where high winds are common. Future work includes a nonlinear analysis of the coupling of the flapping motion with the other degrees of freedom, particularly the torsional motion, including gust effects. Eventually, this aeroelastic coupling may constitute itself as the basis for a control method to reduce rotor oscillations. References 1. Newman, S.J., 1999, “The Phenomenon of Helicopter Rotor Blade Sailing”, Proceedings of the Institution of Mechanical Engineers, Oct. 5. 2. Newman, S.J., 1990, “A Theoretical Model for Predicting the Blade Sailing Behavior of a Semi-Rigid Rotor Helicopter”, Vertica, Vol. 14, No. 4, pp. 531-544. 3. Geyer Jr., W.P., Smith, E.C. and Keller, J.A., 1998, “Aeroelastic Analysis of Transient Blade Dynamics During Shipboard Engage/Disengage Operations”, Journal of Aircraft, Vol. 35, No. 3. 4. Keller, J.A. and Smith, E.C., 1999, “Experimental and Theoretical Correlation of Helicopter Rotor Blade-Droop Stop Impacts”, Journal of Aircraft, Vol. 36, No. 2, MarchApril. 5. Keller, J.A. and Smith, E.C., 1999, “Analysis and Control of the Transient Shipboard Engagement Behavior of Rotor Systems”, AHS 55th Annual Forum, Montreal, Quebec, May 25-27, pp. 1064-1078. 6. Kunz, D.L., 1998, “Saturation Control for Suppressing Helicopter Blade Flapping Vibrations: A Feasibility Study”, AIAA Paper No. 98-2004, AIAA/ASME/ASCE/AHS/ ASC 39th Structures, Structural Dynamics and Materials Conference and Exhibit, Long Beach, California. 7. Bramwell, A.R.S., 1976, “Helicopter Dynamics”, Edward Arnold (Publishers). 8. Dowell, E.H., editor [et al.], 1995, “A Modern Course in Aeroelasticity – Chapter 7”, Kluwer Academic Publishers. 9. McKenna, P.J., 1999, “Large torsional oscillations in suspension bridges revisited: fixing an old approximation”, The American Mathematical Monthly, 106:1-18. 10. Prouty, R., 1988, “Accidents waiting to happen – blade strikes”, Rotor and Wing, August/September and “Even More Helicopter Aerodynamics”, Chapter 20. 64 Pesquisa Naval Nº 16, Outubro de 2003 11. Dowell, E.H. and Tang, D., 2002, “Nonlinear Aeroelasticity and Unsteady Aerodynamics”, AIAA Journal, Vol. 40, No. 9, pp. 1697-1707, September. 12. de Andrade, D., 1992, “Application of Finite-State Inflow to Flap-Lag-Torsion Damping in Hover”, Ph.D. thesis, Georgia Institute of Technology. 13. Stumpf, W.M., 1992, “An Integrated Finite-State Model for Rotor Deformation, Nonlinear Airloads, Inflow and Trim”, Ph.D. thesis, Georgia Institute of Technology. 14. Brandão, M.P., 1996, “Special loads as prototypes to aeroelastic problems”, ITAIEA/AE-002/96. 15. Riaz, J., Prasad, J.V.R., Schrage, D.P. and Gaonkar, G.H., 1993, “Atmospheric Turbulence Simulation for Rotorcraft Applications”, Journal of the American Helicopter Society, Volume 38, Number 1. 16. Guillot, M.J., 2002, “Computational Simulation of the Air Wake over a Naval Transport Vessel”, AIAA Journal, Vol. 40, No. 10: Technical Notes. 17. Agrawal, A.K., Yang, J.N. and Wu, J.C., 1998, “Non-Linear Control Strategies for Duffing Systems”, Int. J. Non-Linear Mechanics, Vol. 33, No. 5, pp. 829-841. 18. Kapitaniak, T., 1991, “Chaotic Oscillations in Mechanical Systems”, Manchester University Press. 19. Fiedler-Ferrara, N. and Prado, C.P.C., 1994, “Chaos – An Introduction” (in Portuguese), Edgard Blücher. V Capítulo AVALIAÇÃO DO EFEITO DE DIFERENTES DOPANTES SOBRE A HISTERESIMETRIA MAGNÉTICA DOS COMPÓSITOS DE HEXAFERRITAS DE BÁRIO DOPADAS:POLICLOROPRENO UTILIZADOS COMO RAMS Magali Silveira Pinho 1,2, Roberto da Costa Lima 1,3, Júlio César dos Santos Leandro1, Augusto Cesar de Carvalho Peres 2, Manoel Ribeiro da Silva 4, Júlio Maria Neto 4 1 Instituto de Pesquisas da Marinha (IPqM) 2 Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ) 3 4 PEMM-COPPE da Universidade Federal do Rio de Janeiro (UFRJ) Instituto de Física (IF) da Universidade Federal do Rio de Janeiro (UFRJ) Resumo Este trabalho tem por objetivo avaliar o efeito do emprego de diferentes dopantes sobre a histeresimetria magnética dos compósitos de hexaferritas de bário (BaHF) com o policloropreno (CR), utilizados como materiais absorvedores de radar (RAMs). O equipamento utilizado para a observação deste efeito consistiu do magnetômetro de amostra vibrante (VSM). A eficiência destes materiais como absorvedores de microondas foi avaliada pelo emprego de um guia de ondas, para a faixa de freqüência de 8,00 a 16,00 GHz. O método utilizado nas medidas de refletividade (dB), baseia-se na determinação dos valores, relativos ao vácuo, de permeabilidade complexa (µr*) e de permissividade complexa ( εr*), a partir de dados de espalhamento, sendo conhecido como método de Transmissão/Reflexão (T/R). Abstract In this work, the effect of different dopants on the magnetic hysteresis of barium hexaferrites composites with polychloroprene, employed as radar absorbing materials (RAMs), was evaluated. The vibrating sample magnetometer (VSM) was the equipment employed for the visualization of this effect. 66 Pesquisa Naval Nº 16, Outubro de 2003 The performance of these materials as microwave absorbers was evaluated in a waveguide medium for the range of frequencies between 8.00 and 16.00 GHz. The method adopted to measure the complex permeability (µr*) and complex permittivity (εr*) related to free-space, from scattering parameters, was the transmission line technique known as the Transmission/Reflection method (T/R). 1. Introdução O emprego de materiais absorvedores de microondas, em particular os RAMs, tornou-se um dos campos mais fascinantes da engenharia de materiais embora, ainda represente um grande desafio [1]. Um RAM deve ser constituído por compostos, com elevada perda de energia, que absorvem a radiação incidente em freqüências sintonizadas e dissipam a energia absorvida sob a forma de calor, inibindo a energia necessária para o sinal de eco de detecção por radar [1,2]. Os RAMs são recobrimentos cujas propriedades elétricas e magnéticas podem ser alteradas de forma a permitir a absorção de microondas em freqüências específicas ou em espectro de freqüência mais amplo. O crescente aumento da necessidade por RAMs surgiu em decorrência do grande aumento no número de sistemas eletrônicos, resultando em um aumento da interferência eletromagnética (EMI, “Electromagnetic Interference”) e/ou do emprego destes na redução da seção reta radar (RCS, “Radar Cross Section”) de plataformas de navios. Um RAM ideal deve apresentar como características principais a durabilidade, baixa densidade, baixo custo, a abrangência de uma ampla faixa de freqüência e ser de fácil aplicação, além da resistência à atmosfera salina, possibilitando sua aplicação para fins navais. Deste modo, o policloropreno (CR) foi o elastômero escolhido [3]. Hexaferritas de bário são materiais cerâmicos policristalinos com propriedades magnéticas, que devido às possíveis combinações de composições químicas e estruturais, podem ser utilizadas em várias aplicações específicas, tais como RAMs. Para cada tipo de estrutura cristalina (espinélio, granada e hexagonal) o ajuste das propriedades magnéticas possibilita a absorção de microondas em diferentes freqüências [3,4]. Para as medidas realizadas em guia de ondas, Nicolson e Ross desenvolveram um método para a determinação dos valores, relativos ao vácuo, de permeabilidade complexa (µr*) e de permissividade complexa (εr*), a partir dos parâmetros de espalhamento (S11 e S21) [5,6]. Este trabalho tem por objetivo estudar o efeito do emprego de diferentes dopantes sobre a histeresimetria magnética de compósitos 80:20 (% em Pesquisa Naval Nº 16, Outubro de 2003 67 peso) de hexaferrita de bário:policloropreno, permitindo a absorção de microondas em diferentes freqüências. 2. Procedimento Experimental Materiais As sínteses das hexaferritas de bário ocorreram através da técnica convencional de misturas de pós [3,4]. As matérias primas utilizadas na síntese de hexaferrita de bário não dopada (BaHF) consistiram de óxido de ferro (Fe2O3) e carbonato de bário (BaCO3). Para obtenção de hexaferrita de bário dopada com cobalto, titânio e manganês (Co-TiBaHF), além das matérias primas anteriormente utilizadas foram empregados em quantidade estequiométrica o óxido de titânio (TiO2), óxido de cobalto (CoO) e óxido de manganês (Mn2O3) [2]. A hexaferrita de bário dopada com sódio e lantânio (La-NaBaHF) utilizou, em adição às matérias primas utilizadas na obtenção de BaHF, o carbonato de sódio (Na2CO3) e o hidróxido de lantânio (La(OH)3) [3]. O tempo de mistura/moagem foi de 24 h e a temperatura de calcinação foi de 1200 °C pelo período de 2 h. Os demais reagentes, tais como o policloropreno (CR; Neoprene W da Du Pont, densida de =1,21 g/cm3 ; Mw= 440.000) foram utilizados como adquiridos [2]. Obtenção dos Compósitos com o Policloropreno As amostras de hexaferritas de bário foram misturadas, em adição aos agentes de vulcanização, com o CR resultando na composição percentual em peso 80:20 de hexaferrita de bário:policloropreno (% em peso). As misturas físicas (blendas) foram realizadas em um misturador de cilindros Berstoff à temperatura ambiente e com velocidades de 22 e 25 rpm (anterior e posterior), de acordo com os procedimentos clássicos empregados pela indústria de borracha. As blendas foram moldadas por compressão a 150 °C e 6,7 MPa. Os corpos de prova foram obtidos sob a forma de tapetes vulcanizados, com dimensões de 4,0 x 4,0 cm e espessuras de 0,15 cm [2,7]. Magnetometria de Amostra Vibrante A histeresimetria magnética das hexaferritas de bário calcinadas foi estudada pela Magnetometria de Amostra Vibrante, utilizando o equipamento 4500 da EG & G Princeton Applied Research, acoplado ao vibrador de amostra EG & G e controlado pelo IBM 386. 68 Pesquisa Naval Nº 16, Outubro de 2003 Método de Transmissão/Reflexão (T/R) A permeabilidade e permissividade complexas (µr* e εr*, respectivamente) foram determinadas a partir de dados de espalhamento, por intermédio do analisador vetorial de redes HP 8510, que determina as perdas de inserção e retorno em magnitude e fase de amostras submetidas a teste (SUT, “Sample Under Test”), através da comparação entre o sinal transmitido pela SUT e o refletido na sua entrada [5,6]. Análise Morfológica por SEM A observação micromorfológica das amostras, sob a forma de pós, foi realizada pelo emprego de um microscópio eletrônico de varredura Leica Mod S440, utilizando o detetor de elétrons secundários. 3. Resultados e Discussão A Figura 1 ilustra o comportamento magnético das amostras de (a) BaHF, (b) Co-TiBaHF e (c) La-NaBaHF. 100 BaHF LaBaHF Co-TiBaHF 80 Magnetização (emu/g) 60 40 20 0 -20 -40 -60 -80 -100 -10 -8 -6 -4 -2 0 2 4 6 8 10 Campo Magnético Aplicado (KOe) Figura 1 - Curvas de histerese para as amostras de (a) BaHF, (b) Co-TiBaHF e (c) La-NaBaHF. Pelos resultados apresentados pode ser observado que BaHF apresentou uma maior dureza magnética, ilustrada pelo valor mais elevado do campo coercitivo (Hc de 3,2 kOe) e da magnetização de saturação (Ms) em relação às hexaferritas de bário Pesquisa Naval Nº 16, Outubro de 2003 69 dopadas. Dentre as amostras dopadas a de Co-TiBaHF (Hc de 0,47 kOe) apresentou-se magneticamente mais mole em relação à de La-NaBaHF (Hc de 2,3 kOe). A Figura 2 ilustra as imagens obtidas por SEM para as amostras de (a) BaHF, (b) Co-TiBaHF e (c) La-NaBaHF. (a) BaHF (20.000X) (b) Co-TiBaHF (10.000X) (c) La-Na Figura 2 - Imagens de SEM para as amostras de (a) BaHF, (b) Co-TiBaHF e (c) LaNaBaHF. Pelos resultados apresentados na Figura 2, para o aumento de 20.000 vezes, foi confirmada a obtenção da estrutura hexagonal, característica para estes materiais. Para a amostra de La-NaBaHF foi observada a presença de uma segunda fase, identificada como óxido de ferro (hematita) pela Difratometria de Raio-X [4]. Na Figura 3 são apresentadas as curvas de absorção de microondas dos compósitos 80:20 de (a) BaHF:CR, (b) Co-TiBaHF:CR e (c) La-NaBaHF:CR, com espessuras de 0,15 cm. 70 Pesquisa Naval Nº 16, Outubro de 2003 0 -5 -10 Reflectividade (dB) -15 -20 -25 -30 -35 (a) BaHF:CR -40 -45 8 10 12 Freqüência (GHz) 14 16 0 -5 Reflectividade(dB) -10 -15 -20 -25 -30 -35 (b) Co-TiBaHF:CR -40 -45 8 10 12 14 16 Freqüência (GHz) 0 -5 -10 Refletividade (dB) -15 -20 -25 -30 -35 (c) La-NaBaHF:CR -40 -45 8 9 10 11 12 13 Freqüência (GHz) 14 15 16 Figura 3 - Medidas de refletividade (dB) para os compósitos 80:20 de (a) BaHF:CR, (b) Co-TiBaHF:CR e (c) La-NaBaHF:CR, com espessuras de 0,15 cm. De acordo com a literatura, o compósito 80:20 de BaHF:CR absorve em freqüência próxima a 45 GHz [3]. Pelos resultados obtidos, a dopagem resultou em um aumento da absorção de microondas para a faixa de freqüência analisada. Pesquisa Naval Nº 16, Outubro de 2003 71 O aumento da dureza magnética para a amostra de La-NaBaHF, ilustrada pelo valor mais elevado de Hc em relação à de Co-TiBaHF, pode ter ocasionado um deslocamento da absorção de microondas para uma freqüência mais elevada em relação à faixa analisada, de forma análoga ao observado para BaHF, que apresentou uma dureza magnética ainda maior (ferrita dura). Desta forma, o melhor desempenho como RAM foi observado para o compósito 80:20 de Co-TiBaHF:CR, para a faixa de freqüência de 12,00 a 16,00 GHz. 4. Conclusões De acordo com o tipo de dopante empregado, os compósitos 80:20 de CoTiBaHF:CR e La-NaBaHF:CR apresentaram uma maior absorção de microondas. O compósito 80:20 de Co-TiBaHF:CR apresentou o melhor desempenho como RAM em relação ao de La-NaBaHF:CR. Tal comportamento pode ser atribuído à presença da segunda fase constituída por hematita, que não atuou como um RAM, em adição à maior dureza magnética de La-NaBaHF. 5. Referências 1.JAFELICCI, M.; “Absorvedores de radiação eletromagnética”, II Encontro Técnico de Materiais e Química, Rio de Janeiro, 33-37, 1997. 2. QUEFFLEC P. GELIN P. GIERALTOWSKI J. and LOAEC J. IEEE Transactions on Magnetics 1994; 30 (2):224-230. 3. PINHO M. S.- Dsc. Tese- Instituto de Macromoléculas Prof. Eloisa Mano, UFRJ, 2002. “Materiais absorvedores de radiação eletromagnética em matrizes de policloropreno”. 4. LIMA R. C. – Msc Tese- Programa de Materiais e Metalurgia da COPPE, UFRJ, 2002. “ Efeito da substituição de bário por lântânio-sódio nas propriedades absorvedoras de microondas da hexaferrita de bário do tipo M”. 5. NICOLSON A. M. and ROSS G. IEEE Trans. Instrum. Meas. 1970; IM-19:377-382. 6. BAKER-JARVIS J. NIST Techn. Note1993; 1355-R:40. 7. PINHO M. S. LIMA R.C. NUNES R. C. R. SOARES B. G. Polímeros, Ciência e Tecnologia 1999, 4:23-26. Agradecimentos Os autores agradecem ao Centro de Tecnologia Mineral (CETEM) pelas análises de SEM. 72 Pesquisa Naval Nº 16, Outubro de 2003 LANCHA DE AÇÃO RÁPIDA Lancha de alta velocidade e calado reduzido projetada para missões rápidas de patrulha em pontos distantes de até 200 milhas da sua Base. Possui um casco planador, em alumínio naval, otimizado com os requisitos para eficiência hidrodinâmica. É excelente para auxílio às operações militares de abicagem ribeirinhas e costeiras. É também apropriada para emprego, de caráter civil, em apoio às instalações off-shore, em portos, na fiscalização da pesca, no controle e combate à poluição das águas devido a acidentes ambientais, e como ambulância marítima. Tem sistema de propulsão com motor Diesel de torque elevado para aceleração rápida. Comprimento total Boca máxima Pontal Calado máximo Deslocamento padrão Deslocamento leve Motor / rabeta Tanque de óleo Diesel Velocidade máxima Velocidade cruzeiro c/carga Tripulação Passageiros Raio de ação a 25 nós Autonomia mínima 7,55 m 2,30 m 1,00 m 0,40 m, com a bolina 0,60 m 3,0 t 1,3 t 1 Volvo Penta KAD-43P/ DP - 230 HP 500 l 35 nós 25 nós 01 13 400 milhas 1 dia VI Capítulo INFLUÊNCIA NAS MEDIDAS DE REFLETIVIDADE DO EFEITO DA DISPERSÃO DE PARTÍCULAS FERRIMAGNÉTICAS EM MATRIZES POLIMÉRICAS Roberto da Costa Lima 1,2, Magali Silveira Pinho 1,3 Tsunerahu Ogasawara 2, Flávio Teixeira da Silva 2 1 2 3 Instituto de Pesquisas da Marinha (IPqM) PEMM-COPPE da Universidade Federal do Rio de Janeiro (UFRJ) Instituto de Macromoléculas da Universidade Federal do Rio de Janeiro (IMA-UFRJ) Resumo O presente trabalho teve por objetivo evidenciar a importância da dispersão de partículas ferrimagnéticas em matrizes poliméricas. As partículas ferrimagnéticas consistiram de hexaferritas de bário dopadas com cobalto e titânio (Co-TiBaHF) dispersas em resinas ou em elastômeros para serem utilizados como materiais absorvedores de radar (RAMs), para a faixa de freqüência compreendida entre 8 e 16 GHz. Abstract The aim of this work was to emphasize the importance of ferrimagnetic particles dispersion in polimeric matrices. The ferrimagnetic particles employed were cobalt and titanium doped barium hexaferrites (Co-TiBaHF) dispersed in resins or elastomers, in order to be used as radar absorbing materials (RAMs), in the frequency range of 8 to 16 GHz. 74 Pesquisa Naval Nº 16, Outubro de 2003 1. Introdução O emprego de partículas ferrimagnéticas, tais como as hexaferritas de bário, tem crescido nas últimas duas décadas em decorrência do enorme desenvolvimento de sistemas eletrônicos, resultando no aumento da interferência eletromagnética (EMI, “Electromagnetic Interference”) e/ou do emprego destes na redução da seção reta radar (RCS, “Radar Cross Section”) de plataformas de navios. Entende-se como RCS, a área fictícia que ao ser interceptada por uma onda eletromagnética produz um eco radar igual ao observado no objeto. Desta forma, uma redução significativa da seção reta radar pode ser obtida através da otimização da forma dos alvos ou através do emprego dos materiais absorvedores de radar (RAMs, “Radar Absorbing Materials”) [1]. Os RAMs são revestimentos que podem ser utilizados sob a forma de espumas, borrachas ou resinas, cujas propriedades elétricas e magnéticas podem ser alteradas por intermédio da mistura destes polímeros com cargas específicas, que possuam propriedades elétricas e/ou magnéticas específicas, de forma a propiciar ao material final características adequadas à absorção de radiação eletromagnética em determinadas faixas de freqüência [1]. Hexaferritas de bário são materiais cerâmicos policristalinos com propriedades magnéticas, que devido às possíveis combinações químicas e estruturais, podem ser utilizadas em várias aplicações, como por exemplo meios de gravação para fitas e discos magnéticos, filtros indutores e transformadores para áudio, televisão e telecomunicações, como material absorvedor de microondas, dentre outras. Para cada tipo de estrutura cristalina (espinélio, granada e hexagonal), o ajuste das propriedades magnéticas possibilita a absorção de microondas em diferentes faixas de freqüências. O tipo de dopante empregado no seu processamento, propicia variações na freqüência de ressonância destes materiais, resultando na obtenção de RAMs do tipo banda estreita [1,2]. A hexaferrita de bário não dopada (BaHF) tem sido empregada como magneto permanente de baixo custo em motores de automóvel, apresentando como características magnéticas um elevado campo coercitivo (Hc da ordem de 3,2 kOe), elevada magnetização de saturação (Ms de aproximadamente 72 Am2/kg), além de um elevado campo anisotrópico (Hk da ordem de 17 kOe), sendo desta forma classificada como um material de elevada dureza magnética. A freqüência de absorção de microondas para estes materiais ocorre em aproximadamente 45 GHz [1,2]. O emprego de dopantes (Co e Ti) em substituição ao Fe, promove a redução da dureza magnética, resultando na absorção de microondas em freqüências mais baixas na faixa de 8 a 16 GHz [1]. A dispersão de cargas ferrimagnéticas em matrizes poliméricas reportadas pela literatura, tem sido investigada visando duas de suas principais aplicações, quais sejam as fitas magnéticas e os RAMs [3,4]. A dispersão das partículas de hexaferritas de bário dopadas com cobalto e titânio (Co-TiBaHF) em matrizes elastoméricas de policloropreno (CR) e em resinas de poliuretano (PU), influencia as propriedades Pesquisa Naval Nº 16, Outubro de 2003 75 absorvedoras de microondas desses compósitos. A dispersão em policloreto de vinila (PVC) foi descartada, devido a baixa resistência à atmosfera marítima [5]. 2. Procedimento Experimental 2.1. Dispersão das Partículas A hexaferrita de bário (Trans-Tech) dopada com cobalto e titânio (Co-TiBaHF; BaCo0,92Ti0,92Fe10,42O19,00) apresentou um diâmetro médio de partícula inferior a 5 µm (Sedígrafo 5100 V307 da Micromeritics) e densidade de 5,26 g/cm3 (Picnômetro de Hélio da Micromeritics, Mod. AccuPyc 1330). O principal objetivo para se alcançar uma ótima dispersão dessas partículas, em uma matriz polimérica, consiste na distribuição homogênea das mesmas, preferencialmente com estreita distribuição de tamanhos de partículas, contrabalanceando as forças magnéticas atrativas. Essas forças são significativamente mais fortes do que as forças atrativas de Van der Waals. Sendo assim, uma má dispersão, decorrente da aglomeração de partículas, resultará em possível redução da resistência à intempéries, do tempo de prateleira, das propriedades mecânicas e do comportamento reológico, dentre outros fatores. A dispersão de partículas magnéticas em polímeros ocorre devido a adsorção do mesmo na superfície dessas partículas promovendo um impedimento estérico. É importante salientar que para um mesmo material polimérico, o de menor peso molecular se adsorve preferencialmente em relação ao de maior peso molecular[6,7]. A etapa inicial do preparo de uma tinta tem por objetivo a incorporação do pigmento em uma solução de resina produzindo uma dispersão de pequenas partículas. A solução de resina utilizada, também chamada de veículo de moagem, consistiu da resina de poliuretano (PU) em dimetilformamida (DMF), utilizando-se um moinho de areia, que possui uma elevada eficiência na eliminação de aglomerados. É importante salientar que no processamento de dispersões com elevadas concentrações de partículas magnéticas, as características viscoelásticas da tinta têm uma importância decisiva [8,9,10]. No que tange ao processamento de elastômeros, a íntima incorporação de CoTiBaHF no CR, contendo os demais agentes de cura, ocorreu em um misturador de cilindros aberto (Berstoff), seguida pela etapa de vulcanização em prensa hidraúlica Carver a 150 °C e 6,7 MPa. Esta íntima incorporação pode ser atribuída à presença de forças de cizalhamento no misturador, em adição a formação de uma camada polimérica adsorvida na superfície das partículas magnéticas. 2.2. Matrizes Políméricas Um fator determinante na escolha da matriz polimérica para a aplicação como RAM em plataformas militares é a resistência à atmosfera marítima, desta forma as matrizes 76 Pesquisa Naval Nº 16, Outubro de 2003 poliméricas escolhidas consistiram da resina de poliuretano (PU) e do elastômero de policloropreno (CR). Um outro fator importante a ser considerado consistiu na tendência destes materiais à aglomeração, devido a força magnética entre as partículas. Segundo a literatura [10], o peso molecular numérico médio (Mn) da resina de poliuretano (PU) deverá variar entre 8.000 a 52.000, uma vez que pesos moleculares superiores poderão resultar em problemas no processamento, decorrentes do aumento da viscosidade da tinta com a redução na solubilidade em DMF. O PU utilizado (Estane 5707-F1 da BFGoodrich) apresentou um Mn de 50.900 e polidispersão (Mn/Mw) de 2,1. O emprego de espuma de PU foi descartado devido à grande absorção de umidade. O policloropreno (CR) utilizado foi do tipo W da Du Pont com Mn de 93.000, polidispersão de 4,76 e densidade de 1,21 g/cm3 2.3. Ensaio de Resistência à Intempéries em Câmara de Névoa Salina Este ensaio é de suma importância para a avaliação da resistência à intempéries, objetivando a aplicação como RAM em plataformas militares. Segundo a norma ASTM B-117-97 [11], os corpos de prova foram expostos por 31 dias a uma atmosfera bastante agressiva de cloreto de sódio (NaCl), com o objetivo de acelerar o tempo de resposta. A microscopia eletrônica de varredura (SEM) foi utilizada para observar qualquer mudança, tal como o aparecimento de microfissuras. 2.4. Microscopia Eletrônica de Varredura (SEM) Pelo emprego desta técnica tornou-se possível a visualização da dispersão das partículas ferrimagnéticas nas matrizes políméricas, bem como da morfologia do compósito antes e após o ensaio de névoa salina. 2.5. Medidas de Refletividade em Câmara Anecóica A avaliação do desempenho como RAMs foi realizada pelas medidas de refletividade (dB) empregando-se o método de Transmissão/Reflexão (T/R) em câmara anecóica para a faixa de freqüência de 8 a 16 GHz. Os corpos de prova à base de CR, utilizados sob a forma de tapetes elastoméricos com dimensões de 10 x 10 x 0,15 cm. A tinta de hexaferrita de bário com poliuretano (PU) foi aplicada com 1,0 mm de espessura sobre uma placa de alumínio com as mesmas dimensões. 3. Resultados A Tabela 1 ilustra um estudo comparativo entre as diferentes formas de aplicação utilizadas. Pesquisa Naval Nº 16, Outubro de 2003 77 Tabela 1- Vantagens e desvantagens das diferentes formas de aplicação A individualização das partículas de hexaferrita de bário dopada com Co e Ti (CoTiBaHF) na matriz de CR para o compósito 80:20 de Co-TiBaHF:CR pode ser vista na Figura 1. Figura 1 – Microscopia eletrônica de varredura para a composição 80:20 de Co-TiBaHF:CR com aumento de 3500 vezes Pela análise da Figura 1 pode-se observar a íntima incorporação das partículas de Co-TiBaHF na matriz de CR, apesar do elevado carregamento empregado (80 % em 78 Pesquisa Naval Nº 16, Outubro de 2003 peso). Tal comportamento pode ser atribuído à adsorção do polímero na superfície das partículas sólidas, que propicia uma maior dispersão das partículas magnéticas, devido principalmente à repulsão por impedimento estérico. A Figura 2 ilustra a dispersão das partículas de Co-TiBaHF na matriz de PU, tendo sido observada uma maior tendência à floculação do tipo rede (network) em relação à matriz elastomérica. Esta estrutura do tipo rede é característica de resinas poliuretânicas de alto peso molecular (Mn) [10]. A tendência à aglomeração devido a força magnética entre as partículas de Co-TiBaFH é amenizada pelas etapas de pré-dispersão e dipersão, utilizando solventes polares tais como dimetilformamida (DMF) Figura 2 - Microscopia eletrônica de varredura para a composição 80:20 de Co-TiBaHF:PU Pelo exposto, a dispersão desta carga ferrimagnética nas diferentes matrizes poliméricas representa a principal variável de processamento, uma vez que ela pode vir a alterar as propriedades finais do produto, devido principalmente à aglomeração das partículas. Pesquisa Naval Nº 16, Outubro de 2003 79 A Figura 3 ilustra as curvas de refletividade (dB) para as composições 80:20 de (a) Co-TiBaHF:CR e (b) Co-TiBaHF:PU. Figura 3– Curvas de refletividade para os compósitos 80:20 de (a) Co-TiBaHF:CR e (b) Co-TiBaHF:PU em relação à (c) placa metálica. Pelos resultados apresentados, observou-se uma maior absorção de microondas para o compósito 80:20 de Co-TiBaHF:CR, que pode ser atribuída a maior dispersão destas partículas no elastômero, uma vez que foi observada uma tendência à floculação do tipo rede (“network”) para o compósito de Co-TiBaHF:PU. A formação desta rede prejudica a absorção de microondas, em decorrência do aparecimento de regiões isentas de partículas, responsáveis por uma maior heterogeneidade destes materiais. Para o compósito Co-TiBaHF:CR foi observado um deslocamento do pico de absorção de microondas para uma freqüência mais baixa, que pode ser atribuído a maior espessura utilizada (1,5 mm) [1]. 80 Pesquisa Naval Nº 16, Outubro de 2003 4. Conclusões A melhor dispersão das partículas de Co-TiBaHF na matriz de CR, resultou na obtenção de RAMs mais homogêneos, com conseqüente, maior absorção de microondas para a freqüência de aproximadamente 14,3 GHz. Deste modo, é recomendável a otimização do processo de dispersão da tinta podendo-se, por exemplo, utilizar uma resina poliuretânica de mais baixo peso molecular (Mn), com o intuito de minimizar a formação da estrutura do tipo rede. Agradecimentos: Os autores agradecem à equipe técnica da Indústria de Tintas Renner S.A. 5. Referências Bibliográficas 1. PINHO M. S.- Dsc. Tese- Instituto de Macromoléculas Prof. Eloisa Mano, UFRJ, 2002. “Materiais absorvedores de radiação eletromagnética em matrizes de policloropreno” , pp 550. 2. LIMA R. C. – Msc Tese- Programa de Materiais e Metalurgia da COPPE, UFRJ, 2002. “ Efeito da substituição de bário por lântânio-sódio nas propriedades absorvedoras de microondas da hexaferrita de bário do tipo M”, pp100. 3. DEVEREUX, T. Defence Attaché 1986; 34. 4. TAKEDA K. FUJIKI K. - Patente Americana, 6,093,486, Japan, 2000 - “Magnetic recording medium and magnetic paint therefor”: 39-44. 5. YAMAKAWA M. NAKAMURA E.- Patente Americana, 4,851,465, Japan, 1989 – “Resin for magnetic paint”. 6. JEON K. S. LANE A. M. Journal of Magnetism and Magnetic Materials. 1999; 193: 300-302 7. INOUE H. FUKKE H. AKAGI M. KATSUMOTO M. Journal of Magnetism and Magnetic Materials. 1993; 118: 263-270. 8. BISCARO R. S. BOTELHO E. C. TAKAHASHI M. F. K. FAEZ R. REZENDE M. Polímeros: Ciência e Tecnologia 2002, 12: 318-327. 9. POTANIN A. A. SHRAUTI S. M. ARNOLD D. W. LANE A. M. J. Rheol. 1997; 41(6): 1337-1347. 10. PIAO M. LANE A. M. NIKLES D. E. http://bama.ua.edu/~mint/Fall2001/Fall2001posters/33PiaoSony.pdf 11. American Society for Testing and Materials, vol. 03.02, Philadelphia, 2001- Método ASTM B 117-97, “Standard test method of salt spray (fog) testing”. VII Capítulo ESTUDO DA CINÉTICA DE SINTERIZAÇÃO DO SISTEMA UO2-Gd2O3 Thomaz Augusto Guisard Restivo, M.Sc. CF(EN) Luciano Pagano Jr. Centro Tecnológico da Marinha em São Paulo-Aramar Estrada Sorocaba Iperó km 12,5, Iperó, SP 18560-000 [email protected], tel: 55-15-2298103 Resumo A sinterização de pós UO2-7%Gd2O3 é investigada através de dilatometria convencional e método SID (Stepwise Isothermal Dilatometry). Foram preparadas 4 tipos de amostras: (a) mistura simples, (b) mistura sob atmosfera controlada, (c) aditivada com Al(OH)3 e (d) pó co-precipitado. A dilatometria convencional revela uma barreira de sinterização que atrasa a densificação nas amostras a, b e c. A adição de Gd como segunda fase favorece a sinterização até 1050°C. O aditivo Al(OH)3 reduz a intensidade da barreira, deslocando-a para maiores temperaturas. A taxa de retração do pó co-precipitado mostra um aumento lento, porém constante, até 1510°C. Energias de ativação são calculadas pelo método SID na faixa 221-289 kJ/mol até 1100°C. O parâmetro n varia em ampla faixa e atinge valores baixos, indicando que o mecanismo de sinterização é complexo. A barreira de sinterização não está sempre relacionada com a elevação da energia de ativação ou com a redução do parâmetro n. Palavras-Chave: cinética, sinterização, UO2, dilatometria, SID Abstract The sintering of UO2-7w%Gd2O3 powders is investigated using conventional dilatometry and stepwise isothermal dilatometry-SID. Four batches were prepared: (a) dryly mixed, (b) under controlled air humidity, (c) with Al(OH)3 additive, and (d) co-precipitated powder. Conventional dilatometry reveals a sintering barrier that 82 Pesquisa Naval Nº 16, Outubro de 2003 delays the densification for batches a, b and c. The Al(OH)3 addition reduces the barrier intensity and shifts it towards higher temperatures. The addition of Gd, as a second phase, enhances the sintering kinetics up to 1050°C. The co-precipitated powder shows a low, but steadily increasing, shrinkage rate up to 1510°C. The activation energies are calculated using the SID method and are found to be in range of 221-289kJ/mol up to 1100°C. The kinetic parameter n varies over a wide range and reaches low values, indicating that the sintering mechanism is complex. The sintering barrier is not always related to the activation energy increase or to the reduction of the parameter n. Key-Words: sintering, kinetics, UO2, dilatometry, SID Introdução O gadolínio tem sido muito empregado na indústria de combustíveis nucleares como veneno queimável, respondendo à demanda de maior período e altas taxas de queima (Manzel e Dörr, 1980, Assmann et al., 1984, Une e Oguma, 1985, Yuda e Une, 1991). O processo industrial mais disseminado utiliza a mistura de pós componentes onde a etapa de sinterização é determinante para a obtenção de altas densidades requeridas pelas especificações. No presente trabalho, são sinterizadas pastilhas obtidas a partir de pós submetidos a diferentes processos, empregando dilatometria convencional e “stepwise isothermal dilatometry” (SID). Os parâmetros cinéticos determinados pela segunda técnica conduzem a uma maior compreensão do comportamento do sistema UO2.Gd2O3 durante a sinterização. Metodologia O pó de UO2 utilizado em todas as amostras foi obtido por redução do tricarbonato de amônio e uranilo (TCAU) em leito fluidizado, resultando em teores de impurezas menores que 150ppm, superfície específica (BET) de 5,8m2/g, tamanho médio de partícula de 7,4µm (Sedigraph) e relação O/U de 2,12. O pó de Gd2O3 é de grau comercial (99,8%), superfície específica (BET) de 4,6m2/g e tamanho médio de partículas de 3,3µm (Sedigraph). Quatro lotes de amostras foram preparados (% em massa): (a) mistura simples UO2.7%Gd2O3; (b) mistura UO2.7%Gd2O3 sob umidade controlada; (c) mistura UO2.7%Gd2O3 com adição de 580ppm de Al(OH)3; e (d) UO2.7%Gd2O3 co-precipitado. As misturas foram compactadas em prensa com matriz flutuante em pressões entre 350 e 400MPa. As densidades a verde obtidas concentraram-se na faixa 51-53% da densidade teórica. Todas as amostras foram sinterizadas em atmosfera de H2 com pureza de 99,999%, vazão de 200mL/min, empregando um TMA/dilatômetro vertical (Setaram Setsys 24) sob carga de 1g. Foram conduzidos dois grupos de experimentos: dilatometria convencional com taxa de aquecimento de 10°C/min até 1700°C com patamar de 3h e os testes SID para os lotes b, c e d. Os lotes a e c foram preparados em homogeneizador Turbula com 32rpm por 12h. O lote b foi preparado em atmosfera controlada mantida em uma “glove box”, sob Pesquisa Naval Nº 16, Outubro de 2003 83 ar com 30% de umidade relativa, enquanto que o valor médio no laboratório situava-se em 65%. Neste caso, os pós de partida, UO2 e Gd2O3, foram secos em estufa antes do manuseio. Após sofrer mistura prévia, o pó foi homogeneizado em moinho Turbula sob N2 por 60min. O material co-precipitado foi obtido pela dissolução de UO2 (ex-TCAU) e Gd2O3 em ácido nítrico 1N, adicionando hidróxido de amônio. O pó de diuranato de amônio (DUA) resultante foi então calcinado ao ar a 900oC por 3h, reduzido sob H2 em leito fixo a 600°C e passivado em N2/ar. Após o tratamento, o pó apresentou BET de 6,1m2/g e tamanho médio de partícula de 4,9µm (difração a laser). Resultados e discussão A Figura 1 apresenta as curvas de densificação obtidas para todos os lotes, evidenciando a taxa de retração (%/min), em função da temperatura. A curva de densificação do UO2 puro foi incluída para comparação. 2 0 -2 % -4 ret -6 -8 raç -10 ão -12 -14 -16 -18 -20 0 %/ mi n 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4 -0,5 -0,6 -0,7 -0,8 200 400 600 800 1000 1200 1400 1210 lote a lote b lote c lote d UO2 puro 1385 1030 1100 1395 0 200 400 600 800 1000 1200 1400 T (°C) Figura 1. Retração e taxa em função da temperatura 84 Pesquisa Naval Nº 16, Outubro de 2003 De acordo com a Figura 1, observa-se que as taxas de retração sofrem diminuição, atribuída às barreiras de sinterização, cujas faixas de temperatura estão assinaladas. A maior densificação foi atingida no lote d, que apresentou densidade de 10,02g/cm3. Enquanto que a barreira de sinterização ocorreu antecipadamente para o lote c, i.e., em baixas temperaturas, um efeito contrário foi registrado para o lote d. Em ambos os casos, a barreira de sinterização não reduziu a taxa em demasiado, em comparação aos outros lotes. As barreiras para os lotes c and d também atuaram por intervalos de tempo e temperatura menores. A taxa máxima de sinterização foi registrada para o lote c (–0,7%/min) a 1500°C. Objetivando estudar com maiores detalhes a cinética de sinterização, experimentos SID foram conduzidos em pastilhas a verde dos lotes b, c e d (o lote a não foi ensaiado devido à sua similaridade com o lote b). Um experimento SID típico é mostrado na Figura 2. Desenvolvido por Sørensen (1981, 1992), o método SID tem produzido bons resultados quanto à determinação de parâmetros cinéticos: energia de ativação e parâmetro n, este último relacionado com o mecanismo de transferência de massa. O método estabelece isotermas enquanto que a taxa de retração é mantida em faixa estreita. Os dados adquiridos em cada isoterma fornecem informações sobre o mecanismo de sinterização. 200 T 0 -200 -400 -600 ∆ L (µm) -800 -1000 -1200 -1400 -1600 -1800 -2000 -2200 -2400 0 10000 20000 30000 40000 tempo (s) Figura 2. Curva de densificação do ensaio SID forçado para o lote b. Pesquisa Naval Nº 16, Outubro de 2003 85 O parâmetro cinético n pode ser interpretado de forma análoga à ordem de reação da teoria de cinética química, dependendo inversamente do padrão de difusão ou da geometria de contatos de partículas, para o caso de sinterização. O método SID “forçado” (Sørensen, 1992) é empregado nesse trabalho, estabelecendo isotermas a cada 50°C, enquanto a taxa de retração não é controlada. A equação cinética básica que relaciona a retração com o tempo é: y = ∆L/Lo = [K(T).t]n (A) Onde K(T) é a constante de velocidade específica dependente da temperatura e parâmetro n. A forma diferencial da equação (A) é: ln(dy/dt)= ln[n.K(T)]-(1/n-1)lny (B) Em cada isoterma, o gráfico ln(dy/dt) versus lny tem inclinação n, enquanto que os valores de K(T) são calculados pelo coeficiente linear, o qual obedece a relação de Arrhenius: K(T) = A.exp(-Q/RT) ⇒ ln[K(T)] = lnA - Q/RT, (C) A partir do gráfico ln[K(T)] × 1/T, pode-se determinar a energia de ativação Q. Substituindo na equação (A) a retração linear relativa ∆L/Lo pela retração volumétrica relativa (Vo-Vt)/(Vt-Vf), desenvolve-se uma equação normalizada (Wang et al., 1998): dY/dt = nK(T)Y(1-Y)[(1-Y)/Y]1/n (D) Onde Y/(1-Y) = (Vo-Vt)/(Vt-Vf) = (Lo3-Lt3)/(Lo3-Lf3), assumindo o processo de sinterização como isotrópico (os subscritos o, t e f representam os valores dimensionais no início, no tempo t e no final da sinterização). O comportamento isotrópico é especialmente válido em se utilizando um TMA/dilatômetro vertical, onde a carga sobre a pastilha pode ser ajustada a níveis tão baixos quanto 1g. O gráfico ln{(dY/ dt)[1/Y(1-Y)]} versus ln[(1-Y)/Y] produz uma linha reta em cada isoterma, de onde K e n podem ser calculados (Trummler e Thomma, 1967, Wang et al., 1998). Para cada lote foram construídas as respectivas curvas de Ahrrenius, de acordo com as Figuras 3 a 5. Os números incluídos em cada gráfico indicam as etapas isotérmicas, enquanto que as cruzes são os pontos de temperatura das isotermas, referidos ao eixo direito. 86 Pesquisa Naval Nº 16, Outubro de 2003 Figura 3. Energias de ativação para a sinterização, lote b 0 14 -2 -4 -6 13 20 18 2119 16 12 11 17 ln K -8 671 kJ/mol 15 10 9 8 -10 7 6 -12 289 kJ/mol -14 5 4 -16 0,0005 0,0006 0,0007 0,0008 3 2 1 0,0009 -1 1/T (K ) Figura 4. Energias de ativação para a sinterização, lote c Pesquisa Naval Nº 16, Outubro de 2003 -4 -6 20 1716 22 18 15 21 14 -8 19 12 13 659 kJ/mol -10 ln K 87 11 -12 10 9 7 6 5 8 4 -14 -16 221 kJ/mol -18 0,0005 0,0006 0,0007 3 0,0008 2 0,0 -1 1/T (K ) Figura 5. Energias de ativação para a sinterização, lote d As energias de ativação para UO2 puro sinterizado sob atmosferas de H2 são reportados na literatura (Bannister e Buykx, 1977, Sayed et al., 1982, Une, 1988, Restivo e Sørensen, 2000, Dehauldt et al., 2001). Mesmo ocorrendo certa variação entre os autores, o valor 348kJ/mol (Restivo e Sørensen, 2000) foi usado como referência para a comparação com os lotes b, c e d. Esta referência foi obtida com o mesmo pó de UO2 empregado no presente trabalho, através do método SID. Está também em concordância com o valor 390kJ/mol obtido por Sayed (1982), utilizando a mesma técnica, e próximo ao valor 377kJ/mol proposto por Une (1988). Os parâmetros cinéticos n, estão listados na Tabela 1 para os lotes b, c, d e para UO2 puro (Restivo e Sørensen, 2000). 88 Pesquisa Naval Nº 16, Outubro de 2003 Tabela 1 – Parâmetro cinético n, dependência na temp T (°C) lote b lote c lote d T (°C) 800 0,531 0,490 0,754 850 0,388 0,394 0,432 900 0,375 0,334 0,367 950 0,312 0,288 0,354 1000 0,281 0,276 0,291 1050 0,247 0,283 0,255 1100 0,194 0,265 0,209 1084,5 1150 0,137 0,177 0,151 1141,0 1200 0,103 0,104 0,153 1197,5 1250 0,072 0,089 0,188 1251,5 1300 0,067 0,076 0,237 1276,7 1350 0,089 0,066 0,285 1359,5 1400 0,142 0,068 0,294 1450 0,290 0,418 0,297 1500 0,455 0,221 0,358 1550 0,616 0,847 0,587 1600 0,716 0,558 0,564 1438,5 No início da sinterização (800-1100°C), as energias de ativação para os 3 lotes ensaiados (240, 289 e 221kJ/mol para os lotes b, c e d) são menores que o valor de referência para UO2 puro (348kJ/mol), sugerindo que a gadolínia favorece a sinterização em baixas temperaturas. A adição de Al(OH)3 (lote c) parece aumentar a energia de ativação nas faixas de baixa e alta temperatura, embora tenha retardado o início da barreira de sinterização e reduzido sua duração, segundo a Figura 1. Possivelmente, a mudança para menor inclinação entre as isotermas 7 a 9 (Figura 4) represente algum processo favorável, suspendendo temporariamente a formação da barreira. A adição de gadolínia co-precipitada (lote d) causa uma diminuição na taxa de retração, apesar da menor energia de ativação determinada. Porém, o aumento da taxa é verificado até altas temperaturas. Todos os lotes mostraram um forte aumento nas energias de ativação em altas temperaturas, relacionado com o surgimento da barreira de sinterização, o que tem sido reportado (Manzel e Dörr, 1980). Deve-se salientar que o modelo empregado no tratamento dos dados tende a não representar o processo em temperaturas muito elevadas, onde se nota uma dispersão dos pontos (Bellon, 1991). Pesquisa Naval Nº 16, Outubro de 2003 89 O processo de sinterização pode ser examinado através do parâmetro n. A Tabela 2 relaciona os mecanismos atuantes aos valores de n possíveis, referente ao íon mais lento que difunde pelo caminho mais rápido (Trümmler e Thomma, 1967). Quanto menor o valor deste parâmetro, mais complexa a geometria de contatos e, por conseguinte, o esquema de difusão (Meng e Sørensen, 1989). A difusão através do contorno de grão é o mecanismo predominante para os lotes contendo gadolínia, enquanto que para UO2 puro, a difusão volumétrica governa o processo. Para os lotes b e c, o parâmetro n sofre rápida queda a partir de 0,3-0,4 para valores muito baixos, desde 1150°C, retornando a valores esperados a 1450°C. Tal fato sugere a ocorrência de alguma reação paralela, como o coalescimento de partículas (Balakrishna et al., 2001), coincidente com o decréscimo da taxa de sinterização. Tabela 2. Parâmetro cinético n e mecanismos de transporte pr Mecanismo de transferência de massa predominante Parâm Difusão superficial Difusão em contorno de grão Difusão volumétrica Evaporação – condensação Fluxo visco-plástico (*) Trummler e Thomma, 1967 Os resultados demonstram que a sinterização do sistema UO2.Gd2O3 é complexa, evidenciado pela grande variação do parâmetro n, contrastando com trabalhos anteriores para cerâmicas a base de Al2O3 (Restivo e Sørensen, 2000). No presente caso, os mecanismos de sinterização podem ser inferidos considerando todos os parâmetros em conjunto: energias de ativação, parâmetro n e temperaturas de dilatometria convencional. Na realidade, os parâmetros são interdependentes, atuando no estabelecimento da taxa de sinterização. Um exemplo é o lote d, co-precipitado: embora iniciando o processo com energia de ativação baixa (221kJ/mol), esta aumenta em alta temperatura para o maior valor encontrado (660kJ/mol); no entanto, a taxa de retração continua a aumentar lentamente, o que está possivelmente ligado à queda pouco acentuada do parâmetro n (geometria menos complexa). Conclusões 1. O processo de sinterização do sistema UO2-7%Gd2O3 (em massa) é fortemente afetado pela rota de preparação dos pós. A adição de gadolínia como segunda fase (misturas) favorece a sinterização durante o primeiro estágio (até cerca de 1050°C), evidenciado por maiores taxas de retração e menores energias de ativação, comparado com UO2 puro. A taxa de retração é reduzida em maiores temperaturas, caracterizando uma barreira de sinterização. 90 Pesquisa Naval Nº 16, Outubro de 2003 2. A adição de Al(OH)3 (lote b) reduz os efeitos da barreira de sinterização. 3. Pastilhas obtidas com pó co-precipitado (lote d) não apresentaram quaisquer barreiras até 1450°C. Por outro lado, a taxa de retração mostra um aumento lento progressivo, aproximando-se do comportamento do UO2 puro. A densidade máxima foi obtida neste caso. 4. O método cinético SID demonstrou um aumento agudo das energias de ativação em torno de 1100°C, o que indica mudança no mecanismo controlador. 5. O parâmetro cinético n sofreu grande variação com a temperatura, indicando o caráter complexo do processo. A menor queda registrada para o lote d indica que o processo de difusão é menos complexo, o que, em última análise, mantém uma taxa de retração elevada em uma faixa mais ampla de temperaturas. Agradecimentos Os autores manifestam seus agredecimentos aos engenheiros Nestor Fogaça Filho, Márcio Lima e ao Dr. O. T. Sørensen pelas valiosas discussões, reconhecendo ainda o apoio da Agência IAEA pela concessão do Projeto de Pesquisa BRA/4/052. Referências bibliográficas MANZEL, R. e DÖRR, W. O. Am. Ceram. Soc. Bulletim 1980; 59 (6): 601. ASSMANN, H., DÖRR, W. O. e PEEHS, M. J. J. Am. Ceram. Soc. 1984; 67 (9): 631. UNE, K. e OGUMA, M. J. Nucl. Mater. 1985; 88:131. YUDA, R. e UNE, K. J. Nucl. Mater. 1991; 178: 195. S∅RENSEN, O. T. J. Thermal Analysis 1992; 38: 213. S∅RENSEN, O. T. Thermochim. Acta 1981; 50: 163. WANG, H., LIU, X., CHEN, F., MENG, G. e S∅RENSEN, O. T. J. Am. Ceram. Soc. 1998; 81 (3): 781. TRÜMMLER, F. e THOMMA, W. Metal. Reviews 1967; 12 review 115: 69. BANNISTER, M. J. e BUYKX, W. J. J. Nucl. Mater. 1977; 64: 57. SAYED ALI, M. E., S∅RENSEN, O. T. e HALLDAHL, L. J. J. Thermal Analysis 1982; 25: 175. UNE, K. J. Nucl. Mater. 1988; 158: 210. RESTIVO, T. A. G. e S∅RENSEN, O. T. Estudo da Cinética de Sinterização por Dilatometria Quasi-isotérmica. 2o Congresso Brasileiro de Análise Térmica e Calorimetria., Poços de Caldas, SP, Brazil, 09-13 abril, 2000. DEHAULDT, P., BOURGEOIS, L. e CHEVREL, H. J. Nucl. Mater. 2001; 299: 250. BELLON, O. Technical Report, Riso National Laboratory - ENSCI, Denmark, 1991. MENG, G. e S∅RENSEN, O. Technical Report I-455, Riso National Laboratory, Denmark, 1989. BALAKRISHNA, P., MURTY, B. N., CHAKRABORTHY, K. P., JAYARAJ, R. N. e GANGULY, C. J. Nucl. Mater. 2001; 297: 35. VIII Capítulo USING MCDM METHODS IN AN APPLICATION FOR OUTRANKING THE BALLAST WATER MANAGEMENT OPTIONS Carlos Francisco Simões Gomes CASNAV - Email: [email protected]; [email protected] Abstract The Multicriteria Analysis Methodology has been developed in order to support and guide decision-makers in the evaluation and selection of alternatives/ solutions. In this case, it can be used to evaluate and select ballast water exchange systems and treatment methods. Key words: Ballast Water, Multicriteria, and Management. Resumo As Metodologias de Apoio Multicritério à Decisão vem apoiando os tomadores de decisão na avaliação, seleção e/ou priorização das alternativas na busca da solução não dominada para resolução dos problemas. O presente trabalho mostra uma aplicação real de uma metodologia multicritério na busca de uma solução para o problema de água de lastro. 1 - Introduction Each individual is endowed with internal information processing and problemsolving capacity, which varies with time. The human hierarchy of values is depends of the number of state variables, the human physiological and psychological conditions, social situation, and self-suggested goals. When a set of Decision Makers (DM) and a set of objectives exist, the multiobjective decision analysis problem needs to obey three parameters (Bodily, 1978): § Multiperiod – the consequences of a decision are spread over N time periods, with xt being the consequence x in time period t. For example, xt may be the cash 92 § § Pesquisa Naval Nº 16, Outubro de 2003 flow in year t from an investment opportunity. The Stability is a Multiperiod interpretation. Multiperson – the consequences are spread over N individuals. For example, xi may be the investor i share of the partnership profit. EQUALITY is a Multiperson interpretation. Decision Making problems that we encounter in the real world are often associated with several individuals or groups whose interests and/or preferences attitudes are different. In those situations, individual preferences should be aggregated. Multivariable – the consequences are spread over several parts of an organization, over several economic activities, or over several categories of a problem. For example, xn may be the market share of a product. BALANCE is a multivariable interpretation. 2 - Decision Maker values We can suggest some questions to help the DM identify his own values: What are the feasible alternatives for the decision problem? Can we expand the feasible set? ; What are the goal functions? ; What is the set of criteria? ; What are the consequences of the alternatives? ; How do we reduce uncertantainty and the risk? (A long-lasting consequence of the investment decision creates uncertainties. Ignoring uncertainties results in a severe oversimplification. Uncertainties create an environment in which risk attitudes play an important role); How can we ranking the preferences?; Do we have contingence plans for the undesirable consequences?; Who are the decision actors? ; Who are the people who may change the outcomes of the decision?; What are the reliable external information sources?; How do we obtain accurate information from them?; Are there conflicting interests?. The individual goals are: § Self survival and security, physiological health (right blood pressure, body temperature and balance of biochemical states), safety and freedom from dangers; right level and quality of air, water, food, heat, clothes, shelter and mobility, acquisition of money and other economic goods. § Perpetuation of the species: sexual activities, giving birth to the next generation, family love, health and welfare. § Feeling of self-importance: self-respect ans. self-esteem, esteem and respect from others, power and dominance, recognition, prestige, anchiviement, creativity, superiority, giving and accepting sympathy and protectiveness. § Social approval; esteem and respect from others, affiliation, friendship, conformity with a desired group, giving and accepting sympathy and protectiveness; conformity with group ideology, beliefs, attitudes and behaviors. § Sensed gratification: sexual, visual, smell, taste, tactile etc. Pesquisa Naval Nº 16, Outubro de 2003 93 § Cognitive consistency and curiosity: consistency in thought and opinions, exploring ans. acquinings knowledge, truth ans. Religion. § Self-actualization: the ability to accept and depend on the self, o relies on one’s own standard, to cease identifying with others, to aspire to the “ego-ideal’. Vind (2000) proved that pre-order on a set of functions can be represented by the expect value of a utility function was an independence condition, and a similar result assuming that preferences were defined on a space which could be interpreted as a set of probability measures. Knoblauch (2000) prove the nonexistence of representation via lexicographic orders for all preference relations. 3 - Group Values In a group of DM we have the degree of importance of each individual member of the group; the values for the attributes of the alternatives for each member of the group; and the coefficient vector of the additive utility function of each individual. The final goal for the group decision making process is to aggregate mutually conflicting individual preferences into a group preferences and to decide an alternative to be chosen by the group. The context of group discussion includes Negotiation, which must take into account the following questions: Is the habitual domain of a one group able to absorb the habitual domains from other group?; What are the common interests and the conflicting interests? ; Can we emphasize the common goals to encourage co-operation and reduce competition? ; Can we introduce news players, or change the rules, or can we influence the players in order to change the situation favorable to us? ; Can we form coalition? Karni and Safra, (2000) propose by Harsanyi´s Theory (Harsanyi, 2000) that exist two preference relations, one representing the individual choice behavior among socialalternatives lotteries and the second representing moral value judgment, being the preference relation of an impartial observer on the set of extended lotteries. Harsanyi (Harsanyi, 2000) assumes that the two preference relations satisfy the axioms of expected utility theory. Karni and Safra (2000) proved that the impartial observer’s preference relation may be viewed as a fair and reasonable procedure of aggregating individual preferences into a social preference relationship. 4 - The Multicriteria Decision Making (MCDM) methodology The literature about MCDM is vast and can be found in, for example, “ Vincke, Philippe, 1992, Multicriteria Decision-Aid. Ed. John Wiley & Sons, Inc”, and “ Roy, Bernard, Bouysson, Denis, 1993, Aide Multiple a la Decision: Methods et cas, Ed. Econômica, France”. The Multicriteria methodology accepts the following basic assumptions: • • Complexity of the decision-making process, which involves many parties that define the relevant aspects of such process; Inherent subjectivity of each party’s opinion (value judgement); 94 • • Pesquisa Naval Nº 16, Outubro de 2003 Acknowledgement of the limits of objectivity and due consideration of the subjectivity; Inaccuracy due to the fact that the problem has not been clearly defined. An understanding of the relationship between current decisions and future outcomes is crucial for the analysis of economic growth, the role for saving and investment, the properties of asset markets, and other important topics (Noussair, 2000). Considering, for example, the investment decision in a global economic world, with many influences changing the environment, we can assume that: decisions are nonrepetitive; the criteria for evaluating the investment alternative are subjective, and they can be defined by the DM; and the alternatives can be evaluated by criteria, using a scale; the DM must choice the best scale for each criteria/alternative. Economic constraints often push us to make difficult choices within a limited budget. This choice is rarely unique (Varlan, 1999). There is no one DM but several decision actors, who can be affect or not by the decision. Multicriteria Analysis is adapted for selection the optima strategy because: • The actors have a set of tools which permit modeling the decision process; • Models utilizing probabilities of success, risk, measurements of benefits or utility are helpful to guide the manager, but they only work for a limited number of cases, when the distributions are know; and • The high number of parameters and the different possibilities for the weights. We can use many MCDM methods in economics or market, for example: Outranking methods: that use concordance index to measures the intensity of the agreement between that average opinions of the group of decision makers, and the discordance index which measures the intensity of the disagreement between the average opinions of the group of decision makers; and Utility Theory and Perspective Theory: one incompleteness market cause price fluctuations in financial markets (Calvet, 2001); or Project finance or project financing involves performing a set of security arrangements to reduce risk in large infra-structural investments (Ballestero, 2000). Next, we are going to use the MCDM technique in a problem of the real world. The following section will describe the use of the MCDM as a toll to choose the best ballast water treatment system. 5 - Example application of the MCDM methodology 5.1 - Ballast water (BW) treatment options - the problem: The introduction of invasive marine species into new environments by ships’ ballast water, attached to ships’ hulls and via other vectors has been identified as one of the four greatest threats to the world’s oceans. The other three are land-based sources of marine pollution, overexploitation of living marine resources and physical Pesquisa Naval Nº 16, Outubro de 2003 95 alteration/destruction of marine habitat. Shipping moves over 80% of the world’s commodities and transfers approximately 3 to 5 billion tonnes of ballast water internationally each year. A similar volume may also be transferred domestically within countries and regions each year. Ballast water is absolutely essential to the safe and efficient operation of modern merchant ships, providing balance and stability to unloaded ships. However, it may also pose a serious ecological, economic and health threat. Observation: Ballast is any material used to weight and/or balance an object. One example is the sandbags carried on conventional hot-air balloons, which can be discarded to lighten the balloon’s load, allowing it to ascend. Ballast water is therefore water carried by ships to ensure stability, trim and structural integrity. Ships have carried solid ballast, in the form of rocks, sand or metal, for thousands of years. In modern times, ships use water as ballast. (http: //globallast.imo.org/index.asp?page=problem.htm&menu=true). It is estimated that at least 7,000 different species are being carried in ships’ ballast tanks around the world. The vast majority of marine species carried in ballast water do not survive the journey, as the ballasting and deballasting cycle and the environment inside ballast tanks can be quite hostile to organism survival. Even for those that do survive a voyage and are discharged, the chances of surviving in the new environmental conditions, including perdition by and/or competition from native species, are further reduced. However, when all factors are favourable, an introduced species by survive to establish a reproductive population in the host environment, it may even become invasive, out-competing native species and multiplying into pest proportions. (http: / /globallast.imo.org/index.asp?page=problem.htm&menu=true). As the situation is become more and more serious, the International Maritime Organization (IMO) has sponsored international meetings to found out courses of action to meet this challenge, where the subject is discussed by the IMO Member States. 5.2 - MCDM in the Ballast Water Problem The system proposed by this paper to use on IMO is based on the algorithm THOR, which has been the subject of a presentation given at the Symposium of the International Federation of Operational Research Societies (IFORS), 2002, in Edinburgh. This paper submits a methodology of outranking ballast water treatment options. A result of the application of this methodology will be the indication, consensually, of the best treatment system. When applied to group’s decisions, the MCDM allows individual preferences (in this case represented by the proposals submitted by IMO Member States) to be combined in such way that it results in a group decision. The THOR system, which uses the MCDM, has a module that allows the group to reach a 96 Pesquisa Naval Nº 16, Outubro de 2003 decision through the exchange of views of the group members, from which the negotiation around the acceptable proposals starts (i.e. around the preliminary accepted BW treatment and exchange methods). Figure 1 – Ballast water cycle The Multicriteria aid helps the decision making process by incorporating the value judgement of the IMO Member States taking into account their preferences and interpreting the procedure as a learning process. Thus, it helps to select the best ballast water exchange and treatment methods. In order to apply this methodology to the case under consideration, relevant factors have been identified. They are Practicability; Biological effectiveness (including pathogens); Cost/benefits; Time frame within which the standards could be practically implemented; environmental impact of the process’ sub-products. Pesquisa Naval Nº 16, Outubro de 2003 97 5.2.1 - Criteria application The detailed criteria, referring to the relevant factors identified, for quantitative measuring in association with a nominal scale or description, are reproduced in paragraph 5.2.2) Questions. They are numbered from 1 to 26. Each criteria presented shall be analyzed and represented using quantitative measuring. It can be done by assign a value in a nominal scale, by a value attributed to a yes or no answer, or by a description. For this study the following was adopted: (a) Restriction (veto criterion) – the system to be incorporated or selected shall not present any restrictions unacceptable. (b) All criteria have the same weight. (c) Undesirable outcomes are taken with negative values as well as those that have a negative impact with higher absolute values. According to that: • In the items 3, 5, 20-24 and 25, negative values are assign for the lowest desirable feature; • In the items 8 to 13, 17, 18, 19 and 26, where the answers should be either “Yes” or “No”, a value of 1 was assigned to a “Yes” answer (desirable) and a value of 0 to a “No” answer (undesirable); • In the items 6, 7 and 14, verbal (or nominal) scales associated to a numerical scale have been created for test purposes. 5.2.2) Questions a) Practicability a.1) Quantitative Criteria 1 - at what ballast flow rate range is the system applicable? (m3/hour) (Specify the minimum and maximum flow rate); 2 - what is the ship tonnage that the system can be applied to? (DWT) (Specify the minimum and maximum tonnage) ; 3 - what is the additional workload on board? (man/hours) ; 4 - what is the highest sea state (in the Beaufort wind scale) on which the system can operate? ; 5 - what is the increase in tank’s sediment caused by the system? (specify percentage) a.2) Questions that need to be answered by a nominal scale, subject to association to a numerical scale of intervals or by a yes/no answer 6 - does the system present any risks to the ship’s crew safety or to the crew? (− 3, high risk; −2, medium risk; −1, low risk; 0, no risk) ; 7 - does the system affect the tanks’ corrosion rate? (−2, increases the rate; −1, does not increase the rate; 0, reduces the rate) ; 8 - does the system dispense with the need to keep chemical products on board? (Yes or No) ; 9 - can the system be used in short voyages (up to 12 h)? (Yes or No) ; 10 - can the system be operated without complete re-circulation of the ballast water? (Yes or No) ; 11 - is the system unaffected by incrustation that could lead to a drop in pressure and/or to a reduction in the flow rate? (Yes or No) ; 98 Pesquisa Naval Nº 16, Outubro de 2003 12 - is the system be applicable to existing ships? (Yes or No) ; 13 - are the ship’s other functions independent from the system’s operation? (Yes or No) a.3) Questions that require detailed answers 14 - does the system present any occupational hazard to the operator? Describe and quantify. (−3, high; −2, medium; −1, low; 0, no hazard). b) Biological effectiveness (including pathogens) b.1) Quantitative Criteria 15 - how effective is the system in relation to the removal, elimination and inactivation/neutralization of aquatic organisms, apart from pathogens (according to the various taxonomic groups)? (quantify in terms of percentage, size and/or concentration of organisms) ; 16 - same as 15 for pathogens. b.2) Questions for which the answers should be either Yes or No 17 - does the system eliminate cysts? ; 18 - does the system allow the elimination of organisms when the water enters the tank? ; 19 - is the system adequate for the elimination of all species or life stages that may present a hazard to the environment? c) Cost-benefits c.1) Quantitative Criteria: 20 - what is the purchase cost? (US$) ; 21 - what is the cost of installation? (US$) ; 22 - what is the operational cost? (US$/ton) ; 23 - what is the cost variation per ship size? (US$/ton) ; 24 - what is the increase of fuel or oil consumption that is introduced by the use of this system on board? (Percentage) d) Time frame within which the standards could be practically implemented d.1) Quantitative Criteria 25 - within which time frame could the standards be practically implemented? (Months) e) Impact of the system’s sub-products on the environment e.1) Question for which the answer should be either Yes or No 26 - is the system free from generating sub-products that can have an impact on the environment? 5.2.3) Example of the MCDM Application Table I presents an example utilization of this method using three management methods. It is difficult, in the following table, to find out the best management method. This problem becomes even more complicated if we consider that there are several ballast water treatment methods currently being discussed at IMO and not just the three ones used as example. Pesquisa Naval Nº 16, Outubro de 2003 99 Table I - Alternatives and Criteria Criteria Management Method Management Method Mana 1 2 Maximum 14,000 Ma Maximum 15,000 1 m3/hour m3/hour Minimum 100 m3/hour Minimum 200 m3/hour Minim Maximum 450,000 Maximum 350,000 Max 2 DWT DWT DWT Minimum 350 Minimum 450 DWT DWT 3 4 90 man/hours 7 80 man/hours 8 5 6 10% 12% −1 −2 7 8 −2 1 −1 1 9 10 1 1 1 1 11 12 0 0 1 1 13 14 0 0 0 15 93 % −1 92 % 16 17 90 % 1 88 % 0 18 19 1 0 0 1 20 21 US$ 200,000.00 US$ 10,000.00 US$ 210,000.00 US$ 21,000.00 9 US U 100 Pesquisa Naval Nº 16, Outubro de 2003 Figure 2 – Criteria and Alternatives Figure 3 – THOR results It is possible to outrank the worst management methods and identify the best ones applying the THOR methodology to the data from the Table I, as shown in the Figure 2 and 3 further shown. Using the software THOR (Figure 2 and 3), it can be seen that the management method 1 is the best method, slightly better than method 3. Pesquisa Naval Nº 16, Outubro de 2003 101 6 - Conclusions and Recommendations In order to apply this methodology to the problem of ballast water, the IMO Member States should take the following steps: a) Define which criteria will be used to evaluate the management methods. The Committee will, then, decide on the value to be assigned to each criterion and will also define the initial restriction (veto). (Brazilian Delegation suggests, as a starting point for the discussions on the restriction, that the docking time should not exceed 10% of the time allowed for before the introduction of the system. The same time limit should be observed with regards to the increase in the time of ship’s construction. Please note: any system presented for evaluation should have been tested on board, and laboratory tests should not be accepted for this purpose); b) Stipulate the deadlines for disputing the outcome of the evaluation of the management methods (the outcome shall be disputed by means of a new evaluation carried out by the disputing party); c) Establish the relative value to be assigned to each evaluation criteria and apply the data obtained through the evaluation of each treatment method to the THOR system and outrank the worst methods. Based in the above steps IMO could select the best course of actions based on scientific methodology avoiding take decisions based on misleading individual preferences expressed by voting. § Bibliography [1] Ballestero, E., Project Finance: a multicriteria approach to arbitration, journal of the operational research society, page 183-197, n 51, 2000. [2] Bodily, Samuel e., “police sector design incorporating preferences of interest groups for equality and efficiency, management science, vol. 24, no 12, 1978. [3] Calvet, Laurent E., Inclopete Markets and Volatility, Journal of Economic Theory 98, 295-338, 2001. [4] Gomes, Luiz Flavio Autran Monteiro, Carlos Francisco Simões Gomes & Adiel Teixeira, Tomada de Decisão Gerencial o Enfoque Multicritério, Editora Atlas, 2002. [5] Gomes, C. F. S., Gomes, L. F. A. M. Aplicação da Teoria dos Conjuntos Aproximativos à Modelagem Analítica de Apoio à Negociação, VIII CLAIO - Latin-Iberian-American Congress on Operations Research and Systems Engineering 1996. v.II. p.866 – 971. [6] Gomes, C. F. S., Gomes, L. F. A. M., Moreira, A. M. M. Modelos Analíticos para a Negociação In: XXIX Simpósio Brasileiro de Pesquisa Operacional, 1997, Salvador. Anais do XXIX Simpósio Brasileiro de Pesquisa Operacional. , 1997. v.1. p.161 – 161 [7] Gomes, C. F. S., Gomes, L. F. A. M., Moreira, A. M. M, Modelos Analíticos para Negociação. Pesquisa Naval. Rio de Janeiro, RJ: , v.11, p.151 - 157, 1998. [8] Gomes, C. F. S., Gomes, L. F. A. M. Uma Aplicação de Conjuntos Aproximativos ao Apoio Multicritério à Negociação. Pesquisa Naval. Rio de Janeiro, v.12, p.263 270, 1999 102 Pesquisa Naval Nº 16, Outubro de 2003 [9] Gomes, L. F. A. M. Conflito e Negociação no Planejamento Participativo: Uma Formulação de Análise de Decisões com Múltiplos Critérios; Investigacion Operativa; Vol. 2; No 2; Deciembre pgs 111-119; 1991. [10] Haranyi, J.C., Rational Behaviour and Bargaining Equilibrium in Games and Social Situations. Cambridge Uni. Press, Cambridge, 2000. [11] Karni, Edi, Safra, Zvi, An extension of a theorem of von Neumann and Morgenstern with an application to social choice theory, Jr of Mathematical Economics, 34, pag. 315-327, 2000. [12] Knoblauch, Vicki, Lexicographic orders and preference representation, journal of Mathematical Economics 34, 2000. [13] Noussair, Charles, Matheny, Kenneth. An Experimental study of decisions in dynamic optimisation problems, Economic Theory 15, page 389-419, 2000. Savage, l. j., The foundation of Statistics, Wiley. [14] Varlan, E., Paillier, R. Le, Multicriteria Decision making for contract research organisation choice in the pharmaceutical industry, journal of the operation research society, 50, page 943-948, 1999. [15] Vind, Karl, von Neumann Morgenstern preferences, Journal of Mathematical Economics 33, page 109-122, 2000. IIX X Capítulo CONTROLE FUZZY DE ALGORITMOS ESTOCÁSTICOS DE OTIMIZAÇÃO GLOBAL E VFSR Hime Aguiar e Oliveira Junior Engenheiro Eletrônico – [email protected] Abstract Finding the global minimum (or maximum) of an arbitrary multivariable and multimodal function f : R N → R is a problem that, even today, challenges researchers in virtually every branch of applied Science. But the real, great defiance is to devise algorithms that could minimize a nonsmooth (discontinuous, perhaps) multivariable function with constraints. In such a setting, stochastic methodologies appear to be the most adequate approach. Facing this problem, the author found ASA (Adaptive Simulated Annealing) as a solution to the above problems. ASA can be described as a simulated annealing optimization method that stochastically and ergodically searches a solution space for the global minima of numerical functions. The present paper describes the results achieved by applying fuzzy control techniques to the ASA algorithm, considered as an open loop plant. Resumo O problema geral da otimização global de funções numéricas multimodais (exibindo vários extremos locais) vem desafiando pesquisadores desde sua concepção. No decorrer do tempo foram estabelecidos vários resultados particulares, obedecendo a premissas algo restritivas para aplicação em alguns casos práticos. Por outro lado, a demanda por soluções em inúmeras áreas do Conhecimento á cada vez maior, envolvendo, em particular, minimização de funções de difícil 104 Pesquisa Naval Nº 16, Outubro de 2003 tratamento, apresentando pontos de descontinuidade, domínio com elevado número de dimensões e complexas restrições funcionais (constraints). No campo atualmente conhecido por Soft Computing as coisas não são diferentes e, na verdade, motivaram a realização da pesquisa descrita neste artigo, que demonstra os resultados obtidos pela aplicação de um controlador fuzzy a um algoritmo estocástico de otimização global (ASA), cujo desempenho é eficaz, mas em casos difíceis pode se mostrar não tão eficiente quanto necessário. I – Introdução O problema de otimização global de funções numéricas tem grande importância em várias áreas do Conhecimento. Ele aparece em campos como Engenharia, Finanças, Gerenciamento, Medicina, etc.. Em casos práticos, a função a ser minimizada aparece como um índice de performance multivariável e está sujeita a certos vínculos, impostos por seu contexto. Quando a função-objetivo é “bem comportada”, existem vários métodos para se obter seus pontos de mínimo, satisfazendo aos referidos vínculos. Os problemas começam quando a dada função apresenta vários mínimos locais, cada um deles possuindo sua própria bacia de atração, fazendo tipicamente o resultado final depender do ponto inicial, utilizado para “lançar” um dado algoritmo particular. Infelizmente, a maioria dos problemas práticos dá origem a funções-objetivo bastante complexas, sendo freqüentemente não-lineares, descontínuas, multi-modais, etc.. Para resolver tal classe de problemas, métodos não-determinísticos parecem ser uma boa alternativa, se não a única, em várias situações. Algoritmos genéticos e Simulated Annealing (abreviadamente SA) aparecem como abordagens bastante exploradas em otimização estocástica global. O problema neste caso está relacionado à velocidade de convergência e, no caso genético, garantia do alcance do extremo global, sob condições suficientemente gerais. Métodos puros de SA, por outro lado, possuem resultados assegurando sua convergência a ótimos globais com probabilidade 1, mas seu desempenho em geral não é satisfatório. Apesar disso, alguns pesquisadores conseguiram superar tais limitações, levando, por exemplo, a alternativas como VFSR (Very Fast Simulated Reannealing), que é um método de otimização global estocástica realmente eficaz. VFSR é particularmente adequado a aplicações envolvendo sistemas neurofuzzy e treinamento de redes neurais artificiais, em virtude de seu excelente desempenho e relativa simplicidade. ASA (Adaptive Simulated Annealing) é uma implementação do método VFSR (na linguagem de programação C) que nos traz os benefícios de ser pública, parametrizável e bem mantida. Além disso, ASA se mostra como uma alternativa em relação aos algoritmos genéticos, levando-se em conta os testes de desempenho já realizados, que demonstram sua boa qualidade. Infelizmente, todos os algoritmos estocásticos de otimização global compartilham algumas características pouco desejáveis como, por exemplo, longos períodos de estagnação. Em implementações de Pesquisa Naval Nº 16, Outubro de 2003 105 de SA, isto é devido ao chamado processo de resfriamento, cuja velocidade é limitada pelas características das funções de densidade de probabilidade (PDFs) usadas para a geração de novos pontos candidatos. Desta maneira, se escolhermos empregar o resfriamento de Boltzmann (BA), a “temperatura” é reduzida a uma taxa máxima correspondente a T(k) = T(0) / ln(k). No caso do resfriamento rápido (FA), a evolução da temperatura passa a T(k) = T(0) / k , se desejarmos assegurar convergência com probabilidade 1, resultando numa evolução mais rápida do processo geral. ASA tem um esquema ainda mais eficiente, dado por 1 D Ti (k) = Ti (0) × exp(-Ci k ) ( Ci = parâmetro definido pelo usuário) graças à sua excelente PDF de geração de pontos. Note que os subscritos indicam evolução independente de temperaturas para cada dimensão. O usuário também tem a possibilidade de utilizar o processo de Simulated Quenching (SQ), resultando em Ti (k) = Ti (0) × exp(-Ci k Qi D ) ( Qi = parâmetro de quenching ) Se usarmos parâmetros de quenching maiores do que 1, existirá ganho de velocidade mas a convergência ao ótimo global não é mais assegurada [ Vide Ref. 2 ]. Tal procedimento poderia ser usado em casos de domínios com dimensões elevadas (> 100, por exemplo) e recursos computacionais escassos. Apesar (ou por causa) de toda esta flexibilidade, há muitos ajustes a realizar, do ponto de vista do usuário (“Sistemas não-lineares são, tipicamente, atípicos.”, como diz Lester Ingber o criador do sistema ASA). No que segue, descreveremos um método bem sucedido de aceleração aplicado ao sistema ASA, que, pela utilização de um controlador fuzzy Mamdani, ajusta dinamicamente parâmetros relacionados ao procedimento de quenching. Mostraremos que, pelo aumento da percepção de situações de estagnação ou fraco desempenho, é possível tomar ações corretivas e reduzir substancialmente (talvez eliminar) as tarefas de ajuste paramétrico manual. Tudo é feito sem alterar o código do sistema ASA. II – Estrutura Geral dos Algoritmos baseados em Simulated Annealing Algoritmos baseados em SA utilizam princípios idealizados por N. Metropolis e outros, sendo conhecidos genericamente pelo rótulo de métodos de Monte Carlo. A abordagem usa três componentes fundamentais que têm grande impacto na implementação final: • Uma densidade de probabilidade g(.), usada na geração de novos pontos candidatos. 106 • • Pesquisa Naval Nº 16, Outubro de 2003 Uma densidade de probabilidade a(.), usada na aceitação/rejeição de novos pontos. Um esquema de redução de temperaturas T(.), que determina como as mesmas variarão durante a execução do algoritmo, ou seja, seu perfil dinâmico. A estratégia básica é gerar um ponto inicial, escolhido de acordo com critérios convenientes, e ajustar a temperatura inicial de modo que o espaço de fase possa ser suficientemente explorado. A seguir, novos pontos são gerados de acordo com a PDF g(.) e probabilisticamente aceitos ou rejeitados, conforme determinar a PDF a(.). Se ocorrer a aceitação, o ponto candidato é elevado à condição de ponto básico vigente. Durante a execução do algoritmo as temperaturas são reduzidas, provocando a redução da probabilidade de aceitação de novos pontos posteriormente gerados apresentando valores da função-objetivo superiores àquele do ponto básico corrente (no caso de minimização de funções). Entretanto, existe uma probabilidade não nula de escolha de pontos situados acima deste último, tornando possível uma eventual “fuga” de mínimos locais. III – Principais aspectos da abordagem ASA/VFSR Como citado anteriormente, ASA, que é uma realização prática de VFSR, é baseado no conceito de simulated annealing, possuindo um grande número de aspectos positivos. Dentre eles, podemos citar : . Re-annealing – trata-se do re-escalonamento dinâmico das temperaturas paramétricas, adaptando PDFs geradoras para cada dimensão de acordo com as sensibilidades exibidas em cada direção de busca. Em poucas palavras, se a função objetivo não apresenta variações significativas quando alteramos um dado parâmetro, pode ser proveitoso estender a amplitude do intervalo de busca naquela dimensão em particular, e vice-versa. . Facilidades de Quenching – como dissemos anteriormente, a implementação do sistema ASA apresenta a possibilidade de ajuste manual (por parte do usuário) de vários parâmetros estruturais relacionados ao processo de quenching, o que poderá resultar em maior velocidade de convergência. Assim, é possível moldar a evolução das temperaturas paramétricas de modo amplo, fácil e limpo. . Alto nível de parametrização – o sistema ASA foi codificado de tal modo que possamos alterar virtualmente qualquer subsistema sem esforço significativo. Sendo assim, é possível mudar o comportamento dos processos de geração/aceitação, critérios de conclusão, geração de pontos iniciais, nível de detalhe do arquivo de log, etc.. Pesquisa Naval Nº 16, Outubro de 2003 107 ASA foi projetado para encontrar minimos globais pertencentes a um dado subconjunto compacto do espaço Euclidiano n-dimensional. Ele gera pontos componente a componente, de acordo com xi +1 = xi + ∆xi , com ∆xi = yi (Bi - Ai ) , [Ai , Bi ] = faixa de variação da i - ésima dimensão , yi ∈ [-1,1] é dado por yi = sgn(ui − 1/2)Ti [(1 + 1/Ti ) 2ui -1 - 1] onde ui ∈ [0,1] é gerado por meio da distribuição uniforme, Ti = temperatura atual relativa à dimensão i . A compacidade do espaço de busca não é uma severa limitação na prática, e na falta de prévia informação sobre a possível localização de mínimos globais, basta escolher domínios hiper-retangulares suficientemente abrangentes. IV – Controle fuzzy aplicado ao sistema ASA Conforme citação anterior, o uso do mecanismo de quenching pode melhorar substancialmente a eficiência do processo de convergência, com a assunção do risco de alcance prematuro de mínimos não globais. Em certos casos, contudo, podemos simplesmente não ter alternativa, como é o caso de funções com domínios de elevado número de dimensões. Para resolver o problema, um controlador fuzzy foi projetado. A abordagem é simples: consideramos ASA como um sistema dinâmico MISO (Multiple Input Single Output) e ”fechamos a malha”, pela amostragem da saída de ASA (valor corrente da função objetivo) e atuação em suas entradas (um subconjunto de parâmetros ajustáveis em run-time, relacionados ao processo de quenching) de acordo com uma lei fuzzy (algoritmo de controle), que nada mais faz do que emular o raciocínio humano sobre o processo subjacente. Assim, pelo uso de um controlador inteligente podemos acelerar e retardar a evolução das temperaturas, além de sermos capazes de tomar ações evasivas em caso de convergência prematura. Enfrentamos dois principais obstáculos para alcançar tal objetivo : 1 – Como as saídas amostradas (valores da função objetivo) podem informar o estado atual do processo de minimização em andamento ? 2 – Como podemos alterar dinamicamente as entradas do sistema ASA de modo au eliminar situações indesejáveis, como permanência junto a mínimos não globais ou progresso insatisfatório ? A primeira questão foi resolvida graças ao conceito de função de sub-energia, usada no método TRUST [vide Barhen – Ref. 1]. 108 Pesquisa Naval Nº 16, Outubro de 2003 A função de sub-energia é dada por: SE(x, x0 ) = log(1/[1 + exp(-(f(x) - f(x0 )) - a)]) onde a é uma constante real , e x0 é o " ponto básico" O ponto básico é o melhor ponto de mínimo encontrado até então. Logo, a função SE comporta-se qualitativamente como a original f(.) quando o processo de busca “visita” pontos melhores do que o mínimo corrente e tende a se achatar em pontos piores. Assim, é possível avaliar quando a busca está concentrada acima, nas imediações ou abaixo do ponto mínimo atual pela inspeção dos valores assumidos pela função de sub-energia. Tal processo de detecção resulta em conclusões aproximadas como A busca está PRÓXIMA do mínimo vigente. ou A busca está MUITO DISTANTE do mínimo vigente. o que leva naturalmente a uma oportunidade de modelagem fuzzy. A segunda questão acima está relacionada às partes conseqüentes da base de regras fuzzy, na qual temos que inserir ações corretivas para eventuais desvios em relação às diretrizes preestabelecidas para o processo de minimização. Isto foi feito pela variação dos graus de quenching para PDFs de geração e aceitação. A implementação usou fatores de quenching individuais para cada dimensão. A base de regras do controlador fuzzy contém asserções como - SE AveSub está PRÓXIMA a zero ENTÃO aumente o nível de Quenching. SE AveSub está PRÖXIMA ao mínimo corrente ENTÃO aumente o nível de Quenching SE StdDevSub é ZERO ENTÃO decresça o nível de Quenching onde : - AveSub é uma variável lingüistica correspondente à média abrupta (crisp) dos 100 últimos valores de sub-energia - StdDevSub é uma variável lingüistica correspondente ao desvio-padrão abrupto (crisp) dos 100 últimos valores de sub-energia Tendo descrito a estrutura geral da abordagem adotada, é hora de mostrar alguns resultados práticos, obtidos através da otimização de algumas funções de difícil tratamento. Pesquisa Naval Nº 16, Outubro de 2003 109 V – Resultados Apresentaremos quatro testes nos quais funções multi-modais foram submetidas a três métodos: ASA, Fuzzy ASA (descrito neste artigo) e um algoritmo genético de ponto flutuante eficiente e bastante conhecido, cujo nome não será citado por motivos éticos. ASA e Fuzzy ASA mantiveram exatamente os mesmos parâmetros em cada caso; a única diferença entre as execuções sendo a ativação do controlador inteligente em Fuzzy ASA, localizado em módulo externo e ativado de dentro da função de custo. O controlador ficou inalterado em todos os testes, evidenciando sua independência em relação às características da função objetivo e/ou dimensão de seu domínio. O algoritmo genético foi utilizado com as seguintes características : - Tamanho da população – 75 Elitismo – Operante População inicial idêntica à semente de ASA 3 operadores de reprodução (crossover) 5 operadores de mutação As funções de teste são : Função 1 : Domínio : { x ∈ R 3 : xi ∈ [ - 10000 , 10000 ] } f(x) = x12 (2 + sin(120x2 )) + x22 (2 + sin(220x1 )) + x32 (2 + sin(50x1 )) Mínimo global em (0,0,0) . Valor mínimo = 0. Função 2 : Domínio : { x ∈ R 4 : xi ∈ -[ 10 , 10 ] } f(x) = 100(x 2 - x1 )2 + (1 - x1 )2 + 90(x 1 - x32 )2 + (1 - x3 )2 + 10.1((x 2 - 1) 2 + (x4 - 1) 2 ) + 19.8(x 2 - 1)(x 4 - 1) Mínimo global em (1,1,1,1). Valor mínimo = 0. 110 Pesquisa Naval Nº 16, Outubro de 2003 Função 3 : Domínio : { x ∈ R 50 : xi ∈ [ - 10 , 10 ] } f(x) = f 1 (x) + f 2 (x) + f 3 (x) f 1 (x) = f 2 (x) = f 3 (x) = 50 ∑ ( ix i =1 2 i 50 ∑ (x i =1 i -1 50 ∑ ln i =1 2 ) + 5sinx i + xi2+ 1 )2 ( 1 + isin 2 xi - 1 + 2x i + 3x i + 1 ) com x0 = x 50 e x 51 = x1 Mínimo global em 0 ∈ R 50 . Valor mínimo = 0 . Função 4 : Domínio : Mesmo da função 3 . f(x) = f 1(x) + f 2 (x) + f 3 (x) 50 f1 (x) = ∑ ( ixi2 ) i =1 50 f 2 (x) = ∑ isin 2 (xi -1 sinxi - xi + sinxi + 1 ) i =1 50 f 3 (x) = ∑ iln(1 + i(xi2-1 - 2xi + 3xi + 1 - cosxi + 1)2 ) i =1 com x0 = x50 e x51 = x1 No apêndice mostramos a evolução dos processos de minimização. No eixo das abscissas temos o número de avaliações da função-objetivo e no das ordenadas o melhor valor encontrado até então. Como se pode constatar pelos gráficos, o algoritmo proposto apresenta desempenho sempre superior ao sem realimentação, superando ainda, nos casos de altas dimensões, o FPGA (Floating Point Genetic Algorithm). Isto o coloca entre as soluções viáveis para problemas práticos. Pesquisa Naval Nº 16, Outubro de 2003 111 VI - Conclusão Mostramos que o desempenho da abordagem ASA/VFSR pode ser melhorado pela aplicação de técnicas de controle fuzzy. Os resultados apresentados evidenciaram que o algoritmo ASA dotado de mecanismos de controle inteligente pode ser mais eficiente do que algoritmos genéticos de excelente desempenho em complexos problemas de otimização global. Ressaltamos que os pontos iniciais usados em cada um dos testes foram os mesmos para os três métodos aplicados, sendo seu posicionamento escolhido de modo a dificultar ao extremo o acesso às bacias de atração dos respectivos mínimos globais. Referências : BARHEN,J. / PROTOPOPESCU,V. / REISTER.D. TRUST: A Deterministic Algorithm for Global Optimization - Science,Vol. 276. INGBER, L. - ASA : Lessons learned Disponível em www. ingber. com. PINTÉR, J. - Global Optimization in Action , Kluwer Academic Publishers. ROSEN-, B. - Function Optimization based on Advanced Simulated Annealing Disponível em www. ingber. com. 112 Pesquisa Naval Nº 16, Outubro de 2003 APÊNDICE Pesquisa Naval Nº 16, Outubro de 2003 113 114 Pesquisa Naval Nº 16, Outubro de 2003 CANHÃO DE SALVA DE 47mm O Canhão de Salva 47 mm é uma arma destinada exclusivamente a saudações militares, de fácil transporte e manuseio. Possui bloco de culatra inteiriça, fabricada em açoliga especial, e tubo alma liso. A cunha vertical é operada manualmente por alavanca. A operação é simples e rápida. O mecanismo de disparo é do tipo percussão. A manutenção do canhão é extremamente simples e de baixo custo. A munição utilizada é a Carga de Salva 47 mm, também comercializada pela EMGEPRON. Trata-se de uma munição com estojo de latão 70/30, carga de pólvora negra, estopilha de percussão com cápsula M61 e que produz um nível de ruído superior a 100 dB. CARACTERÍSTICAS PRINCIPAIS Peso Total: Dimensões: - Comprimento: - Altura: - Largura: Pintura: 128 kg. 1.100 mm. 670 mm. 660 mm. Cor Preta (ou Conforme Solicitação) X Capítulo SISTEMAS CRIPTOGRÁFICOS BASEADOS EM IDENTIDADES CT Waldyr Dias Benits Júnior Aluno de Mestrado da Universidade de São Paulo [email protected] Prof. Dr. Routo Terada, PhD Prof. titular do Instituto de Matemática e Estatística da Universidade de São Paulo [email protected] Resumo O emprego de curvas elípticas em criptografia permitiu o aparecimento de uma criptografia assimétrica em que a chave pública de um usuário não é uma seqüência aleatória de bits e sim um identificador que caracteriza este usuário de forma única, como por exemplo seu número de CPF ou seu endereço eletrônico. Tal fato possibilitou que se estabeleça uma comunicação segura sem troca de segredos, sem troca de certificados digitais e sem a necessidade de se manter um diretório público de chaves. Este esquema de criptografia assimétrica, que será apresentado neste artigo, é hoje conhecido como criptografia baseada em identidades pessoais (ID-based cryptosystems). Abstract The use of elliptic curves in cryptography allowed the development of an asymmetric cryptography in that the public key of a user is not a random string, but an identity that characterizes him in a unique way, as for example, his e-mail address. Based on this property, we can establish a secure communication without changing secrets, without changing certificates and without keeping a public key directory. This asymmetric criptography scheme, that will be presented in this paper, is nowadays known as ID-based cryptosystems. Palavras chaves: Sistemas baseados em identidades, Emparelhamento, Bilinearidade, Criptografia em curvas elípticas. Key words : Identity-based cryptosystems, Pairing, Bilinearity, Elliptic curves cryptography . 116 Pesquisa Naval Nº 16, Outubro de 2003 1. Introdução O conceito de criptografia baseada em identidades pessoais surgiu em 1984, com SHAMIR, A. Neste artigo, o autor propôs um novo modelo de esquema criptográfico, que permitiria a qualquer par de usuários se comunicar de forma segura, sem que fosse necessária a troca de chaves secretas, como ocorre na criptografia simétrica, e sem que fosse preciso utilizar certificados digitais para autenticar chaves públicas, que é o caso da criptografia assimétrica tradicional. Neste novo esquema, segundo Shamir, existe um Gerador de Chaves Particulares (PKG - Private Key Generator), cuja única função é gerar uma chave particular para um usuário solicitante e transmiti-la ao mesmo por um canal seguro. Naturalmente, antes de gerar e distribuir esta chave, o PKG fará uma cuidadosa investigação com o objetivo de autenticar o solicitante, da mesma forma que ocorre em uma verificação de identidade para emissão de certificados na criptografia assimétrica tradicional. Como “canal seguro”, poderíamos imaginar que o solicitante compareça pessoalmente ao PKG, onde receberá sua chave particular gravada, por exemplo, em um cartão inteligente (smart card). Neste caso, antes de receber sua chave particular, este usuário deverá provar sua identidade. Diferentemente da criptografia assimétrica tradicional, após gerar e distribuir as chaves particulares, o PKG não precisa mais participar da comunicação, permitindo que a rede funcione de forma totalmente descentralizada. Além disso, neste novo esquema não é preciso que os centros coordenem suas atividades e nem mantenham lista de seus usuários, como na infraestrutura de chaves públicas (PKI). Ainda de acordo com Shamir, o esquema proposto é ideal para grupos fechados, como por exemplo em uma cadeia de lojas ou de bancos, onde a matriz pode fazer o papel de PKG. O modelo proposto por Shamir baseia-se no esquema de criptografia assimétrica tradicional, sendo que, em vez de termos um par de chaves representadas por uma seqüência de bits, sendo uma aleatória, e a outra calculada em função da primeira, como no caso do RSA, teremos como chave pública um identificador, ou seja, uma característica que identifique o usuário de forma única, de modo que ele não tenha como negar que esta informação diz respeito a ele. Como exemplos de identificador, poderíamos citar o número do CPF ou o endereço eletrônico (e-mail). A grande vantagem deste esquema é que, ao contrário da criptografia assimétrica tradicional, não há necessidade de se fazer um mapeamento entre uma chave pública e seu dono, haja vista que, nesse caso, a chave pública identifica o dono. Uma outra vantagem é que, por não ser mais um número aleatório, um usuário Beto não precisa reservar espaço adicional para guardar as chaves públicas das pessoas com quem deseja se comunicar, pois pode usar sua própria lista de endereços eletrônicos. Estas características fazem com que a criptografia assimétrica baseada em identidades se assemelhe ao correio físico, ou seja, se você conhece o endereço de uma pessoa, você pode enviar-lhe uma mensagem, de modo que somente ela poderá ler. Com base no mesmo conceito, se Alice deseja enviar uma mensagem sigilosa para Pesquisa Naval Nº 16, Outubro de 2003 117 Beto, ela necessita apenas do endereço eletrônico de Beto, ou seja, não é preciso nem mesmo ter algum conhecimento sobre chaves ou protocolos de comunicação. Desde que Shamir apresentou o modelo de sistema criptográfico baseado em identidade, vários pesquisadores tentaram, sem sucesso, desenvolver um esquema, obedecendo a propriedade de não expor a chave particular do PKG. Algumas soluções propostas requeriam que os usuários não entrassem em conluio, em outras o PKG gastaria um tempo muito grande na geração de cada chave particular solicitada e em outras havia a necessidade de que o hardware fosse resistente a fraudes. Somente com o esquema proposto por BONEH & FRANKLIN, baseado em propriedades de curvas elípticas, conseguiu-se uma solução satisfatória para criptografia com chaves baseadas em identidades. Este artigo está organizado da seguinte forma: na seção 2 veremos as notações que serão utilizadas ao longo deste trabalho e os conceitos principais de criptografia com curvas elípticas; na seções 3 e 4, os conceitos de criptografia e assinatura baseados em identidades, respectivamente; na seção 5 comentaremos as principais vantagens e desvantagens de um esquema baseado em identidades, e finalmente, na seção 6 concluiremos este artigo e apresentaremos algumas referências de trabalhos relacionados, para os leitores que queiram ampliar seus conhecimentos sobre o assunto. 2. Definições e notações inicias Um sistema de criptografia baseado em identidade envolve uma série de notações e conceitos matemáticos, que nesta seção serão elucidados, para possibilitar um melhor entendimento do leitor. 2.1 Problema do Logaritmo Discreto (PLD) Muitos sistemas criptográficos baseiam-se na dificuldade computacional do Problema do Logaritmo Discreto, que TERADA, R. define como: “Dados um número primo p e números inteiros g, t, tais que 0<g,t<p, calcular um inteiro s tal que t = g s mod p.” Para números pequenos, conseguimos calcular s atribuindo valores, até que o resultado desejado seja encontrado. Veja no exemplo ilustrativo a seguir: Exemplo 1: Para p = 13, g = 2 e t = 12, calcular s tal que 12 = 2s mod 13. s 0 1 2 3 4 5 6 Resposta: O valor de s é 6. 2s mod 13. 1 2 4 8 3 6 12 118 Pesquisa Naval Nº 16, Outubro de 2003 Entretanto, à medida que o valor de p aumenta, este método, conhecido como “força bruta” se torna inviável. Ainda não se conhece nenhum algoritmo de tempo polinomial, pelo menos até o momento em que foi escrito este trabalho, que resolva o problema do logaritmo discreto. Portanto, o PLD se enquadra na classe de problemas computacionalmente difíceis e devido a isto, é muito usado em sistemas criptográficos. 2.1.1 PLD em Curvas Elípticas (PLD - CE) O PLD com aplicação em Curvas Elípticas é chamado de “Problema do Logaritmo Discreto em Curvas Elípticas”, e é enunciado por TERADA, R. da seguinte forma: “Dados dois pontos R, P de uma curva elíptica definida sobre um corpo finito, achar um inteiro s tal que R = sP” Em SILVERMAN, J. e BARRETO, P. et al. o leitor encontrará as principais operações utilizadas em curvas elípticas. Para prosseguir com o entendimento deste artigo, porém, basta apenas ter em mente que, da equação acima, o valor s está protegido pelo PLD-CE, ou seja, “é computacionalmente inviável se calcular s, dado que conhecemos os pontos R e P”. 2.2 Bilinearidade Quando trabalhamos com curvas elípticas em criptografia, uma propriedade que utilizaremos muito é a bilinearidade. Dizemos que um emparelhamento1 de pontos de uma curva elíptica (denominado e(P,Q)) é bilinear quando podemos mover livremente os expoentes e multiplicadores sem alterar o resultado do emparelhamento, conforme podemos ver abaixo (P,Q são pontos da curva e a,b,c Î Z*): e(aP, bQ)c = = = = e(aP, cQ)b = e(bP, cQ)a = e(bP, aQ)c e(abP, Q)c = e(P, abQ)c = e(cP, abQ) ... e(abcP, Q) = e(P, abcQ) = e(P, Q)abc Resumindo a propriedade acima, temos: e(aP, bQ)c = e(P, Q)abc Além disso, as seguintes propriedades também se aplicam a uma função bilinear: e(P1 + P2, Q) = e(P1,Q)e(P2,Q) e(P,Q1)e(P,Q2) = e(P, Q1 + Q2) É importante ressaltar que, em termos computacionais, o cálculo de um emparelhamento tem ordem de grandeza maior do que uma exponenciação em Fq, segundo CHA,J.C. e CHEON, J.H., sendo portanto, a operação de maior custo computacional em sistemas criptográficos baseados em identidades, segundo BARRETO, P., LYNN, B. e SCOTT, M. . Pesquisa Naval Nº 16, Outubro de 2003 119 2.3 Nomenclatura básica Tendo entendido as propriedades principais do PLD-CE e da bilinearidade, podemos prosseguir com as notações utilizadas. Considere que para os grupos G1 e G2 o problema do logaritmo discreto é assumidamente difícil e existe um mapeamento bilinear computável: Sejam: q: número primo longo2 G1, G2:grupos de ordem prima q Fq: corpo finito de ordem q t: G1 X G1 → G2 emparelhamento de Tate Se escrevermos G1 em notação aditiva e G2 em notação multiplicativa, podemos, na prática, considerar: G1: subgrupo de um grupo aditivo de pontos de uma curva elíptica sobre Fq G2: subgrupo de um grupo multiplicativo de um corpo finito Fqk para algum k ∈ Z* 2.3.1 Funções de Espalhamento TERADA, R. define uma função de espalhamento (hash) da seguinte forma: “Dado um valor x, de tamanho qualquer, uma função de espalhamento calcula um valor y de tamanho fixo, relativamente menor do que o tamanho de x. Por exemplo, x pode ser um texto da ordem de centenas de bytes e |y| é da ordem de 128 bits. O valor y é chamado de resumo de x”. Uma importante característica das funções de espalhamento é que elas são não-inversíveis, i.e., se H é uma função de espalhamento, é computacionalmente fácil calcular y tal que H(x) = y. Porém, é computacionalmente inviável, dado y,recuperar o valor de x. Serão utilizadas as seguintes funções de espalhamento: H1 : {0,1}* → G1 H2 : {0,1}* → Fq H3 : G2 → {0,1}* Em outras palavras, H1 mapeia uma seqüência de bits de tamanho aleatório em um ponto da curva elíptica; H2 mapeia uma seqüência de bits de tamanho aleatório em um corpo finito de ordem q e H3 mapeia o resultado de um emparelhamento entre dois pontos da curva em uma seqüência de bits de tamanho aleatório. 1 No artigo de BONEH, D. e FRANKLIN, M., o leitor poderá ver uma definição formal de emparelhamento, embora não seja necessária para o entendimento do restante deste trabalho. 2 Em termos práticos, q é da ordem de 2160. 120 Pesquisa Naval Nº 16, Outubro de 2003 2.4 Chaves utilizadas Antes de darmos início ao esquema de criptografia baseada em identidade, vamos definir os tipos de chaves que serão utilizadas. • Par de chaves pública/ particular padrão (R,s) Sejam R ∈ G1, s ∈ Fq e P um ponto fixo pertencente a G1 e de conhecimento público. Temos que: R = sP (1) • Par de chaves baseadas em identidade (QID, SID) Definimos Autoridade de confiança como sendo qualquer entidade idônea que possua um par de chaves padrão. Sejam QID, SID ∈ G1 e existe uma Autoridade de Confiança com um par de chaves padrão ((RTA, s) de modo que valem as seguintes relações: SID = sQID QID = H1 (ID) (2) (3) Onde ID é o identificador (p. ex. um endereço eletrônico:[email protected]). Note pela equação (2) que, mesmo se Beto possui um par de chaves válido (Qbeto,Sbeto), ele não consegue recuperar a chave particular s da Autoridade de confiança, pois esta chave está protegida pelo PLD-CE. O leitor mais atento deverá ter notado que neste tipo de sistema, diferentemente da criptografia assimétrica tradicional, a Autoridade de confiança tem conhecimento da chave particular de todos os seus usuários. Tal fato é chamado de custódia de chaves (key escrow) e será discutido mais adiante. 3. Criptografia em sistemas baseados em identidade Vamos entrar agora, nos sistemas criptográficos baseados em identidade propriamente ditos, iniciando com a criptografia baseada em identidades (IBE - IdentityBased Encryption). Sejam (Qbeto,Sbeto), o par de chaves baseadas em identidade de um usuário Beto; RTA a chave pública padrão da Autoridade de confiança que gerou a chave particular de Beto; e m a mensagem que Alice deseja enviar para Beto. Veremos a seguir o modelo proposto por BONEH, D. & FRANKLIN, M. de criptografia baseada em identidade. Criptografia Alice escolhe um elemento aleatório r, tal que r∈ Fq e calcula 3 U = rP V= m ⊕ H3(t(RTA, rQbeto)) E envia o texto criptografado (U,V) para Beto. 3 A operação Å representa o ou-exclusivo bit a bit. (4) (5) Pesquisa Naval Nº 16, Outubro de 2003 121 BONEH, D. e FRANKLIN, M., em seu artigo, não destacam a importância na escolha de r. É importante que o elemento aleatório r escolhido por Alice seja diferente para cada mensagem a ser criptografada (números com esta característica são conhecidos na literatura como “NONCE”: (Number used ONCE.); caso contrário, haverá uma falha de segurança que veremos mais adiante. Note que Alice utiliza a chave pública baseada em identidade de Beto para criptografar m. Para isto, basta que ela conheça o identificador de Beto (p. ex. [email protected]). Decriptografia Beto, recebendo (U,V) de Alice, faz o seguinte cálculo para recuperar o legível m: m = V ⊕ H3(t(U, Sbeto)) (6) Vemos que Beto utiliza sua chave particular baseada em identidade para recuperar m. Demonstração Queremos demonstrar que Beto, através do cálculo efetuado na equação(6) consegue, de fato, recuperar m V ⊕ H3(t(U, Sbeto)) = V ⊕ H3(t(rP, Sbeto)) pois U = rP , de (4) pois Sbeto = sQBeto, de (2) = V⊕ H3(t(rP, sQbeto)) =V⊕ H3(t(P, Qbeto))rs, por bilinearidade =V⊕ H3(t(sP, rQbeto)) por bilinearidade pois RTA = sP , de (1) =V⊕ H3(t(RTA, rQbeto)) = m, pois pela equação (6) V = m ⊕ H3(t(U, Sbeto)) BONEH, D. e FRANKLIN, M. definem este modelo de criptografia baseado em identidade através de quatro algoritmos, chamados de configuração (setup), extração (extract), criptografia (encrypt) e decriptografia (decrypt), que resumiremos a seguir: Configuração - Seleção dos parâmetros q, G1, G2, P e t ; - Escolha da chave particular s, tal que s ∈ Zq* e cálculo da chave pública RTA, conforme equação (1); - Escolha das funções de espalhamento H1 e H3. Os parâmetros do sistema são os valores públicos (q, G1, G2,, P, t, RTA, H1, H3). A chave particular s é também chamada de chave mestra. Extração - Cálculo de QID, para um dado ID, conforme equação (3); Cálculo da chave particular SID baseada em identidade, conforme equação (2). 122 Pesquisa Naval Nº 16, Outubro de 2003 Criptografia Decriptografia - Cálculo de (U,V), conforme equações (4) e (5). Recuperação do legível m, conforme equação (6). Os algoritmos configuração e extração são executados pela Autoridade de confiança (TA) e os algoritmos criptografia e decriptografia pelos participantes da comunicação. 3.1 Importância da escolha do elemento aleatório r Vimos nas equações (4) e (5) que Alice deve escolher um r diferente para cada mensagem que deseja criptografar. O que aconteceria se ela escolhesse sempre o mesmo r ? Suponha que Alice enviou as mensagens m1 e m2 para Beto e não teve a preocupação de selecionar dois r distintos. Pelas equações (4) e (5), vemos que o valor de U será o mesmo, tanto para m1 quanto para m2 , apenas os valores de V serão diferentes para cada mensagem. Sejam então V1 e V2 os valores calculados por Alice, sobre m1 e m2, respectivamente. Da mesma forma, como r é o mesmo para m1 e m2, o valor de H3(t(RTA, rQBeto)) permanece constante. Vamos chamar este valor de x. Desta forma, podemos reescrever a equação de (5) como: V1 = m1 ⊕ x V2 = m 2 ⊕ x Se um intruso Carlos interceptar os valores V1 e V2, ele pode calcular: V = V1 ⊕ V2 = (m1 ⊕ x) ⊕ (m2 ⊕ x) = m1 ⊕ m2 Conhecendo o valor de V se o intruso conseguir ter acesso a m1 (s.p.g.)4, pode realizar um ataque de “texto legível conhecido” e recuperar m2. 4. Assinatura em sistemas baseados em identidade Existem diversos sistemas de assinatura baseados em identidade, como CHA, J.C. e CHEON, J.H., HESS, F. e outros. Vamos apresentar aqui o esquema de Hess, que é mais eficiente que os demais, segundo CHEN,L. et al.. Assinatura Alice, querendo assinar uma mensagem m primeiramente escolhe um valor k ∈ e um ponto aleatório P1 ∈ G1* e calcula5: 4 5 r = t(P1,P)k (7) h = H2(m || r) (8) Sem perda de generalidade. O termo | | na equação (8) significa “concatenar”. Pesquisa Naval Nº 16, Outubro de 2003 U = hSalice + kP1 123 (9) Onde a assinatura de m é (U,h). Note em (9) que Alice usa sua chave particular Salice para gerar a assinatura de m. Observe também que a “soma” na equação (9) representa uma soma de pontos, pois hSalice e kP1 são pontos de uma curva elíptica. Verificação Se Beto deseja verificar se a assinatura é realmente de Alice, faz o seguinte cálculo: r = t(U,P). t(Qalice, -RTA)h (10) Onde - RTA é o ponto simétrico de RTA em relação ao eixo das abscissas. Após calcular r, Beto aceita a assinatura de Alice como válida se, e somente se: h = H2(m || r) (11) Note que somente valores públicos são utilizados na verificação de uma assinatura. Demonstração Vamos demonstrar que a equação (10) é satisfeita para uma assinatura válida. Observe que são empregadas as propriedades de bilinearidade, vistas anteriormente t(U,P). t(Qalice, -RTA)h = t(hSalice + kP1,P). t(Qalice, -RTA)h = t(hSalice + kP1,P). t(Qalice, -sP)h = t(hSalice + kP1,P). t(Qalice, -P)sh = t(hSalice + kP1,P). t(sQalice, P)-h = t(hSalice + kP1,P). t(Salice, P)-h = t(hSalice + kP1,P). t(-hSalice, P) = t(hSalice -hSalic + kP1,P) = t( kP1,P) = t(P1,P)k = r pela equação (7) Note que, como h é parte da assinatura de m, mesmo que ele tenha sido alterado por um ataque de modificação, a equação (10) será satisfeita. Para que Beto possa garantir que (U,h) é a assinatura da mensagem m, após calcular o valor de r, ele ainda deve verificar a condição da equação (11). Caso o h encontrado por Beto, com base no valor de r que ele acabou de calcular seja diferente do valor de h que ele recebeu na assinatura de Alice, Beto rejeita a assinatura. 5. Resultados obtidos Relacionaremos, a seguir, as principais vantagens e desvantagens dos sistemas criptográficos baseados em identidades. 124 Pesquisa Naval Nº 16, Outubro de 2003 § Vantagens - Não é necessário um diretório de chaves públicas - Como vimos, a chave pública baseada em identidades é (função de) alguma característica que identifique o usuário de forma única, chamada de identificador. Desta forma, se pensarmos que o identificador é o endereço eletrônico de um usuário, uma vez conhecendo este endereço eletrônico (e, obviamente, precisamos conhecer, se quisermos enviar-lhe uma mensagem via web), podemos enviar-lhe mensagens sigilosas, sem que seja necessário recorrermos a um diretório de chaves públicas. - Qualquer entidade que possua um par de chaves padrão pode fazer o papel de autoridade de confiança - Vimos que a Autoridade de confiança tem conhecimento de todas as chaves particulares de seus usuários. Este fato, nem sempre, é desejável. Considere, por exemplo, uma empresa que trata de assuntos sensíveis. Se a Autoridade de confiança fosse uma entidade externa à empresa, ela teria acesso a todas as mensagens tramitadas na empresa, o que pode vir a se tornar um problema (suponha que esta autoridade de “confiança” foi subornada pela empresa concorrente). Com sistemas baseados em identidade, basta que uma entidade possua um par de chaves padrão, como vimos na seção 2.4, para que possa gerar as chaves baseadas em identidade. Portanto, o Presidente da empresa pode fazer o papel de Autoridade de confiança. - A autoridade de confiança tem conhecimento de todas as chaves particulares de seus usuários - Este fato é conhecido como custódia de chaves e embora nem sempre seja desejável (e por esta razão, também o incluímos nas desvantagens), em algumas situações, pode ser conveniente a possibilidade de recuperação de chaves particulares. Vamos aproveitar a situação descrita na vantagem anterior, onde o Presidente da empresa age como Autoridade de confiança. Neste caso, o conhecimento das chaves particulares é desejável. Imagine que um diretor da empresa sofreu um grave acidente e não tem condições de acessar seus arquivos nem confiar sua chave para uma terceira pessoa. Como o presidente gerou a chave particular deste diretor, ele conhece esta chave e, portanto, pode recuperar os arquivos de interesse da empresa que tenham sido criptografados com a chave pública baseada em identidade deste diretor. - Alice pode enviar mensagens criptografadas para Beto mesmo se ele ainda não obteve seu par de chaves do gerador de chaves particulares (PKG) - Diferentemente dos sistemas de chave pública tradicionais, em que a chave pública é uma seqüência aleatória de bits, e portanto deve ser previamente calculada, juntamente com seu par (chave particular), Pesquisa Naval Nº 16, Outubro de 2003 125 para que uma mensagem possa ser enviada, nos sistemas baseados em identidade Alice pode enviar uma mensagem sigilosa para Beto antes mesmo de ele ter obtido seu par de chaves baseadas em identidade de uma Autoridade de confiança. Alice precisa apenas da chave pública padrão da Autoridade de confiança que irá gerar o par de chaves de Beto. Caso Alice tenha conhecimento desta Autoridade de confiança (por exemplo, digamos que a autoridade em questão é o presidente da empresa em que Alice trabalha e que Beto acabou de ser admitido nesta empresa, mas ainda não obteve seu par de chaves baseadas em identidade), ela envia uma mensagem criptografada, utilizando como identificador o endereço eletrônico de Beto. Beto, por sua vez, ao receber a mensagem criptografada, precisará apenas solicitar um par de chaves à Autoridade de confiança usando seu e-mail como identificador e então, decriptografar a mensagem. - Não é necessário Alice obter o certificado da chave pública de Beto - Diferentemente da criptografia assimétrica tradicional, onde não há nenhuma relação entre o usuário e sua chave pública, nos sistemas baseados em identidade a chave pública é uma característica que identifica o usuário de forma única e que ele não tem como negar que esta característica diz respeito a ele. Portanto, não há a necessidade de certificados digitais para autenticar chaves públicas e, conseqüentemente, não há necessidade de se estabelecer uma infraestrutura de chaves públicas. § Desvantagens - A autoridade de confiança tem conhecimento de todas as chaves particulares de seus usuários - Resolvemos repetir este item, agora como desvantagem, pois dependendo da situação, o conhecimento de chaves particulares (custódia de chaves) por uma entidade externa pode causar sérios problemas de segurança (p. ex. como no caso de suborno da Autoridade, comentado anteriormente). - Dificuldade de implementação do emparelhamento de Tate - Vimos que, em termos computacionais, o cálculo do emparelhamento em curvas elípticas é a operação de maior custo. Dependendo da forma como é implementado, um sistema baseado em identidade pode se tornar inviável de ser utilizado em termos práticos, pois pode se tornar muito lento. Alguns pesquisadores como GALBRAITH, S. et al., BARRETO, P. et al e BARRETO, P., LYNN, B. e SCOTT, M. já conseguiram uma implementação mais eficiente do emparelhamento de Tate, porém este ainda possui ordem de grandeza superior ao cálculo de exponenciação em um corpo finito. 126 Pesquisa Naval Nº 16, Outubro de 2003 6. Conclusão e trabalhos relacionados Procuramos mostrar neste artigo o conceito de sistemas criptográficos baseados em identidades, onde a chave pública de um usuário é alguma característica que o identifique de forma única, não havendo, portanto, a necessidade de se manter um diretório público de chaves e nem de se garantir a autenticidade de uma chave pública por meio de certificados digitais, como na criptografia assimétrica tradicional. Uma das principais vantagens dos sistemas criptográficos baseados em identidade é que as chaves podem ser geradas por exemplo, pelo Presidente de uma empresa ou até mesmo pelo próprio usuário, permitindo com isso uma série de aplicações, que podem ser vistas em CHEN, L. et al. Neste mesmo artigo, o leitor poderá ver também como conseguir uma hierarquia de certificação em sistemas baseados em identidades de forma escalável. Um outro conceito importante que usa a propriedade de bilinearidade chamase “assinatura curta” (short signatures) e pode ser visto no artigo de BONEH,D., LYNN,B. e SHACHAM, H. Outra importante aplicação de sistemas criptográficos baseados em identidades é o conceito de assinatura & criptografia em um único passo, conhecido na literatura como signcryption, que possibilita a autenticação da origem e do destino em uma comunicação e que pode ser estudado em MALONE-LEE, J. e em NALLA, D. e REDDY, K.C. . 7. Referências Bibliográficas BARRETO, P., et al., Efficient Algorithms for Pairing-Based Cryptosystems. Advances in Cryptology - Crypto’2002, Lecture Notes in Computer Science 2442, SpringerVerlag (2002), pp. 354—368. BARRETO, P., LYNN, B. e SCOTT, M., On the selection of Pairing-Friendly Groups. Disponível em <http://eprint.iacr.org/2003/086>. Acesso em 04/05/2003. BARRETO, P., Curvas Elípticas e Criptografia: Conceitos e Algoritmos. Disponível em <http://planeta.terra.com.br/informatica/paulobarreto>. 1999. Acesso em 25/ 03/2003. BONEH, D. e FRANKLIN, M., Identity Based Encryption from the Weil Pairing. Advances in Cryptology - CRYOTO’2001, Springer-Verlag, LNCS 2139, pp. 213229, 2001. BONEH, D., LYNN, B. e SHACHAM, H., Short Signature from the Weil Pairing. Advances in Cryptology - ASIACRYPT’2001, Springer-Verlag, LNCS 2248, pp. 514-532, 2001. CHA, J.C. e CHEON, J.H., An Identity-based Signature from gap Diffie-Hellman groups. LNCS 2567, p. 18-30. Springer-Verlag 2002. Pesquisa Naval Nº 16, Outubro de 2003 127 CHEN,L., et al., Certification of Public Keys within an Identity-Based System. 5th International Security Conference, ISC 2002, LNCS 2433, pp. 322-333, 2002. GALBRAITH, S., HARRISON, K. e SOLDERA, D., Implementing the Tate Pairing. LNCS 23 69, pp.324-337. Springer-Verlag 2002. HESS, F., Efficient Identity Based Signature Schemes Based on Pairings. LNCS 2595. p. 310-324. Springer-Verlag 2002. MALONE-LEE, J., Signcryption with non-Repudiation. Tecnichal Report CSTR 02004, Department of Computer Science, University of Bristol, June 2002. NALLA, D. e REDDY, K.C., Signcryption scheme for Identity-based Cryptosystems. Disponível em <http://eprint.iacr.org/2003/066/>. 2003. Acesso em 22/04/2003. SHAMIR, A., Identity Based Cryptosystems and Signature Schemes. Advances in Cryptology - CRYPTO’84, Springer-Verlag, LNCS 196, pp. 47-53, 1985. SILVERMAN, J., The Arithmetic of Elliptic Curves. 1ª ed. Springer Verlag. New York 1986. TERADA, R., Segurança de Dados- Criptografia em Redes de Computador. 1ª ed. Edgard Blücher, São Paulo 2000. 128 Pesquisa Naval Nº 16, Outubro de 2003 Centro Tecnológico da Marinha em São Paulo - CTMSP CTMSP – TECNOLOGIA PRÓPRIA É INDEPENDÊNCIA O Programa Nuclear da Marinha (PNM), iniciado em 1979, foi concebido com o propósito de gerar capacitação tecnológica no País, para projetar e construir um submarino nacional de propulsão nuclear, no início do século XXI. É importante ressaltar que esse programa faz parte de um contexto mais amplo do Programa Autônomo de Tecnologia Nuclear, o chamado Programa Nuclear Brasileiro, que foi impulsionado, tendo como metas o domínio completo do ciclo do combustível nuclear e a utilização pacífica da energia nuclear, de modo a suprir as necessidades do País na área nuclear não atendidas pelo Acordo Brasil-Alemanha. O Centro Tecnológico da Marinha em São Paulo (CTMSP) foi criado pelo decreto nº 93.439, de 17 de outubro de 1986, sob o nome de Coordenadoria para Projetos Especiais (COPESP), tendo sua denominação alterada para CTMSP em 1995. É uma Organização Militar que trabalha em pesquisa e desenvolvimento, com o propósito de promover sistemas nucleares e energéticos para propulsão naval. As atividades realizadas pelo CTMSP visam contribuir para o projeto e a construção de um submarino de propulsão nuclear nacional, necessário à preservação dos interesses marítimos do País. INSTALAÇÕES A sede do CTMSP está instalada no campus da Universidade de São Paulo (USP), onde se encontram outros importantes centros de pesquisas nacionais. Em Iperó, na região de Sorocaba, está o Centro Experimental Aramar (CEA), que abriga instalações de testes, laboratórios de validação experimental e diversas oficinas especializadas. Centro Tecnológico da Marinha em São Paulo Av. Professor Lineu Prestes, 2468 - Cidade Universitária - Butantã CEP: 05508-000 - São Paulo, SP, Brasil Tel: (011) 3817-7233 - Fax: (011) 3814-4695 XI Capítulo ESTRATÉGIAS DE IMPLEMENTAÇÃO E EFEITOS DE ARRASTE DOS GRANDES PROGRAMAS DE DESENVOLVIMENTO TECNOLÓGICO NACIONAIS: EXPERIÊNCIAS DO PROGRAMA NUCLEAR DA MARINHA DO BRASIL CF (EN) Leonam dos Santos Guimarães Coordenador do Programa de Propulsão Nuclear Centro Tecnológico da Marinha em São Paulo [email protected] / tel: (011) 3817-7148 Resumo O desenvolvimento da ciência e tecnologia, para o qual a criatividade e a inovação têm que estar necessariamente presentes, suporta-se em três premissas fundamentais: a primeira delas se deve à existência do cérebro humano e ao incentivo à sua potencialidade; a segunda pode ser localizada na mobilização das pessoas e instituições em torno de objetivos, de bandeiras, de metas geradoras de algum benefício estratégico ou social; a terceira refere-se ao esforço nacional, canalizando recursos adequados para a área científica e tecnológica. A Marinha do Brasil, através de seu Centro Tecnológico em São Paulo desenvolveu uma abordagem particular para viabilizar estas três premissas básicas de forma a efetivar um salto tecnológico que permitisse ao Poder Naval Brasileiro, através da aplicação da propulsão nuclear para submarinos, aceder a um patamar de credibilidade compatível com a sua importância no cenário mundial. Este programa vem, desde o início dos anos 80, apresentando resultados altamente significativos não só no sentido vertical da efetiva consecução de suas metas, como também no sentido horizontal de disseminação das técnicas desenvolvidas através dos efeitos de arraste, ou seja aplicação dos resultados da Pesquisa e Desenvolvimento (P&D) nuclear em outros setores, e de diversificação, que se refere a uma deliberada abertura do programa a outras atividades não estritamente nucleares. 130 Pesquisa Naval Nº 16, Outubro de 2003 PALAVRAS-CHAVE: Transferência de Tecnologia; Programas Mobilizadores; Arraste Tecnológico; Energia Nuclear; Indústria Naval Abstract The science and technology development, for which creativity and innovation must be always present, are supported by three fundamental principles: the first is related to existence of human brains and good conditions for its realizations; the second could be located in people and institution mobilization for accomplishment of objectives and goals which generate strategic or social benefits; the third are relates to a national effort, making sufficient resources reach the scientific and technological areas. Brazilian Navy, trough its Technological Center in São Paulo, developed a particular approach to follow these principles in order to get a technological “jump” which will give Brazilian Naval Power, through submarine nuclear propulsion, the capabilities required by the nation´s importance in the international scene. This Program, started in the early 80´s, has presented very impressive results, not only in the vertical sense pointing to its goal, but also in the horizontal sense of diversification, referring to a deliberate change of activities away from purely nuclear, and spin-offs, referring to application of results of nuclear R&D outside nuclear sector. KEYWORDS: TECHNOLOGICAL CHANGE; COOPERATIVE RESEARCH; SPIN-OFF EFFECTS; NUCLEAR ENERGY; NAVAL INDUSTRY “The development of naval nuclear propulsion plants is a good example of how one goes about getting a job done. It is a good subject to study for methods... It has involved the establishment of procedures and ways of doing government business for which there was no precedent, and which I believe will be necessary in the future for similar large projects.” Hyman George Rickover Admiral, US NAVY 1. INTRODUÇÃO Os saltos tecnológicos alcançados pela indústria brasileira através de grandes programas de desenvolvimento tecnológico tais como, sem pretender ser exaustivo, o Programa de Satélites conduzido pelo INPE, o Programa de Águas Profundas conduzido pela PETROBRÁS e o Programa de Propulsão Nuclear conduzido pela Marinha do Brasil, indicam de maneira inequívoca o caminho a ser seguido para o efetivo desenvolvimento e disseminação de tecnologias avançadas no País. Com efeito, esta constatação nada possui de original, pois a estratégia de desenvolvimento científico e tecnológico através da implementação de grandes projetos nacionais vem sendo intensivamente praticada desde a Segunda Guerra Mundial pelas nações desenvolvidas. Os maiores e mais significativos exemplos desta estratégia podem ser identificados no nosso sempiterno paradigma que são os EUA. Lá encontraremos o que talvez tenha sido o pioneiro destes programas, o Projeto Pesquisa Naval Nº 16, Outubro de 2003 131 Manhattan (desenvolvimento de artefatos nucleares), que apesar de seus objetivos eticamente criticáveis, inquestionavelmente alterou para sempre os destinos da humanidade. Os efeitos de arraste tecnológico do Programa Espacial americano, em especial das missões Apollo, são amplamente conhecidos. Talvez menos divulgado, mas também altamente relevante, foram os efeitos do Programa de Propulsão Nuclear da U.S. Navy, que está na origem de 70% do parque eletro-nuclear mundial, baseado em reatores do tipo PWR, que foram concebidos dentro de seu escopo, e que lançou as bases para disseminação das práticas de Garantia da Qualidade na indústria. 2. CARACTERÍSTICAS DOS PROGRAMAS DE ARRASTE TECNOLÓGICO A principal característica de um programa de arraste tecnológico é sua motivação, provocada por um forte vontade política, capaz de criar um verdadeira bandeira junto a qual uma significativa parcela da sociedade civil estaria pronta a cerrar fileiras. Evidentemente, para que esta motivação exista, torna-se indispensável uma definição clara e uma divulgação objetiva dos reais benefícios estratégicos ou sociais que o programa propõe-se a efetivar. Destes benefícios provem uma segunda e fundamental característica destes programas: eles não podem ser analisados dentro da estrita racionalidade econômicofinanceira, pois uma significativa parte de seus resultados são contabilmente intangíveis. Uma rápida revisão dos acontecimentos deste século pode-nos mostrar de maneira clara que os verdadeiros saltos científicos e tecnológicos alcançados neste período não foram, e nem poderiam ser, motivados pela (ir)racionalidade dos mercados. Tal afirmativa não deve entretanto ser interpretada como uma crítica ao ideário liberal: a mesma revisão dos acontecimentos deste século nos mostra também que as forças de mercado são as únicas capazes de efetivamente viabilizar a disseminação no seio da sociedade dos benefícios materiais decorrentes dos saltos tecnológicos, constituindo a derrocada da URSS o exemplo mais evidente deste fato. Das razões da inadequação das forças de mercado em produzir reais saltos tecnológicos podemos depreender duas outras características dos programas de arraste tecnológico: seu longo prazo de maturação, associado à perenidade dos seus efeitos induzidos, e a impossibilidade de contabilização financeira da globalidade destes efeitos. Estas duas características estão à raiz das dificuldades da abordagem econômicofinanceira destes programas e a incapacidade dos mercados a executá-los (“a longo prazo estaremos todos mortos ...”). A dinâmica de execução dos programas de arraste apresenta também as características peculiares de multi-disciplinaridade, acarretando o envolvimento de diversas instituições, cada uma com sua cultura, idiossincrasias e modos de operação específicos. Um projeto de arraste envolve então, simultaneamente e em diversas áreas, atividades de pesquisa básica, apoiadas por universidades, atividades de pesquisa aplicada, apoiada por institutos especializados, atividades de desenvolvimento de materiais, componentes e instalações-protótipo, apoiadas por centros tecnológicos, e atividades de produção, apoiadas por indústrias. Evidentemente, para transformar este conjunto de instituições, a princípio desconexas e não comunicantes, em um 132 Pesquisa Naval Nº 16, Outubro de 2003 sistema harmônico e organizado, no qual a partir da entrada de recursos suficientes (input) possam sair os produtos físicos (output) estabelecidos pelas metas do programa, torna-se necessária a implementação de uma estratégia gerencial particular. A concepção, o desenvolvimento e a operacionalização desta estratégia, específica a cada programa de arraste tecnológico, constituem outra característica particular. Esta estratégia depende evidentemente dos objetivos e metas do programa e de seus fatores condicionantes, de ordem científica, tecnológica, política, econômica e financeira. Entretanto, pode-se distinguir uma aspecto comum: em nenhum caso eles podem ser conduzidos de forma convencional e burocrática. As dimensões dos desafios a que estes programas se propõe a superar exigem criatividade, inovação, audácia, profissionalismo e, principalmente, uma inabalável fé na importância de seus objetivos e na essencialidade de suas metas, numa escala sem paralelo. Resumidamente, podemos considerar que um projeto de arraste tecnológico requer: desenvolvimento suas potencialidade; • o pleno uma “massa crítica” de de cérebros humanos, reunidos num ambiente que estimule • a motivação, gerada por um objetivo colimador de esforços e sobre o qual não pairem dúvidas sobre os benefícios estratégicos e sociais que dele virão a ser derivados; • um planejamento de metas intermediárias coerente e consistente com este objetivo, que seja de conhecimento de todos os envolvidos e sobre qual haja um convencimento geral sobre sua adequação; • uma abordagem gerencial que otimize a alocação de recursos (que serão sempre insuficientes ...), de forma a aproveitar da melhor forma possível o esforço a ser 3. DESENVOLVIMENTO DA ENERGIA NUCLEAR E O CONTEXTO DE P&D dispendido. As aplicações da energia nuclear para geração de potência tem sido desenvolvidas em muitos países industrializados desde os anos 40. Os primeiros resultados iniciaram com a construção de reatores de pesquisa ou demonstração de baixa potência, principalmente para a compreensão dos fenômenos básicos, geração de dados, teste de combustíveis nucleares e componentes de reatores e para produção de rádio-isótopos. A fase seguinte consistiu na produção em larga escala de combustíveis nucleares e a construção dos primeiros reatores nucleares de baixa potência. Ao mesmo tempo, vários organismos reguladores foram criados em muitos estabelecimento deste novo de setor industrial e suase numerosas países, tr:O produzindo um grande volume regulamentações normas de ramificações projeto. em vários outros setores exigiu o suporte de um enorme esforço de P&D. Esta P&D cresceu em paralelo com a expansão da geração de potência pela energia nuclear, que partiu de zero em 1950 para atingir cerca de 400 GW elétricos em 2000. áreas, como exemplo: Para por atingir a situação atual, foi requerido P&D em uma grande variedade de • pesquisa básica sobre o fenômeno de fissão nuclear e os meios de controlá-la; Pesquisa Naval Nº 16, Outubro de 2003 • • 133 materiais estruturais e equipamentos para contenção de materiais nucleares; projeto e construção de reatores, de acordo com vários princípios, tornando sua operação segura; • técnicas de análise probabilística; • enriquecimento isotópico de materiais físseis; • projeto e fabricação de combustível; • reprocessamento do combustível usado e reciclagem do plutônio recuperado; • manuseio de rejeitos garantindo seu gerenciamento seguro e, finalmente, sua disposição final; • modelagem matemática da operação do núcleo de reatores sob condições especiais e avaliação da segurança e/ou riscos residuais; • desenvolvimento em eletrônica e instrumentação; e • desenvolvimento de equipamentos eletro-mecânicos de grande porte, tais como bombas, trocadores de calor, turbinas e alternadores. Esta P&D foi principalmente suportada pelos governos: as contribuições do setor privado restringiram-se, na maior parte dos casos à construção e operação de instalações de demonstração industrial. A P&D financiada pelos governos introduziu muitas novas áreas de “excelência” científica e tecnológica, tanto no setor público quanto no privado. Logo após os programas de P&D em energia nuclear apresentarem resultados, desenvolveu-se uma consciência em diversas organizações industriais que as novas técnicas desenvolvidas para o uso da energia nuclear poderiam também ser exploradas em outros setores da ciência, tecnologia e indústria. Esta foi a origem das idéias sobre “diversificação” em outras atividades. Quando o setor nuclear atingiu sua maturidade técnica e competitividade, alguns centros de P&D e indústrias começaram a converter parte de suas atividades e serviços em direção a outros objetivos. Enquanto “diversificação” se refere a uma mudança deliberada de missão para além das atividades inseridas no contexto inicial, a aplicação dos resultados da P&D nuclear em outros setores científicos, tecnológicos e industriais é denominada “efeito de arraste”(“spin-off”). O efeito de arraste, não exclusivo do setor nuclear, constitui um mecanismo largamente difundido através do qual vários setores da ciência e tecnologia se influenciam mutuamente. O efeito de arraste, mesmo sendo reconhecido como altamente relevante é, quase que por definição, tratado com uma prioridade secundária. Constitui entretanto uma realidade indiscutível: o volumoso investimento humano, intelectual e material no setor nuclear servem a diversos outros propósitos, ainda que nem todos possam ser quantificados nem tenham um valor monetário direto, possibilitando inúmeros benefícios nos demais setores científicos, tecnológicos e industriais. O desenvolvimento da energia nuclear introduziu muitas novas áreas de excelência científica ou técnica, muito além de seu domínio. Atualmente, considerando-se a hipótese de uma expansão da capacidade nuclear instalada, ou mesmo que esta capacidade permaneça estabilizada, mais P&D é requerida em áreas tais como: • controle de reatores, interação homem-máquina e robótica; 134 Pesquisa Naval Nº 16, Outubro de 2003 • • • • uso mais econômico dos recursos energéticos contidos no combustível; otimização da operação de reatores e extensão de sua vida útil; desenvolvimento de tipos mais econômicos de reatores; descomissionamento seguro de instalações nucleares, incluindo reatores e instalações ligadas ao ciclo do combustível; • armazenamento seguro de combustíveis usados e rejeitos; e • mais recentemente, absorção pelo setor civil dos estoques de materiais nucleares militares desativados. A P&D em andamento tem introduzido muitas novas áreas de “excelência” científica e tecnológica, financiada tanto pelo setor público como pelo privado. 4. MOTIVAÇÃO DO PROGRAMA DA MARINHA Em 1978 amadureceu na Marinha a idéia de que seria conveniente para o Brasil dispor de submarino com propulsão nuclear, para que pudéssemos ser, ao início do século XXI, uma potência naval compatível com as dimensões dos interesses brasileiros no mar e com nossa vulnerabilidade marítima. E por que, especificamente, é importante contar com a propulsão nuclear? • Queiramos ou não, somos um País debruçado sobre o Oceano Atlântico, com 7408 km de extensão de costa oceânica; • De nossa população, de aproximadamente 145 milhões de habitantes, cerca de 105 milhões de pessoas, ou seja, 72,4%, vivem numa faixa litorânea até 100 km da costa; • Mais de 90% de nosso comércio exterior se faz por via marítima; e • Consideradas apenas as 200 milhas para nossa zona costeira de influência econômica, temos uma superfície de 2.750.000 km2, que equivalem a 32,3% da área continental. Na realidade, segundo o consenso internacional, essa zona de influência econômica compreende toda a plataforma continental, que em nosso caso é superior a 200 milhas em alguns trechos. Dessa plataforma extraímos hoje dois terços de nossa produção petrolífera, e a mesma é sabidamente muito rica também em outros minerais. Para preservarmos tantos interesses marítimos, é essencial que estejamos preparados para, caso necessário, controlar áreas marítimas estratégicas ou negar o seu controle por potências estrangeiras e impedir a exploração econômica por um outro país sem nossa concordância, de áreas marítimas dentro da zona de exploração econômica exclusiva de nosso país. Precisamos, portanto, possuir uma Marinha eficaz e eficiente, i.e. ao menor custo possível para nossa sociedade. Como é previsível que por muito tempo não poderemos contar com uma esquadra poderosa o suficiente para garantir a defesa de nossos interesses, a efetividade da defesa marítima tem, necessariamente, que privilegiar o fator surpresa, que atualmente só pode ser proporcionado pelo submarino. O advento dos satélites e dos modernos sistemas de sensoreamento remoto praticamente eliminam a possibilidade de os navios de superfície escaparem à deteção. Pesquisa Naval Nº 16, Outubro de 2003 135 Isto se aplica também, em escala algo mais limitada, aos submarinos convencionais. Com efeito, esses têm que periodicamente operar próximo à superfície, na condição de “snorkel”, para recarregar suas baterias. Devido à exposição de mastros e ao elevado nível de ruído irradiado pelos motores diesel, sua deteção por sensores convencionais, eletromagnéticos e acústicos, empregados por navios de superfície, aeronaves e submarinos inimigos é extremamente facilitada por esta condição de operação. Além disto, a descarga de gases de exaustão dos motores diesel próximo a superfície do mar gera um contraste térmico passível de deteção pelos sensores infra-vermelhos instalados em satélites para sensoreamento remoto. A inexistência da necessidade imperativa de operar periodicamente próximo à superfície, podendo permanecer longos períodos submerso, aliada a um projeto criterioso visando a minimização do nível de ruído irradiado, adotando-se certas soluções técnicas tais como a utilização da circulação natural para o resfriamento do reator, tornam a deteção de um submarino nuclear extremamente difícil. O submarino de propulsão nuclear constitui-se na alternativa mais eficiente e econômica de que a Marinha pode dispor para atuar de maneira crível na defesa dos interesses nacionais: seu custo é da mesma ordem de grandeza de duas fragatas similares às disponíveis atualmente e sua eficácia é muito maior. Uma evidência da importância da propulsão nuclear é a existência atual de cerca de 500 navios militares com propulsão nuclear (dos quais cerca de 480 são submarinos) construídos ou em construção: em média um navio nuclear entrou em operação a cada mês nesta última década. Atualmente cinco países operam navios nucleares: China Popular, Estados Unidos, França, Grã-Bretanha e Rússia. Todos esses países projetaram e construíram seus próprios navios de maneira autônoma. Apenas a Grã-Bretanha recebeu apoio técnico norte-americano no início de seu programa de desenvolvimento. O elenco limitado de países que possuem navios nucleares (a imensa maioria destes constituída por submarinos) pode sugerir que esses navios se constituem em uma arma cara, privilégio de nações ricas, com interesses estratégicos globais. Tratase, porém de um oligopólio essencialmente tecnológico, de imenso potencial econômico, zelosamente protegido pelos países que detêm a tecnologia. Resulta, portanto, que é indispensável à nossa Marinha possuir a propulsão nuclear para poder exercer sua missão ao menor custo para a sociedade. Por outro lado, considerando os aspectos extra-Marinha, simultaneamente temos certeza de que a energia nuclear é forte candidata a complementar as necessidades de nossa matriz energética em futuro não muito distante, face ao esgotamento de nosso potencial hidroelétrico e ao custo e problemas técnicos associados às outras alternativas. Assim sendo, é fundamental que nos capacitemos para exercer a opção 136 Pesquisa Naval Nº 16, Outubro de 2003 nuclear, quando ela se fizer necessária, sem dependência e tutela externas no tocante à tecnologia e aos fornecimentos. 5. ANTECEDENTES DO PROGRAMA DA MARINHA No final da década de 70, a situação da pesquisa nuclear no Brasil não era nada animadora, pois desde meados do decênio anterior tinha havido um arrefecimento dos esforços autóctones de viabilização do ciclo do combustível. Para compensar o atraso no qual o país se encontrava nessa área, foi celebrado em 1975 o Acordo Brasil-Alemanha, no qual os segmentos sociais que então detinham o poder de decisão depositaram grandes esperanças. Esse acordo chegou a causar inicialmente alguma apreensão na comunidade internacional; os contratos e as medidas políticas e administrativas tomadas como decorrência, entretanto, acalmaram essa comunidade e marcaram uma época de grandes gastos e poucos resultados. Em 1978, todos os institutos de pesquisa nuclear antes subordinados à Comissão Nacional de Energia Nuclear (CNEN) haviam sido transferidos para a então NUCLEBRÁS. Todos os diretores técnicos das subsidiárias desta eram, por contrato, necessariamente alemães. Era razoável, portanto, que houvesse um esvaziamento da pesquisa nos institutos nacionais, se não por razões comerciais, pelo menos pela natural identificação desses diretores com os centros de pesquisa estrangeiros a que pertenciam. O único instituto que não fora assimilado pela NUCLEBRÁS tinha sido o Instituto de Pesquisas Energéticas e Nucleares (IPEN) de São Paulo. Como entretanto esse havia sido transferido pelo Governo Federal ao Governo do Estado de São Paulo no início da década de 70, contrariando uma tendência mundial de manutenção da pesquisa nuclear na esfera federal, não contava o IPEN com o apoio nem da NUCLEBRÁS nem da CNEN. Embora tivesse seu custeio assumido pelo Estado de São Paulo, não dispunha esse Instituto de nenhum grande programa para catalisar e direcionar seus esforços e sua capacidade. Tínhamos um paradoxo: o maior instituto de pesquisas nucleares do país, o IPEN, estava praticamente à margem e sem incentivo - uma prova cabal desse estado de coisas foi a mudança, a 16 de março de 1979, da razão social do Instituto, com a troca do nome Instituto de Energia Atômica (IEA) para Instituto de Pesquisas Energéticas e Nucleares (IPEN). Essa mudança indicava o desalento, e este levava à busca de novos caminhos, com a atividade nuclear se transformando em atividade complementar. Resumindo, em 1978 e no início de 1979, a CNEN se encontrava atrofiada, apenas com atividades regulamentadoras e fiscalizadoras, sem o lastro técnico proporcionado pela pesquisa, e com atribuições de coordenar o Programa Pró-Nuclear de formação de recursos humanos. A NUCLEBRÁS apostava tudo na transferência de tecnologia alemã, muito embora propagandeasse alguma pesquisa. O IPEN estava totalmente à margem dos acontecimentos. Em virtude das pressões sobre os signatários do Acordo Brasil-Alemanha, este era extremamente restritivo no que diz respeito à aplicação de qualquer tecnologia, produto ou informação técnica dele decorrentes, na defesa de nosso País. Além disso, Pesquisa Naval Nº 16, Outubro de 2003 137 a transferência de tecnologia prevista no acordo restringia-se essencialmente ao detalhamento de projetos concebidos no estrangeiro. Pode-se afirmar com segurança que os dispêndios decorrentes do dito Acordo pouquíssimo contribuíram para nos capacitar a executar as fases mais nobres da técnica de projeto - a concepção e o projeto básico - que são aquelas que efetivamente têm um efeito multiplicador significativo no domínio das tecnologias de ponta. Valeria recordar que a principal razão que motivou o Brasil a assinar aquele Acordo foi o desejo de dominar o ciclo do combustível nuclear. Naquela época, a usina de Angra-I já estava em construção e o volume de informações que dispúnhamos e que iríamos dispor em decorrência daquela usina não seria em muito ampliado com a implantação das demais centrais núcleo-elétricas previstas no Acordo. Além do mais, o acesso à importação de usinas nucleares não nos era então bloqueado - e continua a não sê-lo - todas as restrições e bloqueios de cunho político estavam, e continuam a estar, concentrados na tecnologia do ciclo do combustível. Caberia também acrescentar ainda que a aquisição paulatina de centrais núcleo-elétricas, na medida das reais necessidades energéticas do País, permitiria a incorporação dos avanços tecnológicos, o que não seria possível pela compra em pacote de um grande número dessas usinas, conforme preconizado pelo dito Acordo. Quando da assinatura do Acordo, o País já dominava a etapa inicial do ciclo do combustível - da mineração do urânio até a produção do “yellow cake” - nas instalações de Poços de Caldas e o Centro de Engenharia Química do IPEN já dominava, em escala laboratorial, as etapas de purificação e produção de hexafluoreto de urânio. Ainda no IPEN, já havia incursões às etapas de reconversão e produção de pastilhas. Em suma, a competência de uma equipe reduzida daquele instituto tinha feito com que as etapas do ciclo do combustível que dependiam fundamentalmente da Química apresentassem um bom grau de adiantamento. Sem dúvida, a etapa do ciclo do combustível nuclear que representa o maior desafio tecnológico e que por esta razão motivara o Acordo Brasil-Alemanha é o enriquecimento isotópico de urânio. O Acordo nada mais era que um grande pacote de compra de centrais nucleares para motivar a venda da tecnologia de enriquecimento. A tecnologia de enriquecimento que os alemães haviam desenvolvido e que inicialmente se dispunham a transferir era a da ultra-centrifugação. Tivemos então, na assinatura dos contratos comerciais em que se desdobrou o Acordo, um fato insólito: alegando bloqueio da Holanda, um de seus parceiros no consórcio URENCO, bloqueio este que teria sido motivado por pressão dos EUA durante a negociação dos contratos, a Alemanha retirou a possibilidade de venda da tecnologia de ultra-centrifugação. Ofereceu, como sucedânea, a tecnologia de enriquecimento por jato centrífugo (“jet nozzle”), que se encontrava e ainda se encontra em desenvolvimento - nós brasileiros participaríamos deste desenvolvimento, financiando-o. Infelizmente nossos negociadores de contratos aceitaram essa modificação, o que significa que concordaram que nossos cofres públicos pagassem um alto preço por um grande pacote de compra de centrais que trazia em seu bojo o desenvolvimento de uma tecnologia de 138 Pesquisa Naval Nº 16, Outubro de 2003 enriquecimento isotópico de urânio - o ponto principal do Acordo - que por sinal não era, e continua não sendo, nada promissora sob os aspectos técnicos e econômicos. 6. ESCOPO DO PROGRAMA DA MARINHA Apesar do panorama desanimador ao fim dos anos 70, a Marinha vislumbrou a possibilidade de reverter as perspectivas futuras, através do lançamento de um programa integrado de pesquisa e desenvolvimento. Desde 1978 ficou claro que um programa de capacitação para a propulsão nuclear teria que partir de um esforço autônomo genuinamente nacional e teria que compreender a viabilização do ciclo do combustível nuclear com tecnologia nacional, independente do Acordo BrasilAlemanha, e a capacitação em projeto de pequenos reatores de potência do tipo PWR, com vistas à aplicação na propulsão de submarinos. A importância do domínio do ciclo do combustível nuclear decorre do fato de que as restrições e o bloqueio internacionais, conforme anteriormente citado, estão concentrados na respectiva tecnologia. Aliás, como também já foi citado, a principal motivação brasileira para a assinatura do Acordo Brasil-Alemanha foi a necessidade de se dominar essa tecnologia, já que a importação de centrais nucleares, principal objeto comercial do acordo, não era bloqueada naquela época, e continua não sendo. A etapa do ciclo do combustível que representa o maior desafio tecnológico é o enriquecimento isotópico de urânio, que por isso sempre mereceu a maior concentração de esforços daquela vertente do programa voltada para o ciclo do combustível. A tecnologia escolhida foi a de enriquecimento por ultracentrifugação, considerada a mais promissora para um desenvolvimento independente. Em 1981, um ano após ter sido completado seu projeto, concluiu-se a fabricação do primeiro protótipo de ultracentrífuga, e em setembro de 1982 realizou-se com sucesso a primeira operação de enriquecimento isotópico de urânio com equipamento completamente projetado e construído no Brasil. Em 1983 o programa foi revisto e ampliado, passando-se do desenvolvimento de ultracentrífugas para o de usinas de enriquecimento isotópico. Ou seja, teve início um esforço de nacionalização e industrialização de todos os equipamentos periféricos das usinas de enriquecimento. ÿ: Em abril de 1988 foi inaugurado o Laboratório de Enriquecimento Isotópico (LEI), que constitui a primeira etapa da Usina de Demonstração de Enriquecimento Isotópico de Urânio. A conclusão dessa usina constitui a principal meta do programa, no que diz respeito ao ciclo do combustível nuclear. Por outro lado as demais usinas de demonstração do ciclo já foram projetadas, e o início das respectivas construções depende exclusivamente do aporte de recursos. No tocante ao desenvolvimento da capacidade de projeto e construção de centrais nucleares, optou-se pelo estabelecimento de metas intermediárias, para capacitação nas áreas de projeto do núcleo de reatores, termohidráulica de alta pressão e equipamentos a vapor, convergindo-se, então, para o projeto e construção de um reator de potência de pequeno porte. Pesquisa Naval Nº 16, Outubro de 2003 139 As metas intermediárias estão se concretizando na forma de grandes experimentos de validação dos cálculos teóricos. Assim é que, em novembro de 1988, entrou em operação o reator nuclear de potência zero IPEN/MB-01. Para que isso fosse possível, foram realizadas todas as etapas necessárias à produção de seu combustível, foi desenvolvida toda a instrumentação necessária, e todos os seus equipamentos e sistemas foram projetados e construídos em nosso país. Também em novembro de 1988 entrou em funcionamento o circuito termohidráulico experimental de 150 bar, também totalmente projetado e construído no Brasil, e que possui os mesmos recursos dos circuitos utilizados nos centros de países mais avançados, onde foram desenvolvidos reatores de água pressurizada. Encontra-se ainda em fase de operação o Laboratório de Testes de Equipamentos de Propulsão, para desenvolvimento de equipamentos a vapor. Uma parte significativa dos componentes do primeiro reator nacional de água pressurizada está em fabricação em nossa indústria, e está também em andamento a construção civil dos prédios que abrigam e dão apoio ao reator. Ou seja, o primeiro reator de potência genuinamente nacional está em gestação, e seguramente entrará em operação ainda na atual década. Já temos potenciais condições de dar o próximo passo em direção a um segundo protótipo de reator nacional de água pressurizada. E já estamos habilitados a projetar uma mini central núcleo-elétrica com capacidade entre 60 e 100 Mw, utilizando os modernos conceitos e técnicas que foram empregados no projeto do primeiro protótipo, que o tornam um reator intrinsecamente seguro, como deverão ser os reatores de potência da nova geração. 7. ESTRATÉGIA GERENCIAL DO PROGRAMA Ao engajar-se no programa de capacitação nuclear, teve a Marinha como preocupação constante institucionalizar sua participação. Assim sendo, foi obtida a autorização presidencial para o desencadeamento do programa em dezembro de 1978 e foi assinado um convênio com a CNEN, o qual estabeleceu as bases para a cooperação entre os dois organismos. O desenvolvimento isolado da capacitação nuclear pela Marinha seria inviável e, ainda que não o fosse, constituir-se-ia em duplicação de recursos altamente ineficaz. Optou-se, por conseguinte, por uma abordagem cooperativa, engajando-se a capacidade técnico-científico-industrial já instalada no País. Desde a Segunda Guerra Mundial havia uma convivência muito próxima da Marinha com a comunidade científica e universitária de São Paulo, que se iniciara com os trabalhos no Instituto de Física da Universidade de São Paulo (USP) na área de desenvolvimento de sonares, mas que se ampliara com o convênio com o Instituto de Pesquisas Tecnológicas (IPT), e com a decisão de formar a maior parte dos oficiais engenheiros na Escola Politécnica da USP. Ocorreu, assim, naturalmente uma aproximação entre a Marinha e o IPEN, que se tornaram parceiros no empreendimento. A cooperação foi institucionalizada através de um convênio entre a Diretoria Geral do Material da Marinha (DGMM) e o IPEN. 140 Pesquisa Naval Nº 16, Outubro de 2003 Esse engajamento do IPEN apresentava vantagens de três naturezas distintas: em primeiro lugar, como não envolvia nenhuma entidade brasileira ligada ao Acordo Brasil-Alemanha, não prejudicava o andamento deste, objeto de grandes esperanças do governo àquela época; em segundo, proporcionava àquele Instituto um projeto de vulto capaz de colimar os esforços até então dispersos por várias atividades científicas nem sempre coordenadas; e finalmente, constituía-se num veículo civil para disseminação do conhecimento acumulado visando colaborar na solução futura dos problemas associados à composição da matriz energética do País. O IPEN voltou, em outubro de 1982, à esfera federal, e é atualmente subordinado à CNEN. A Marinha, por sua vez, criou a Coordenadoria para Projetos Especiais COPESP (que teve sua denominação alterada em 1995 para Centro Tecnológico da Marinha em São Paulo CTMSP), sediada junto ao IPEN, para executar o programa. Esse modelo de íntima cooperação entre a Marinha e a agência nacional de energia nuclear para o desenvolvimento da propulsão nuclear e da tecnologia de centrais nucleares foi utilizado com sucesso pelos Estados Unidos e pela França e o mesmo vem ocorrendo na China Popular. A colaboração com o IPEN evolui ao longo do tempo, envolvendo os demais institutos de pesquisa da CNEN, como o CDTN. As participações relativas da Marinha e dos institutos de pesquisa levam em conta as capacidades e características respectivas das instituições. Em linhas gerais, a Marinha gerencia os esforços de projeto, construção e operação das instalações, desempenhando as tarefas de engenharia. O pessoal técnico dos institutos de pesquisa participa ativamente daquelas atividades que lhe são típicas, quais sejam, atividades científicas, concepção de sistemas e operação a nível laboratorial. A preocupação inicial foi a de viabilizar o ciclo do combustível nuclear, pois era patente que seria inútil desenvolvermos uma capacitação em projeto e construção de uma instalação propulsora nuclear para submarinos (e paralelamente de pequenas centrais núcleo-elétricas) se não dispuséssemos do combustível nuclear. Quando se fala em viabilizar o ciclo do combustível, a primeira preocupação é, necessariamente, com a etapa do enriquecimento isotópico do urânio, que é a mais complexa tecnologicamente e a mais sujeita a bloqueios externos. No que diz respeito aos sistemas e instalações, a abordagem global dos diversos desenvolvimentos do programa no campo do ciclo do combustível, compreende as fases de concepção, comprovação laboratorial e construção de usinas-piloto de demonstração industrial, para avaliação e eventuais ajustes no processo, além de levantamento de parâmetros econômicos. Paralelamente, estas usinas-piloto são dimensionadas de tal forma que possam vir a atender futuramente à demanda da Marinha por combustível nuclear. O programa não inclui a construção de unidades de porte industrial com finalidades comerciais, que deverá ser feita por outros organismos públicos ou privados. A boa prática de engenharia aconselha que a ordem mencionada no parágrafo anterior seja seguida em novos desenvolvimentos de sistemas e instalações. Muitas vezes o açodamento ou o amadorismo fazem com que se tente Pesquisa Naval Nº 16, Outubro de 2003 141 “queimar” etapas, reduzindo ou eliminando as fases intermediárias de comprovação experimental e de construção de unidades-piloto. O resultado dessa omissão é, freqüentemente, uma instalação industrial com defeitos de nascença que comprometem seu funcionamento comercial. A materialização dos objetivos do programa através de usinas de demonstração proporciona, assim, economias a curto e a longo prazo. Isto porque, a par de permitirem a demonstração da viabilidade e eficiência dos processos desenvolvidos e a correção de eventuais defeitos antes da construção de unidades em escala industrial, elas têm porte suficiente para atender às demandas dos reatores navais, que são de pequeno porte, bem como dos reatores de pesquisa que dão suporte experimental ao desenvolvimento destes. Evita-se assim que as futuras unidades em escala industrial tenham que operar fora de seu padrão normal de funcionamento para atender a demanda particularizada daquelas classes especiais de reatores. O programa sempre privilegiou, portanto, um conteúdo de forte experimentação para comprovação de cálculos teóricos, tanto mais necessário pela notória insuficiência de recursos experimentais e laboratoriais de nossas universidades e pela conseqüente falta de uma cultura experimental no País. No que diz respeito às atividades de projeto, adotou-se como norma geral a execução interna da concepção dos diversos sistemas, envolvendo técnicos e cientistas do CTMSP e de diversas instituições de pesquisa e universidades nacionais. Contratase, então, junto às principais firmas projetistas genuinamente nacionais, os projetos básico e executivo, cujos desenvolvimentos são acompanhados de perto e fiscalizados pela mesma equipe que concebeu os sistemas. Essa abordagem permitiu o engajamento das principais firmas de engenharia de projeto brasileiras, além de inúmeras firmas menores, mas de alta qualificação. A diversificação de contratadas possibilitou a saudável competição, com reflexos positivos nos custos dos empreendimentos e o sucesso pode ser medido pela capacidade adquirida de projetar sistemas complexos de vapor, de vácuo e de processos químicos, até então inexistentes no País. No que concerne ao parque industrial fabricante de equipamentos, montouse um sistema de nacionalização e industrialização de componentes e equipamentos, que integra o pessoal técnico do CTMSP e um grande número de indústrias nacionais de grande porte. O CTMSP gerencia o processo, vinculando a aquisição dos equipamentos desenvolvidos à prática de preços e qualidade compatíveis com o mercado internacional. As atividades a nível laboratorial são conduzidas principalmente em São Paulo, nas instalações do CTMSP e do IPEN. No Centro Experimental Aramar, em implantação em Iperó, próximo a Sorocaba, estão sendo construídos os protótipos e usinas de demonstração. 142 Pesquisa Naval Nº 16, Outubro de 2003 8. GANHOS CIENTÍFICOS E TECNOLÓGICOS DECORRENTES DO PROGRAMA Os ganhos científicos e tecnológicos advindos do domínio do ciclo do combustível nuclear e da capacitação em projeto, construção e operação de instalações propulsoras nucleares têm profundo impacto no desenvolvimento do País, pois sua inerente complexidade torna necessária a capacitação numa ampla gama de áreas tecnológicas correlatas. Emprendimentos de porte como as usinas de demonstração dos processos do ciclo do combustível e o protótipo em terra de uma instalação propulsora nuclear para submarinos, entre outros, trazem imensos ganhos qualitativos para o setor científico e tecnológico do País. Nacionalização Desde o início das atividades do programa em 1979, sua equipe defrontou-se com óbices e oportunidades ímpares para um processo sistemático de absorção, aprimoramento e ampla disseminação de tecnologias de ponta até então indisponíveis no País. Com efeito, já nos primeiros anos previa-se um crescente bloqueio às exportações de equipamentos e componentes mais sofisticados pelos países detentores das respectivas tecnologias, aos quais não interessava o ingresso do Brasil no seu exclusivo clube, a disputar o rendoso mercado. Tal suspeita não tardou a se confirmar, em nome de uma pretensa restrição à proliferação nuclear. Por outro lado, o enriquecimento de urânio por ultra-centrifugação caracterizase pela utilização de um grande número de máquinas idênticas ligadas em cascatas, e conseqüentemente repetição das válvulas, medidores, sensores e demais equipamentos periféricos. Essas características possibilitam a produção seriada dos componentes, o que favorece, ou mesmo viabiliza o engajamento da indústria privada nacional no desenvolvimento, face às economias de escala obtidas. As demais etapas do ciclo do combustível também apresentam características análogas. Considerados esses aspectos, constitui-se, logo ao início do programa, uma pequena equipe de gerenciamento, encarregada de coordenar um processo sistemático de nacionalização de matéria-prima, componentes e sistemas. Por nacionalização entende-se aqui o completo domínio dos princípios de funcionamento, dos materiais e das técnicas de fabricação, de modo a permitir a adaptação às nossas condições, aprimoramento, descaracterização dos equipamentos originais e diversidade de aplicações. O processo sistemático de nacionalização de um componente ou equipamento envolve sempre a participação conjunta ou seqüencial de técnicos de instituições de pesquisa e de indústrias nacionais, em geral altamente capacitadas e motivadas, mas de pequeno ou médio porte. É condição essencial para seleção das indústrias participantes, a par da indispensável qualificação técnica, o compromisso assumido pelas mesmas de fornecimento assegurado ao programa a preços não superiores aos vigentes no mercado internacional. Pesquisa Naval Nº 16, Outubro de 2003 143 O sucesso do programa de nacionalização e seu efeito multiplicador podem ser medidos pela extensa gama de materiais, componentes e equipamentos avançados que até menos de 10 anos atrás não eram fabricados nem muito menos projetados no País e que atualmente já o são, sendo também utilizados por um grande número de empresas em diversos campos de atividades. O crescente bloqueio às importações a que foi submetido o programa em decorrência de suas realizações e das respectivas divulgações veio a demonstrar que a nacionalização tornou-se sinônimo de viabilização. Integração com a Comunidade Científica e a Indústria Os programas de desenvolvimento que integrem o esforço criativo das universidades, a desejável objetividade das instituições de pesquisa e o pragmatismo da indústria constituem-se em poderosa alavancagem para o desenvolvimento técnicocientífico do País. Desde o início o CTMSP tem procurado, na medida de suas possibilidades, realizar e ampliar tal integração e acreditamos que as realizações existentes são em grande parte resultantes da procura constante dessa integração. A título de ilustração, cita-se apenas dois exemplos importantes de desenvolvimentos: o dos aços “maraging” e o do motor de comutação eletrônica de ímãs permanentes, em que a integração com a comunidade científica e com a indústria foi e tem sido fundamental para o seu sucesso. As ligas do tipo “Maraging” foram desenvolvidas na década de 60, tendo como grande impulsionadora a NASA, em função de seu uso na exploração lunar. A alta resistência e outras características tornaram a liga particularmente favorável para aplicação em cilindros rotativos de ultra-centrífugas, podendo-se mesmo dizer que estas se tornaram economicamente viáveis depois do desenvolvimento das ligas maraging. O “maraging” utilizado em ultra-centrífugas tem sua exportação no mercado internacional controlada, sendo extremamente caro. Nossas primeiras gerações de ultra-centrífugas utilizam maraging desenvolvido no País. Para o desenvolvimento desta liga foi necessária a combinação de esforços da Eletrometal, dos técnicos do CTMSP, IPEN, IPT e de pesquisadores da COPPE/UFRJ e da USP. Este esforço integrado e concentrado permitiu viabilizar em dois anos o projeto da primeira geração de ultra-centrífugas. Ligas de aços maraging menos resistentes que as utilizadas nos cilindros rotativos de ultra-centrífugas, mas também viabilizadas por este esforço conjunto, são utilizadas na fabricação de células de carga, molas especiais, peças estruturais do foguete SONDA, nos mísseis solo-solo anti-tanques MSS 1.2 desenvolvidas pela empresa Orbita, em trens de pouso de aeronaves, etc. As ligas tipo MAR250 já foram exportadas para outros países, entre eles a Argentina. As mais modernas gerações de ultra-centrífugas nacionais já estão sendo feitas em material composto, desenvolvido segundo a mesma abordagem. O motor de comutação eletrônica é a mais moderna versão de máquina elétrica, na qual o motor e a eletrônica de potência deixam de ser componentes isolados do 144 Pesquisa Naval Nº 16, Outubro de 2003 acionamento, passando a se integrarem num único componente. Estamos desenvolvendo para uma segunda geração de submarinos, um sistema de propulsão com motor de comutação eletrônica excitado por ímãs de terras raras (samário-cobalto), alimentado por um conversor do tipo “largura de pulso controlada - PWM” e supervisionado por micro-computador. Para tanto foi assinado um contrato com a Escola Politécnica da USP, através da Fundação para o Desenvolvimento Tecnológico da Engenharia (FDTE), e estabelecido um programa de trabalho em três etapas: • Concepção e modelagem do motor em elementos finitos (através de programa de computador desenvolvido pela Universidade Federal de Santa Catarina - UFSC, por encomenda do CTMSP), concepção e modelagem do sistema e validação em um protótipo em escala reduzida. • Construção de um protótipo de 75 kW, 900 rpm, para demonstração dos processos de fabricação, validação experimental de modelos matemáticos e testes do sistema de controle. • Construção de um protótipo de 1200 kW, 400 rpm, para demonstração da viabilidade de compactar o sistema, tornando-o passível de instalação à bordo de submarinos e outros veículos. As duas primeiras já foram concluídas, encontrando-se o protótipo de 75kW completamente testado e aprovado. A execução da terceira etapa depende da disponibilidade futura de recursos. Vislumbra-se um potencial de larga aplicação do motor na propulsão de submarinos, ônibus elétricos e trens, bem como em usos industriais onde seja requerida velocidade variável. Cultura Experimental Ao longo do desenvolvimento de todos os empreendimentos componentes do Programa, o CTMSP tem considerado como indispensável a validação experimental dos projetos. Esta diretriz tem implicado na implantação de um importante número de bancadas experimentais e laboratórios. Ao longo de sua existência, o CTMSP vem desenvolvendo uma mentalidade experimental no seu corpo técnico. Como resultados objetivos, possui hoje uma equipe treinada em instrumentação e num grande número de técnicas experimentais, que são amplamente aplicáveis a diversas áreas tecnológicas de interesse da Marinha em particular e do País como um todo. É preocupação constante e diuturna o fomento à criação, fixação e desenvolvimento da “cultura experimental”, não só no âmbito do corpo técnico do CTMSP, como também em todas as instituições que participam do programa, tais como as universidades, institutos de pesquisa, centros tecnológicos, empresas de engenharia e indústria em geral. É notória a deficiência de instalações experimentais e laboratórios no País, tanto para formação de recursos humanos como para desenvolvimento de projetos, bem como identifica-se uma falta de afinidade dos técnicos, engenheiros e pesquisadores brasileiros pelo trabalho experimental, sem dúvida, devido àquela Pesquisa Naval Nº 16, Outubro de 2003 145 deficiência. A CTMSP, dentro de suas possibilidades, tem contribuído significativamente para amenizar este quadro desfavorável. Capacitação Tecnológica Constitui-se em tarefa difícil de ser executada, identificar, dentro dos inúmeros campos da engenharia do País, projetos de grande porte que possam ser classificados como genuinamente nacionais, ou seja, cujo nascedouro tenha sido uma folha em branco sobre uma prancheta localizada dentro de nossas fronteiras. No ramo dos grandes projetos de engenharia, como usinas para geração de energia, indústrias de base e de transformação, navios e plataformas oceânicas, lavra e beneficiamento de minérios, portos, sistemas de comunicação e processamento de dados, etc., a regra tem sido a importação dos projetos de concepção e básico, sendo apenas alguns aspectos do projeto de detalhamento e construção executados pelas firmas de engenharia do País. A engenharia nacional tem sido sistematicamente alijada das atividades de concepção e projeto básico que se constituem nas etapas mais nobres, criativas e dotadas de efeito multiplicador de conhecimentos do processo de obtenção dos grandes empreendimentos. Tem sido diretriz fundamental do programa trabalhar dentro de uma regra diametralmente oposta, qual seja, a concepção ser executada internamente, o projeto básico ser executado por firma de engenharia genuinamente nacional, em conjunto com o CTMSP, e o detalhamento ser feito nestas projetistas, com o devido acompanhamento. Esta diretriz não poderia ser outra, devido às restrições impostas pelo oligopólio internacional exercido pelas nações detentoras do conhecimento tecnológico na área nuclear. Acredita-se que este procedimento de projeto, juntamente com a constante preocupação com a validação experimental, tenha o efeito extremamente salutar de fecundar a engenharia nacional, capacitando o pessoal técnico, disseminando conhecimentos de ampla aplicação e gerando “know-how” de uma maneira muito mais efetiva que qualquer pacote de transferência de tecnologia poderia oferecer. 9. CONCLUSÕES O desenvolvimento da ciência e tecnologia, para o qual a criatividade e a inovação têm que estar necessariamente presentes, suportam-se em três premissas fundamentais: a primeira delas se deve à existência do cérebro humano e ao incentivo à sua potencialidade; a segunda pode ser localizada na mobilização das pessoas e instituições em torno de objetivos, de bandeiras, de metas geradoras de algum benefício estratégico ou social; a terceira refere-se ao esforço nacional, canalizando recursos adequados para a área científica e tecnológica. A Marinha do Brasil, através de seu Centro Tecnológico em São Paulo desenvolveu uma abordagem particular para viabilizar estas três premissa básicas de forma a efetivar um salto tecnológico que permitisse ao Poder Naval Brasileiro, através da aplicação da propulsão nuclear para submarinos, 146 Pesquisa Naval Nº 16, Outubro de 2003 ascender a um patamar de credibilidade compatível com a sua importância no cenário mundial. Este programa vem , desde o início dos anos 80, apresentando resultados altamente significativos não só no sentido vertical da efetiva consecução de suas metas, como também no sentido horizontal de disseminação das técnicas desenvolvidas através dos efeitos de arraste, ou seja, aplicação dos resultados da P&D nuclear em outros setores, e de diversificação, que se refere a uma deliberada abertura do programa a outras atividades não estritamente nucleares. BIBLIOGRAFIA Flores, M.C., Submarino de Propulsão Nuclear: o que o justifica? como chegar até ele? o que quer a Marinha com ele? e para quê?, Revista Marítima Brasileira, Serviço Geral de Documentação da Marinha, Rio de Janeiro, maio de 1988. Guimarães, L., Should We Fear Nuclear Submarines in Third World ?, in Symposium on Latin America´s Nuclear Energy at the New Millenium´s Threshold Proceedings, Latin American Section of the American Nuclear Society, Rio de Janeiro, Brasil, 26-29 junho 2000. Guimarães, L., Prospectivas e Estratégias para o Desenvolvimento da Energia Nuclear no Brasil: Contribuição a um Necessário Debate Nacionalma:, in Revista Marítima Brasileira v120 nos 10/12 (out/dez 99), Serviço de Documentação da Marinha, Rio de Janeiro, 1999. Guimarães, L., Logística de Produção de Combustível Nuclear para um Esquadrão de Submarinos Nucleares de Ataque, in Revista Brasileira de Pesquisa e Desenvolvimento, vol2 – no 2 (ago-99), Comissão Nacional de Energia Nuclear, Rio de janeiro, 1999. Guimarães, L., Protótipos em Terra de Instalações Propulsoras Nucleares, in Anais do VI Congresso Geral de Energia Nuclear, Rio de Janeiro, 1996. Guimarães, L., Introdução às Instalações Propulsoras Nucleares Navais, in Anais do VI Congresso Geral de Energia Nuclear, Rio de Janeiro, 1996. Marinha do Brasil, Poder Naval, Action Editora, Rio de Janeiro, 1997. Marinha do Brasil, A Arma Submarina, Serviço de Relações Públicas da Marinha, Brasília, 1996. Marinha do Brasil, O Preparo da Marinha nos Anos 90, Serviço de Relações Públicas da Marinha, Brasília, 1990. Organization for Economic Co-operation and Development (OCDE), Spin-off Technologies Developed Through Nuclear Activities, Nuclear Energy Agency (NEA), Paris, França, 1993. XII Capítulo ANÁLISE DA CONFIABILIDADE DO SISTEMA DE SUPRIMENTO DE ENERGIA ELÉTRICA DE EMERGÊNCIA DE UM REATOR NUCLEAR DE PEQUENO PORTE RELIABILITY ANALYSIS OF THE EMERGENCY ELECTRICAL SUPPLY SYSTEM OF A SMALL SIZE NUCLEAR POWER REACTOR Bonfietti, G. e Oliveira Neto, J. M. Instituto de Pesquisas Energética e Nucleares – IPEN – CNEN/SP Av. Prof. Lineu Prestes, 2242 – Cidade Universitária – 05508-000 São Paulo – SP – BRASIL Email: [email protected] Abstract This work presents an analysis of the reliability of the emergency power supply system of a small size nuclear power reactor. Two different configurations are investigated and their reliability analyzed. The fault tree method is used as the main tool of analysis. The work includes a brief discussion of the requirements applicable to emergency electrical systems. The influence of common cause failure is considered using the beta factor model and operator actions is considered using human failure probabilities. The results show the strong dependence between the reactor safety and the loss of offsite electric power supply. It is also shown that common cause failures can be a major contributor to the system reliability. Key words: emergency electrical supply, reliability, emergency diesel generator, common mode failure 148 Pesquisa Naval Nº 16, Outubro de 2003 Resumo O presente trabalho analisa o sistema de suprimento de energia elétrica de emergência de um reator nuclear de pequeno porte. São consideradas duas configurações típicas e analisadas as suas confiabilidades. O método utilizado na avaliação da confiabilidade usa a árvore de falhas como ferramenta principal de análise. É feita uma breve discussão sobre a posição regulatória aplicável ao desenvolvimento de sistemas elétricos. A influência de falhas de modo comum na confiabilidade é analisada utilizando-se o método do fator beta. São consideradas as influências de ações do operador atribuindo-se probabilidades de falha humana. Através de uma análise paramétrica é mostrada a forte dependência da segurança do reator a eventos de perda do suprimento externo de energia, bem como a sensível alteração da confiabilidade do sistema quando se passa a considerar a contribuição de falhas de modo comum. Palavras chave: energia elétrica de emergência, confiabilidade, diesel gerador de emergência, falha de modo comum 1 - INTRODUÇÃO A eletricidade desempenha um papel de destaque nas centrais nucleares, não só porque é quase sempre o seu produto principal mas, sobretudo, devido às suas implicações no funcionamento dos sistemas de segurança em condições normais de operação e durante ou após a ocorrência de um acidente. Em outras palavras, ao mesmo tempo em que uma central é produtora de eletricidade, dela necessita para iniciar a operação, operar, desligar-se e manter-se desligada com segurança. Até o final da década de 60, o foco principal da segurança de reatores nucleares era predominantemente voltado para o núcleo do reator. Após a publicação do estudo efetuado por Rasmunssen e seus colaboradores, em 1975, “Reactor Safety Study - An Assessment Of Accident Risks In U.S. Commercial Nuclear Power Plants” /1/, as atenções sobre os problemas de segurança deslocaram-se para os sistemas periféricos das centrais nucleares. Nesse estudo é mostrado que o tipo mais sério de acidente, num reator nuclear tipo “PWR – Reator a Água Pressurizada”, ocorreria se num determinado momento e por um período de tempo de vários minutos, houvesse falha total do suprimento de energia elétrica à central. Em geral, o sistema elétrico de uma central nuclear é similar ao de uma central térmica convencional, exceto pela maior preocupação com o suprimento de energia elétrica das cargas necessárias para a operação segura do reator. O calor de decaimento radioativo, gerado logo após o desligamento do reator, deve ser removido de modo a evitar que o mesmo eleve a temperatura no interior do reator a níveis não permitidos, comprometendo a integridade das varetas de Pesquisa Naval Nº 16, Outubro de 2003 149 combustível. Acidentes, como a perda de refrigerante ou a falha das bombas de refrigeração do circuito primário, criam a necessidade de fornecimento de refrigeração de emergência, provido por bombas e válvulas acionadas por motores que dependem da disponibilidade de eletricidade para a sua operação. A falta de suprimentos de energia adequados, com a conseqüente incapacidade dos sistemas de executar as funções de segurança necessárias, pode levar a planta a um cenário de acidente, podendo resultar em liberações inaceitáveis de radioatividade. A autoridade regulatória nuclear exige que seja estudado o comportamento previsto de uma central nuclear em situações normais, transitórias e de acidentes postulados, de modo a se determinar as margens de segurança previstas e a adequação de itens e sistemas para prevenir acidentes e atenuar as conseqüências dos acidentes que possam ocorrer. O presente estudo avalia a confiabilidade de duas configurações possíveis para o sistema elétrico de emergência em corrente alternada de uma central nuclear de pequeno porte, na ocorrência de um colapso do suprimento de energia elétrica. O resultado, expresso em freqüência de ocorrência da falha do suprimento de energia elétrica, permite quantificar o acréscimo de confiabilidade conseguido com a adoção redundâncias para as fontes locais de energia elétrica de emergência em corrente alternada. 2 - O SISTEMA ELÉTRICO A configuração dos circuitos de distribuição de energia elétrica de uma central nuclear pode variar, sendo dependente das características do sistema da concessionária no local da usina. Em virtude de sua importância para o funcionamento dos sistemas de segurança, esses circuitos devem atender a requisitos mínimos fixados pelos órgãos reguladores. A norma brasileira NBR 8671 /2/, descreve as exigências mínimas a serem atendidas pelo sistema elétrico de uma central nuclear estabelecendo quatro “possíveis projetos de circuitos” para instalações nucleares. As exigências mínimas, comuns a cada um deles, relativamente às fontes de suprimento, são: • suprimento pelo gerador principal da usina; • duas possibilidades de suprimento externo; • sistema de emergência com geração independente de energia elétrica. Os requisitos da NBR 8671, aplicáveis ao suprimento de energia elétrica dos sistemas de segurança, igualam-se aos requisitos do Critério Geral de Projeto 17 do 10CFR50 /3/, para as centrais nucleares americanas. As centrais nucleares comerciais operam conectadas ao sistema da concessionária de uma região fornecendo-lhe eletricidade. Porém, antes de iniciarem a produção, elas precisam de eletricidade para criticalizar o reator e fazer com que os sistemas de geração de vapor entrem em regime; só então será possível acionar o gerador principal. 150 Pesquisa Naval Nº 16, Outubro de 2003 Uma vez que a tensão elétrica gerada na usina esteja em sincronismo com a tensão da concessionária, fecha-se a conexão com a rede externa podendo a central suprir, tanto a demanda da rede externa, quanto a demanda dos seus próprios serviços auxiliares. A Figura 1 apresenta o diagrama unifilar simplificado da configuração típica do sistema elétrico de uma central nuclear /4/. er:Em geral as centrais comercias fornecem energia à concessionária por meio de uma linha em extra-alta tensão (500 kV, em Angra I e Angra II). Na perda do gerador principal, a concessionária passa a alimentar os sistemas da central, sem interrupção no suprimento aos serviços auxiliares. Devido à possibilidade de ocorrência de falhas que desabilitem simultaneamente a geração da central e a fonte externa as centrais comerciais, quase sempre, dispõem de outra fonte externa para alimentação elétrica. Essa segunda fonte, em tensão mais baixa, tipicamente 138 kV, é independente da rede de 500 kV e tem por objetivo suprir os sistemas necessários ao desligamento do reator e manter a usina desligada em segurança. Sistema de transmissão “A” Sistema de transmissão “B” Transformador Principal G Transformador de Partida Transformador Auxiliar Gerador Principal Barramentos de segurança DG DG Di esel Geradores Figura 1 - Configuração típica do sistema elétrico de uma central nuclear /4/. Na ocorrência de acidentes, coincidentes com a perda das linhas de transmissão, um sistema de emergência local, em geral composto por diesel geradores, tem a função de prover a energia elétrica necessária aos sistemas de segurança e equipamentos necessários para manter o reator numa condição segura. Pesquisa Naval Nº 16, Outubro de 2003 151 A perda simultânea da rede externa e das fontes de emergência produz a conseqüente indisponibilidade dos sistemas de resfriamento que dependem de eletricidade em CA para operar. O acumulo da experiência operacional, em particular das centrais nucleares americanas, e o número razoável de falhas ocorridas nos diesel geradores de emergência levantou a questão de que a confiabilidade dos mesmos podia ser menor da originalmente esperada. Isto deu origem a uma série de estudos visando estabelecer metas de confiabilidade para os diesel geradores de emergência e determinar a resposta e os riscos associados das centrais em operação, no caso de perda do suprimento de energia elétrica /10/. O histograma da Figura 2 mostra as falhas por demanda ocorridas em diesel geradores de centrais americanas. 3 – ANÁLISE DAS CONFIGURAÇÕES A central estudada possui algumas características de projeto, relacionadas a uma situação de perda do suprimento de energia elétrica, que a diferenciam de centrais comerciais. Po rc entagem das p lanta s 25 20 15 10 5 .0 05 .0 1 .0 15 .0 2 .0 25 .03 .03 5 .04 .0 45 .05 > Falhas por dem anda Figura 2 - Falhas por demanda ocorridas em diesel geradores americanos (1981 a 1983) /15/ A principal diferença é que a energia elétrica gerada por seus geradores não é entregue à rede da concessionária, destinando-se exclusivamente ao suprimento de energia elétrica dos seus sistemas auxiliares, sendo importante ressaltar que os geradores não operam em paralelo com a concessionária. 152 Pesquisa Naval Nº 16, Outubro de 2003 Esta particularidade traz-lhe a vantagem de não estar submetida às falhas de causa comum que podem afetar o sistema da concessionária como distúrbios de tensão provocados por variações de carga ou por descargas atmosféricas. Admite-se que a central estudada não fornecerá energia elétrica ao sistema interligado e que seu gerador principal não operará interligado à rede externa. Dessa forma a central terá uma única fonte externa. Uma das alternativas de configuração do sistema elétrico contempla o uso de dois grupos diesel geradores de emergência, cada um dedicado a um barramento de segurança. A configuração alternativa, representada na Figura 3 com linhas pontilhadas, adiciona uma redundância a cada diesel gerador, compondo um arranjo de dois diesel geradores de emergência para cada barramento de segurança. O sistema elétrico externo é a fonte normal de energia elétrica para todas as cargas da planta, sendo constituído por uma linha de transmissão em 88 kV; que alimenta a central. A linha de transmissão comporta os dois circuitos em uma única torre, um de cada lado, na mesma faixa de servidão, sendo que um dos circuitos esta normalmente em serviço enquanto o outro é reserva. Os transformadores TRAFO 1 e TRAFO 2 abaixam a tensão para 13,8 kV e alimentam os painéis BP1 e BP2. Os painéis BP1 e BP2 possuem disjuntores de interligação, normalmente abertos, que possibilitam que um único transformador alimente os dois painéis. A partir dos painéis BP1 e BP2 saem dois circuitos, física e eletricamente separados, que alimentam os painéis MT1 e MT2. Em condição normal de operação, os painéis MT1 e MT2 são alimentados por circuitos independentes. Havendo a indisponibilidade de qualquer de seus alimentadores, poderão ser fechados seus disjuntores de interligação, restabelecendo o suprimento de energia elétrica do painel desenergizado. Os circuitos que partem do MT1 e do MT2 alimentam os painéis BT1-A e BT2B formando, a partir daí, os trens redundantes A e B, cujos circuitos e equipamentos são física e eletricamente separados. Os painéis BT1-A e BT2-B são responsáveis pela alimentação das cargas de segurança em corrente alternada, através dos transformadores abaixadores TRF1-A, TRF2-B, TRF3-A e TRF4-B. Em condição normal de operação, o BT1-A e o BT2-B são alimentados pelos transformadores TRF1-A e TRF4-B, respectivamente, enquanto os transformadores TRF2-B e TRF3-A, denominados reserva, estão permanentemente prontos para operar. Em caso de ocorrência de defeito, reparo ou manutenção do transformador principal de um trem, abre-se o seu disjuntor e fecha-se o disjuntor do transformador reserva, possibilitando o restabelecimento imediato do suprimento de energia elétrica do trem afetado. No caso da indisponibilidade do suprimento de energia elétrica para os transformadores TRF1-A, TRF2-B, TRF3-A e TRF4-B, os painéis de baixa tensão BT1- Pesquisa Naval Nº 16, Outubro de 2003 153 A e BT2-B serão alimentados pelos grupos diesel geradores de emergência de modo a prover energia elétrica de emergência para as cargas que desempenham função de segurança nuclear. A cada barramento de segurança BT1-A e BT2-B estão associados grupos diesel geradores, com seus respectivos painéis de comando e controle, painéis de sincronismo e sistemas auxiliares. Os diesel geradores estão sempre prontos para entrar em operação em caso de indisponibilidade do sistema da concessionária ou no caso de receber um sinal do Sistema de Proteção da Planta (sinal de injeção de segurança para mitigar acidente de perda de refrigerante). C onc es s io nária 13 8 k V, tr i fás ic o, 60 H z T R AF O 1 BP 1 TRA FO2 13,8 k V , trifás ic o, 60 H z BP 2 MT 1 MT 2 TR F1 -A G1 TR F2 -B TR F3 -A TR F4 -B G3 G4 B T1 - A C ar ga s 1 E em C A do tre m A G2 B T 2- B Ca rg as 1 E e m CA d o tr e m B Figura 3 - Diagrama unifilar simplificado da central No caso de indisponibilidade do sistema da concessionária, os diesel geradores partem automaticamente. Após atingirem tensão e freqüência nominal, os diesel 154 Pesquisa Naval Nº 16, Outubro de 2003 geradores são carregados seqüencialmente, com as cargas de segurança de seus respectivos barramentos, enquanto os diesel geradores reserva, representados com linha pontilhada na Figura 3 no caso da configuração com quatro diesel geradores, retornam ao estado de prontidão. Caso os grupos partam em decorrência de um sinal proveniente do sistema de proteção do reator, somente serão conectados ao BT1-A e BT2-B se houver indisponibilidade simultânea da concessionária. 4 – AVALIAÇÃO DA CONFIABILIDADE A confiabilidade de um sistema, item ou componente pode ser definida como sendo a probabilidade de que o mesmo execute a função para a qual foi projetado, por um período de tempo determinado. A análise de confiabilidade de um sistema consiste, basicamente, na investigação do potencial de falha do sistema e na avaliação das conseqüências dessas falhas. O método utilizado neste trabalho, para a análise da confiabilidade, é a técnica da árvore de falhas. Seu emprego tem sido essencial em estudos de análise probabilística de segurança de instalações nucleares e tem apresentado grande aplicabilidade em estudos de análise de risco realizados para as indústrias de processos químicos /1/. Esta técnica permite que sejam identificadas, através de uma investigação lógica e sistemática, as falhas de um sistema que possam desencadear um evento indesejável ou evento catastrófico, além de permitir que seja calculada a probabilidade de ocorrência de tal evento. Na construção de uma árvore de falhas parte-se da definição de um evento de falha indesejável e, através da análise de relações causais, procura-se descobrir as combinações de eventos que levam à ocorrência do evento indesejável. Esses eventos podem estar relacionados com falhas intrínsecas do sistema, também denominadas falhas independentes ou de “hardware”, erros humanos ou quaisquer outros eventos pertinentes, que possam conduzir ao evento indesejável ou evento topo. Não é objetivo deste trabalho desenvolver em detalhes os aspectos teóricos ligados à construção e solução de árvores de falhas. O leitor interessado poderá obter essas informações em textos clássicos como Kumamoto /5/ e McCornick /6/. Na área nuclear, a NUREG 0492 – Fault Tree Handbook /7/ é uma das referências mais importantes para a construção e análise de árvores de falhas. 4.1 – Falhas dependentes Falha dependente é um modo de falha cuja ocorrência está condicionada à ocorrência de falhas de outras entidades de um sistema, caracterizando as correlações e a propagação entre falhas de múltiplos componentes. Na avaliação de confiabilidade e disponibilidade de sistemas altamente confiáveis, tais como sistemas de segurança de instalações nucleares, é necessário considerar as falhas de modo comum, principalmente em itens redundantes, uma vez que elas podem representar uma porção significativa das falhas, podendo ser dominantes no que diz respeito à probabilidade de falha do sistema. Pesquisa Naval Nº 16, Outubro de 2003 155 te rn o an ut en çã o O ut ro Pr s oc ed im en to M In an o Hu m bi m A Pr o je to /F ab r ic a çã o en te Núm ero de Eventos Algumas definições de falha de modo comum podem ser encontradas na literatura e, de forma simplificada, pode-se defini-la como sendo uma falha dependente na qual dois ou mais componentes em estado de falha existem simultaneamente, ou num pequeno intervalo de tempo, como resultado direto de uma causa comum aos mesmos /8/. Do ponto de vista probabilístico, a importância das falhas de modo comum se deve a que sua existência implica que a falha de dois componentes, simbolicamente representados por A e B, não são probabilisticamente independentes e, dessa forma, P(A e B) > P(A).P(B), onde P(A) e P(B) são as probabilidades de falha intrínsecas dos componentes A e B, respectivamente. A Figura 4 apresenta a distribuição das falhas de modo comum, agrupadas por causa raiz, ocorridas em diesel geradores de emergência em estudo feito pela OECD – Organization for Economic Co-operation and Development /9/. Falha para rodar Figura 4 - Falha para partir Falhas de modo comum em diesel geradores de emergência /9/ Na determinação dos valores numéricos para os eventos básicos de falha de modo comum, pode-se utilizar diferentes modelos probabilísticos. Os modelos de múltiplos parâmetros são empregados em sistemas com alto grau de redundância e fornecem uma análise mais precisa. Esses modelos envolvem vários parâmetros de forma a quantificar a contribuição específica de vários eventos 156 Pesquisa Naval Nº 16, Outubro de 2003 básicos. Os mais conhecidos são o modelo das múltiplas letras gregas, o modelo do fator-alfa e o modelo de taxa de falha binomial. Os modelos mais simples usam um único parâmetro para calcular a probabilidade de falha devido a modo comum sendo o modelo do fator-beta um dos mais conhecidos. Para uma avaliação preliminar, como é o caso deste trabalho, a utilização do modelo do fator-beta é justificada e fornecerá uma aproximação conservativa da freqüência do evento de modo comum. O fator-beta (ß) é definido como sendo uma fração da taxa de falhas total de uma unidade, atribuída a causa de modo comum, ou seja, β= λc λ + λc onde: » taxa de falha intrínseca da unidade »c taxa de falha devido a falha de modo comum. Dessa forma, dadas duas unidades A e B, a probabilidade de ocorrência do evento de modo comum CAB, definido como sendo a falha concorrente das unidades A e B devido a uma causa comum, é dada por P(CAB) = ß.P(A) onde P(A) é a freqüência total de falha randômica a ser utilizada na ausência de qualquer consideração de modo comum. 4.2 – Confiabilidade humana Para avaliação da contribuição das falhas humanas foram utilizadas as informações da NUREG/CR-2989 /10/ e da NUREG/CR-2815 /11/. Ao se fazer considerações sobre intervenções do operador, deve-se ter em mente que toda operação tem um tempo para ser completada. Esse tempo é função da complexidade da própria operação e também do tempo máximo que os sistemas suportam uma interrupção no fornecimento de energia. As únicas intervenções humanas consideradas neste trabalho são as afetas à manutenção e testes dos diesel geradores de emergência. A Figura 5 mostra a evolução da probabilidade de ocorrência de erro humano em função do tempo necessário para efetuar uma operação, extraído da NUREG/CR2815 /11/. Pesquisa Naval Nº 16, Outubro de 2003 157 Probabilidade 1 10-1 Limite Superior 10-2 Valor Nominal 10-3 10-4 Limite Inferior 10-5 1 10 100 1000 Minutos Figura 5 - Probabilidade de falha humana x tempo para completar a tarefa 4.3 – Base de dados Para avaliar a contribuição do sistema da concessionária adotou-se um conjunto de informações que retrata as interrupções de energia elétrica sofridas por uma linha de transmissão genérica, cobrindo um período entre 1978 a 1991. A Tabela 1 apresenta um resumo dos dados obtidos. Para os equipamentos e componentes do sistema elétrico, os valores das taxas de falha e dos tempos de reparo foram retirados da IEEE Std-500 – “IEEE Guide to the Collection and Presentation of Electrical, Electronic, Sensing Component, and Mechanical Equipment Reliability Data for Nuclear-Power Generating Stations” /12/. Para tal foi generalizado, de forma conservativa, o uso do modo de falha “all modes”, que engloba todos os modos de falha possíveis para um determinado equipamento ou componente. Tabela 1 - Expectativa média anual da perda de alimentação elétrica externa 158 Pesquisa Naval Nº 16, Outubro de 2003 Para os diesel geradores de emergência e seus sistemas auxiliares, as taxas de falha e os tempos de reparo foram retirados da NUREG/CR 2989 /10/. Os valores considerados para as taxas de falha e tempos de reparo são apresentados na Tabela 2. No caso particular das falhas de modo comum dos diesel geradores de emergência, foram utilizadas as recomendações da NUREG/CR-4780 /8/, utilizando-se o valor de 0,05 para o fator-beta. Quanto às falhas humanas, foi considerado neste trabalho que o tempo para colocar o diesel gerador em operação manualmente pode ser no máximo quatro horas, visto que esse é o tempo da autonomia de um banco de baterias comum. Usando a Figura 4 encontraremos uma probabilidade de falha humana que varia, de modo aproximado, entre 2,0E-02 e 6,0E-04. Como pode ser observado, a probabilidade de erro humano é tanto maior quanto menor for o tempo para a realização da tarefa. Os limites, inferior e superior, caracterizam o fator de erro a considerar. A probabilidade de erro humano, utilizada para as duas configurações estudadas é 6,0 E -04. Tabela 2 - Dados de falha dos principais componentes do sistema elétrico Componente BT MT BP Operação DG Partida DG Trafo AT Trafo BT Alimentadores Painel entrada Concessionária Falha modo comum DG Taxa Fal (Falha/Ho 1,19 E-0 4,8 E-0 4,8 E-0 2,4 E-0 2,5 E-0 1,24 E-0 1,65 E-0 1,75 E-0 4,8 E-0 1,87 E-0 1,2 E-0 4.4 – Desenvolvimento da árvore de falhas A Figura 6 representa, de forma resumida, a árvore de falhas para a avaliação de confiabilidade das duas alternativas de configuração do sistema elétrico. As linhas pontilhadas representam as considerações adicionais a serem feitas para contemplar a alternativa com quatro diesel geradores de emergência. Pesquisa Naval Nº 16, Outubro de 2003 159 Ca rgas 1E em CA não rece bem energia CBT1-A não fornece energia CB T2-B não forne ce energia Desenvolvim ento análogo ao CBT1-A Falha do CBT1-A TRF1-A não fornece energia CBT1-A não recebe energia DG1 não fornec e energia TRF2-B não fornece energia DG2 não fornece energia Desenvolvimento análogo ao DG1 DG1 em m anutenção Falha do DG1 DG1 falha para partir Falha dos sistem as de suporte do DG1 DG1 falha em operar Falha hum ana Falha de m odo com um dos DG Falha intrínseca do DG1 Figura 6 - Representação esquemática da árvore de falhas Para as duas alternativas, a falha do sistema elétrico é caracterizada pela perda da alimentação elétrica em corrente alternada das cargas 1E, ficando definido o evento topo “Cargas 1E em CA não recebem energia”. 5 – DESEMPENHO DO SISTEMA ELÉTRICO O desempenho do sistema elétrico foi verificado através da utilização do programa SAPHIRE – Systems Analysis Programs for Hands-On Integrated Reliability Evaluations, por ser um programa amplamente utilizado na área nuclear /13/. O SAPHIRE é um programa voltado para avaliação probabilística de risco auxiliando na identificação, caracterização, quantificação e avaliação de perigos. Ele permite ao usuário criar e analisar árvores de falhas utilizando um computador pessoal. 160 Pesquisa Naval Nº 16, Outubro de 2003 De forma a melhor avaliar a confiabilidade das configurações apresentadas, vários casos foram estudados. A confiabilidade de cada uma das configurações foi estudada considerando 0, 10 e 30 horas como tempo de missão dos diesel geradores / 10/. A Tabela 3 mostra os principais cortes mínimos obtidos em cada uma das situações. Pela observação dos resultados obtidos constata-se que o corte Falha concessionária aparece em todas as alternativas estudadas. O fato de a alimentação externa aparecer como corte de grande importância se justifica por se considerar apenas uma linha de transmissão como fonte externa de energia elétrica Tabela 3 - Principais cortes mínimos Alter- Tempo nativaFreqüência Cortes DG1/DG2 falha na partida; Falha concession 0h Falha modo comum DG; Falha concessionári 9,53E-07 DG1/DG2 falha na partida; Falha intrínseca D Falha modo comum DG; Falha concessionári 10 h DG1/DG2 falha na partida; Falha intrínseca D 2 DG 2,91E-06 DG1/DG2 falha na partida;Falha concessioná Falha modo comum DG; Falha concessionári 30 h DG1/DG2 falha na partida; Falha intrínseca D 6,81E-06 DG1/DG2 falha na partida;Falha concessioná Falha modo comum DG; Falha concessionári 0h Falha painel entrada; Falha concessionária 1,75E-07 Falha humana; Falha concessionária 4 DG Falha modo comum DG; Falha concessionári 10 h Falha painel entrada; Falha concessionária 6,05E-07 Falha humana; Falha concessionária Falha modo comum DG; Falha concessionári 30 h Falha painel entrada; Falha concessionária 1,23E-06 Falha humana; Falha concessionária Nota-se, também, que a freqüência mais elevada ocorre sempre para o tempo de missão dos diesel geradores de emergência de 30 horas. Nessa condição, ao se comparar as duas alternativas, nota-se que o corte mínimo Falha modo comum DG; Falha concessionária é o corte dominante e a sua importância aumenta de Pesquisa Naval Nº 16, Outubro de 2003 161 15,3% para 84,9% à medida que aumenta o número de redundâncias dos diesel geradores de dois para quatro. É visível que a inclusão de redundâncias, para os diesel geradores de emergência, proporciona um aumento considerável na confiabilidade do sistema elétrico. Comparando-se os valores de freqüência apresentados na Tabela 3, pode-se verificar que existe uma melhora de mais de 5 vezes quando se passa a utilizar a configuração com quatro diesel geradores ao invés de dois. O corte Falha modo comum DG também aparece em todas as alternativas, aumentando sua importância à medida que se aumentam as redundâncias dos diesel geradores. Para avaliar a contribuição da consideração das falhas de modo comum, foi realizada uma análise paramétrica, utilizando-se diferentes valores para o fator-beta / 10/. Os resultados obtidos são mostrados na Tabela 4.. Tabela 4 - Freqüências de perda se suprimento elétrico para diferentes valores do fator-beta Alternativa β =0 β = 0,0 2 DG 4 DG 5,65 E -06 6,97 E -08 6,81 E -0 1,23 E -0 Pode ser visto que o fato de se considerar a contribuição das falhas de modo comum afeta consideravelmente os resultados obtidos. Tal fato demonstra a importância contabilizá-las, mesmo em um estudo preliminar. 6 - CONCLUSÕES O objetivo deste trabalho foi estudar o sistema diesel elétrico de emergência de um reator nuclear de pequeno porte, tendo sido consideradas duas alternativas possíveis para a configuração do sistema elétrico. A confiabilidade foi estudada segundo o método da árvore de falhas e a quantificação feita com o código SAPHIRE, permitindo a identificação da melhor configuração em termos de confiabilidade. Os resultados obtidos indicam que a linha de transmissão é o item de maior peso, estando sempre entre os cortes mínimos de maior importância. É importante ressaltar que o uso de quatro diesel geradores de emergência compensou a falta de uma segunda linha de transmissão, levando o nível de confiabilidade do suprimento de energia elétrica em corrente alternada a níveis aceitáveis. De todo modo, a possibilidade de melhoria no desempenho da geração de emergência, como medida compensatória à maior vulnerabilidade do suprimento externo, não chega a ser novidade. Borst, da KWU, escreveu a esse respeito, dizendo que na 162 Pesquisa Naval Nº 16, Outubro de 2003 Alemanha “há muito se concluiu que é impossível, ou economicamente inexeqüível, na maior parte das localidades do país, aonde grandes usinas venham a ser licenciadas, prover duas linhas de sistemas elétricos verdadeiramente independentes”, e que é “mais importante assegurar a máxima confiabilidade às fontes locais de emergência do que depender da duvidosa confiabilidade de uma segunda linha de suprimento externo (Borst, 1976)”. Fica evidenciado que as falhas de modo comum são uma porção significativa das falhas do sistema, sendo recomendado a sua consideração, mesmo em estudos preliminares. 7 - REFERÊNCIAS /1/ United States Nuclear Regulatory Commission - Reactor Safety Study - An Assessment Of Accident Risks In U.S. Commercial Nuclear Power Plants. October, 1975 (WASH – 1400/ NUREG – 75/014) /2/ ABNT-NBR-8671 – Requisitos Gerais de Suprimento de Energia Elétrica para os Sistemas de Segurança de Usinas Nucleolétricas – Novembro 1984 /3/ 10-CFR-50 – U S Regulatory Commission, “Code of Federal Regulations, Title 10 – energy, Part 50 – Domestic Licensing of Production and Utilization Facilities” EUA 1991. /4/ United States Nuclear Regulatory Commission - Evaluation of Station BlackOut Accidents at Nuclear Power Plants – June 1988 (NUREG 1032). /5/ Horomitsu Kumamoto, Ernest J. Henley - Probabilistic Risk Assessment and Management for Engineers and Scientists – IEEE Press, 1996. /6/ Norman J. McCornick – Reliability and Risk Analysis: Methods and Nuclear Power Applications – Academic Press, 1981. /7/ United States Nuclear Regulatory Commission. Fault Tree Handbook. January, 1981 (NUREG-0492). /8/ United States Nuclear Regulatory Commission. Procedures for Treating Common Cause Failures in Safety and Reliability Studies. January, 1988 (NUREG/CR-4780). /9/ NEA/CSNI/R(2000)20 – ICDE Project Report on Collection and Analysis of Common-Cause Failures of Emergency Diesel Generators – May 2000 /10/ United States Nuclear Regulatory Commission -Reliability of Emergency AC Power Systems at Nuclear Power Plants – July – 1983 (NUREG/CR-2989). /11/ United States Nuclear Regulatory Commission. Probabilistic Safety Analysis Procedures Guide. 1984 (NUREG/CR-2815) /12/ IEEE-Std 500 – IEEE Guide to the Collection and Presentation of Electrical, Electronic, Sensing Component and Mechanical Equipment Reliability Data for Nuclear Power Generating Stations - 1984. /13/ Idaho National Engineering and Environmental Laboratory – INEEL - Systems Analysis Programs for Hands-On Integrated Reliability Evaluations – SAPHIRE – Version 5.41 /14/ BORST, A. “Standby and Emergency Power Supply of German Nuclear Power Plants”, IEEE Transactions on Power Apparatus and Systems, 1976. XIII Capítulo “UTILIZAÇÃO DE TÉCNICAS DE PROCESSAMENTO DIGITAL DE SINAIS PARA A IMPLEMENTAÇÃO DE FUNÇÕES BIQUADRÁTICAS” CT(EN) Paulo Henrique da Rocha, M.Sc. Eng. Michael Cláudio Porsch, M.Sc. Centro Tecnológico da Marinha em São Paulo – CTMSP Divisão de Projetos Eletro-Eletrônicos Av. Prof. Lineu Preste, 2468 - Cidade Universitária - USP CEP 05508-000, São Paulo, SP, Brasil [email protected], [email protected] Resumo Neste trabalho, uma técnica para implementar funções biquadráticas utilizando processamento digital de sinais foi abordada teoricamente e implementada em software e hardware. Uma vez sintetizadas as células biquadráticas discretas, é possível utilizar DSPs para implementação da função de transferência desejada, através do cascateamento dessas células. O DSP utilizado foi o de ponto flutuante da família TMS320C3x da Texas Instruments. Palavras Chaves: Filtro Digital, DSP, Controle Digital. Abstract In this paper a way of implementing biquadratic functions using digital signal processing was theorically described and then implemented in software and hardware. Once the discrete biquadratic cells were synthetized, it’s possible to use DSPs for implementing the desired transfer function by cascading these cells. The DSP used was a floating point one from the TMS320C3x family from Texas Instruments. Key-Words: Digital Filter, DSP, Digital Controler 164 Pesquisa Naval Nº 16, Outubro de 2003 1 INTRODUÇÃO De um modo geral, a síntese de filtros é realizada através da ligação conveniente de resistores, capacitores e amplificadores operacionais, de modo que esse circuito represente uma determinada função de transferência no domínio da frequência, definindose assim seus pólos e zeros. A implementação prática dessas funções de transferência é normalmente obtida através do cascateamento de células biquadráticas [1], o que acarreta num complexo projeto eletrônico que depende diretamente da tolerância dos componentes utilizados, bem como da temperatura ambiente, entre outros fatores. Caso haja a necessidade de mudança/ajuste dessa função de transferência, obrigatoriamente é necessário trocar os componentes eletrônicos passivos e ativos do projeto. Nos últimos anos, a tecnologia de Processamento Digital de Sinais (DSP – Digital Signal Processing) vem sendo amplamente aplicada em diversos sistemas, que no passado eram eminentemente analógicos. Esse fato deve-se principalmente aos avanços alcançados nos diversos processadores e microcontroladores disponíveis com relativa facilidade no mercado. Um outro ponto que também vem alavancado essas novas tecnologia é a evolução das ferramentas computacionais de apoio. Desta forma, nas últimas décadas, diversas teorias de processamento digital de sinais surgiram e, gradativamente, foram aplicadas em projetos práticos [1][2][3]. Para muitos pesquisadores, a teoria de processamento digital de sinais está entre as mais poderosas tecnologias desenvolvida no último século. Neste artigo é apresentada uma técnica para a obtenção das equações de diferenças de uma função biquadrática, bem como abordada a teoria envolvida na discretização e tratamento de sinais analógicos amostrados. Visando à verificação da teoria apresentada, um filtro rejeita-faixa (filtro Notch), com fo = 100Hz, foi implementado no DSK C31 (DSP Stater Kit) da Texas Instruments. 2 FILTROS DIGITAIS Existem diversas formas de se sintetizar filtros digitais[3]. Uma vez que o escopo desse trabalho é implementar filtros através de funções biquadráticas, apenas os filtros recursivos serão abordados. 2.1 FILTROS DIGITAIS RECURSIVOS Filtros recursivos são aqueles em que os valores discretos de saída dependem de valores de saídas anteriores. Desta forma, a expressão matemática para os filtros Pesquisa Naval Nº 16, Outubro de 2003 165 recursivos não possui somente termos envolvendo valores de entrada (x n, xn-1, ...), mas também possuem termos envolvendo valores de saídas anteriores (y n-1, yn-2, ...). Esses filtros recursivos também são conhecidos por filtros IIR (Infinite Impulse Response) [5][3]. Considerando-se um sistema contínuo linear e invariante no tempo, a equação de diferenças genérica para um filtro IIR é obtida pela expressão (1) [3][6]. M y[n] = M N k =0 k =1 ∑ a k .x[n − k] + ∑ b k .y[n − k] ⇔ G(z) = ∑ a k .z − k k =0 N 1− ∑ b k .z − k (1) k =0 A equação (1) também pode ser representada por blocos conforme mostrado na figura 1. Figura 1 – Representação em Blocos de um filtro recursivo [4] A função de transferência discreta, GD(z) apresenta uma relação com a função de transferência do sistema contínuo correspondente. Essa relação é definida pela identidade da equação (2) [3][6] G D (z) = H C (s) | s =(1 / Ts ). ln z (2) 166 Pesquisa Naval Nº 16, Outubro de 2003 ( ) Como a expressão s = 1 Ts . ln(z ) é não linear, existem vários métodos desenvolvidos para obtenção da aproximação da função de transferência do domínio discreto (z) para o domínio da freqüência (s) e vice-versa. O método mais comumente utilizado é o da transformação bilinear de Tustin [7][3], definido na equação (3). s≡ 2 z −1 ⋅ Ts z + 1 (3) Como será visto à diante, utilizou-se a aproximação de Tustin para a definição dos coeficientes de G(z). Um ponto importante a ser observado é que os coeficientes de z são dependentes da taxa de amostragem (fs=1/Ts). Sendo assim, é necessário fixar a taxa de amostragem, de modo a possibilitar a determinação de G(z). 2.2 DETERMINAÇÃO DAS EQUAÇÕES DE DIFERENÇAS DA ESTRUTURA BIQUADRÁTICA Para que a programação do filtro possa ser feita na forma digital, é necessária a descrição por equações de diferenças da estrutura biquadrática em z. Baseando-se na equação (1), a função de transferência discreta para uma estrutura biquadrática é dada pela seguinte função de transferência [3]: G(z) = b 0 z 2 + b1 z + b 2 z + a 1z + a 2 2 = Y(z) U(z) (4) O que fornece a saída y(k) como sendo y(k) = b 0 u(k) + b 1 u(k - 1) + b 2 u(k - 2) - a 1 1y(k - 1) - a 2 y(k - 2) G(z) pode também ser re-escrita como (5) Pesquisa Naval Nº 16, Outubro de 2003 G(z) = b 0 + (b 1 - a 1 b 0 )z + (b2 - a 2 b 0 ) z 2 + a 1z + a 2 167 = Y(z) U(z) (6) Que leva a: b0’ Y(z) = b 1’ ( b1 - a 1 b 0 )z + (b 2 - a 2 b 0 ) z 2 + a 1z + a 2 U(z) + b 0 U(z) (7) O primeiro termo de (7) pode ser descrito através do seguinte diagrama de blocos[1]: b 0’ u(k) + Z -1 x2(k) Z -1 b 1’ + x1(k) y(k) -a1 -a2 Figura 2- Diagrama de simulação de equação de diferenças de 1 zero e 2 polos A descrição do sistema representado na figura 2 em termos de equação de estados é a seguinte: x1(k + 1) 0 x2(k + 1) = - a 2 1 x1(k) 0 + u(k) - a 1 x2(k) 1 x1(k) y(k) = [ b1 ' b 0 '] x2(k) (8) 168 Pesquisa Naval Nº 16, Outubro de 2003 Acrescentando o 2o termo de (6) ao diagrama de blocos representado na figura 2 obtém-se o seguinte diagrama de simulação: b0’ u(k) + Z -1 x2(k) Z -1 b1’ + x1(k) -a1 -a2 Figura 3 – Diagrama de simulação para um sistema de equação de diferenças de 2 zeros e 2 polos A equação de estados passa a ser então: x1(k + 1) 0 x2(k + 1) = - a 2 1 x1(k) 0 + u(k) - a 1 x2(k) 1 x1(k) y(k) = [ b1 ' b 0 '] + b 0 u(k) x2(k) (9) Reescrevendo a equação e substituindo os termos b1’ e b0’, as seguintes equações serão utilizadas para a implementação do filtro digital no DSP. x1(k + 1) = x2(k) x2(k + 1) = - a 2 .x1(k) - a 1 .x2(k) + u(k) y(k) = (b 2 - a 2 .b 0 )x1(k) + ( b1 - a 1 .b 0 ).x2(k) + b 0 .u(k) (10) Pesquisa Naval Nº 16, Outubro de 2003 169 3 IMPLEMENTAÇÃO FILTRO BIQUADRÁTICO NO DSP TMS320C31 Nesta seção, serão apresentadas as etapas implementadas para a síntese do filtro rejeita faixa, utilizando-se uma função de transferência biquadrática. Também será apresentado o hardware desenvolvido para teste prático do filtro digital. 3.1 DETERMINAÇÃO DA FUNÇÃO DE TRANSFERÊNCIA DISCRETA H(Z) DO BIQUADRÁTICO A representação de uma função biquadrática genérica é apresentada na expressão (11). G (s) = s 2 + 2.ξ1 .ω n + ω 2n s 2 + 2.ξ 2 .ω n + ω 2n (11) Um filtro Notch pode ser definido a partir de um par de zeros com fator de amortecimento inferior ao fator de amortecimento dos pólos[5][6]. Desta forma, escolhendo-se ξ1 = 0.01, ξ2 = 0.5 e ωn = 100∗2∗π, obtém-se a expressão (12) G (s) = s 2 + 12,56.s + 394384 s 2 + 628.s + 394384 (12) Conforme já comentado em seções anteriores, uma vez obtida a função de transferência no domínio da frequência, é possível, através da aproximação de Tustin, determinar a respectiva função de transferência no domínio discreto. Para isso, é necessário que se defina a taxa de amostragem do sinal, que para o projeto ora apresentado foi de 20 kHz. Para obtenção de G(z) foi utilizado o software Matlab, com aproximação de Tustin. Nas figuras 4a e 4b, estão apresentadas o diagrama de Bode para as funções G(s) e G(z), respectivamente, bem como os comandos utilizados no software Matlab para a geração das mesmas. 170 Pesquisa Naval Nº 16, Outubro de 2003 a) Comandos do Matlab: >> g=tf([1 12.56 394384], [1 6285 394384]) Transfer function: s^2 + 12.56 s + 394384 ---------------------s^2 + 6285 s + 394384 >> bode(g) b) Comandos do Matlab: >>hz=c2d(h,0.00005,'tustin') Transfer function: 0.9792 z^2 - 1.947 z + 0.9682 ----------------------------z^2 - 1.947 z + 0.948 Sampling time: 5e-005 >>bode(hz) Figura 4 – Gráficos das Respostas no domínio da freqüência e no domínio discreto do Filtro Notch para fo=100Hz, obtidas através de simulação no software Matlab. Pesquisa Naval Nº 16, Outubro de 2003 171 3.2 DESCRIÇÃO DO HARDWARE UTILIZADO Conforme já comentado anteriormente, o DSP utilizado foi o TMS320C31 [8][9][10], fabricado pela Texas Instruments (TI). A família C31 da TI permite lidar com os registradores diretamente em ponto flutuante. Essa característica faz com que a necessidade de emulação por software dos pontos flutuantes seja descartada, o que possibilita aumentar o range das taxas de amostragem do sinal. Tanto os conversores Analógico/Digital (A/D) e Digital/Analógico (D/A) utilizados possuem oito canais e o envio/recebimento de dados é feito através de uma comunicação serial, em tensão, para o DSKC31. Os conversores utilizados foram o TLV1570 e TLV5608, para A/D e D/A, respectivamente. Para garantir o sincronismo do frame da comunicação serial, tanto para o A/D como para o D/A, uma lógica combinacional foi implementada. O software foi programado em Assembly e gravado, via comunicação JTAG, na memória RAM do DSK C31. Na figura 5, um diagrama em blocos do hardware é apresentado. Figura 5 – Diagrama em Blocos do Hardware implementado. 172 Pesquisa Naval Nº 16, Outubro de 2003 4 RESULTADOS EXPERIMENTAIS Uma vez determinada a função de transferência G(z), foram obtidas as equações de diferenças utilizando-se as equações (10) e implementadas no DSK C31. A taxa de amostragem de 20 kHz foi garantida através do uso, em software, de interrupção de timers. Para verificação da resposta em freqüência do filtro Notch, foi utilizado o analisador de sinais dinâmicos HP-35670A. Com o auxílio deste equipamento foi possível obter o gráfico de Bode do filtro e armazená-lo em um arquivo ASCII, e assim, gerar o gráfico apresentado na figura 6. Figura 6 – Resposta em frequência do filtro implementado no DSK C31. Curva obtida através dos arquivos em ASCII. 5 CONCLUSÃO Nesse artigo foi apresentada uma abordagem teórica de como se obter as equações diferenças para células biquadráticas. Pesquisa Naval Nº 16, Outubro de 2003 173 O gráfico de Bode obtido para o filtro digital, implementado no DSK, apresentou uma pequena variação para a fo, se comparada ao calculado para o domínio da freqüência, como pode ser observado no gráfico da figura 6 (∆Frequência). Isso pode ser explicado pelo fato de que os coeficientes da função de transferência no domínio discreto serem obtidos através da aproximação de Tustin e não através da transformada em z exata. Porém, na prática, essa diferença pode ser desprezada pelo fato da alta atenuação sofrida na banda de rejeição do filtro (acima de 30 dB). Devido ao fato da família C31 possuir ponto flutuante, não houve a necessidade de se emulá-lo via software. Isso propiciou uma simplificação do programa, o que possibilita o aumento da taxa de amostragem. Vale a pena ressaltar que as equações de diferenças apresentadas nesse trabalho podem ser utilizadas em qualquer sistema de aquisição de sinais, com posterior tratamento digital de sinais, como por exemplo em microcontroladores de 8 bits de baixo custo e de ponto fixo, ou outras famílias/fabricantes de DSPs. 6 AGRADECIMENTOS Os autores aproveitam a oportunidade para agradecer aos engenheiros de suporte da Texas Instruments pelo apoio técnico e envio de material de amostra, especialmente aos engenheiros Núncio Perrella, Rafael de Souza e Marcos Fernandes. 7 BIBLIOGRAFIA 1. 2. Orsini, Luiz Q.; “Introdução aos Sistemas Dinâmicos”. Guanabara, 1985. Houpis, Constantine H and Lamont, Gary B.; “Digital Control Systems”. 2nd edition. McGraw-Hill, 1987. 3. Lam, Harry Y-F; “Analog and Digital Filters: Design and Realization”. Prentice Hall, 1979. 4. Oppenheim, Alan V. and Willsky, Alan S.; “Signal & Systems”, 2nd edition. Prentice Hall, 1996. 5. Ogata, Katsuhikio; “System Dynamics”, 3nd edition. Prentice Hall. 6. Ogata, Katsuhikio; “Discrete-Time Control Systems”, 2nd edition. Prentice Hall. 7. Tustin, A.; “A method of Analyzing the Bebavior of Linear System in Terms of Time Series”, JIEE (London), vol. 94, pt IIA, 1947. 8. “TMS320C31 Applications Guide”, Texas Instruments. 9. “Interfacing the TLV2544/TLV2548 ADC to the TMS320C31DSP”, SLAA101, Texas Instruments. 10. “Interfacing the TLV2541 ADC and the TLV5618A DAC to the TMS320C31DSP”, SLAA111, Texas Instruments 174 Pesquisa Naval Nº 16, Outubro de 2003 MUNIÇÃO NAVAL FABRICADA PELA FÁBRICA DE MUNIÇÃO DA MARINHA Munição 4,5 Munição 5 L/38 Munição 40mm L/60 e L/70 Munição de Salva Munição 105mm Munição 3 L/50 XIV Capítulo VARIABILIDADE METEOROLÓGICA DO NÍVEL DO MAR EM BAIXA FREQÜÊNCIA EM CANANÉIA, SP E ILHA FISCAL, RJ Alessandro Filippo1, Björn Kjerfve1,2, Rogério Neder Candella3, Audalio Rebelo Torres Jr.4. 1 Depto. Geoquímica - Universidade Federal Fluminense; e-mail:[email protected] 2 Marine Science Program, Department of Geological Sciences University of South Carolina; e-mail: [email protected] 3 Instituto de Estudos Almirante Paulo Moreira; e-mail: [email protected] 4 Depto. Meteorologia – Universidade Federal do Rio de Janeiro; e-mail: [email protected] Abstract Meteorological tide is the part of the sea level variation not due to astronomical forces. Strong winds, atmospheric pressure variations and water temperature are common causes of this phenomena. To account the behavior and the contribution of those meteorological forcing in the sea level changes at the brazilian southeast coast, temporal series of atmospheric pressure and wind from São Sebastião (SP) and Ponta da Armação (RJ) weather stations had been used together with sea level measurements from Cananéia and Ilha Fiscal (RJ), from 1982 and 1983. Crossspectral analyzes between meteorological and sea level series showed good coherence for some periods. To the Ilha Fiscal station the meridional wind component was the principal forcing, followed by the zonal wind component and the atmospheric pressure. To Cananéia station, although the meridional wind component showed to be the major contributor to the sea level oscillation, the atmospheric pressure is a more important factor than the zonal wind component. Palavras chaves Nível do mar; Forçantes Meteorológicas; Análise espectral cruzada; Baixa freqüência; Brasil; Meio-Atlântico 176 Pesquisa Naval Nº 16, Outubro de 2003 Resumo A maré meteorológica ou residual é a parte da variação no nível do mar não causada pela maré astronômica. Ventos fortes, pressão atmosférica alta ou baixa e temperatura de água são as causas habituais dessas variações residuais. Para avaliar o comportamento e a contribuição das forçantes meteorológicas na variação do nível do mar na costa sudeste brasileira, foram utilizadas séries temporais de pressão atmosférica e vento das estações de São Sebastião (SP) e Ponta da Armação (RJ) e de nível do mar de Cananéia (SP) e Ilha Fiscal (RJ), dos anos de 1982 e 1983. Através de análise espectral cruzada entre as séries meteorológicas e de nível do mar foi possível estabelecer a coerência entre os eventos meteorológicos de baixa freqüência e a variação do nível do mar. Na estação Ilha Fiscal, eventos com período de 3 e de 15 dias tiveram as maiores coerências entre as séries das variáveis nível do mar (nm) e pressão atmosférica (pa), com 0,77 e 0,83, respectivamente. Entre as séries de nível do mar e componente zonal do vento (Wx), os eventos de maior coerência foram os com período em torno de 4 e 5 dias, com 0,78 e 0,82 de coerência, respectivamente. Na correlação cruzada entre as séries das variáveis nível do mar e componente meridional do vento (Wy), os períodos dos eventos de maior coerência foram de cerca de 5 dias (0,81) e 9 dias (0,83). Na estação Cananéia, os eventos de maior coerência entre as séries de nm e pa foram os de período em torno de 3 (0,83), 5 (0,98) e 10 dias (0,85). Entre as séries das variáveis Nível do Mar e Wx, os eventos de maior coerência tiveram períodos de aproximadamente 4 dias (0,83) e 5 dias (0,82), enquanto que com Wy, os eventos de maior coerência tiveram períodos de cerca de 3 (0,81) e 5 dias (0,83). Houve um comportamento diferenciado das variáveis meteorológicas em relação à localização das estações maregráficas, sendo que, no Rio de Janeiro, a variável Wy apresentou a maior coerência média (0,76 ± 0,13), sendo a maior responsável pela variação local do nível do mar e, em Cananéia, as variáveis Wy e Pa foram as responsáveis pela maior variação do nível do mar local, com coerências médias de 0,77 ± 0,09 e 0,76 ± 0,13, respectivamente. Introdução O nível do mar é uma quantidade física mensurável, resultado de todas as influências que afetam a altura da superfície do mar (lua, sol, pressão atmosférica, ventos, movimento de terra vertical, alguns efeitos oceanográficos, atividade sísmica, etc). As marés são só uma parte da variabilidade do nível do mar e estão relacionadas em freqüência, amplitude e fase com as forças astronômicas (i.e. forças gravitacionais da Lua e o Sol na Terra, principalmente). Em contraste com a maré, a determinação das tendências de movimento de longo período do nível do mar é mais difícil. Claramente as marés podem ter uma faixa Pesquisa Naval Nº 16, Outubro de 2003 177 de variação de alguns metros por período de poucas horas considerando a tendência do nível do mar (Stewart, 2002). A fim de avaliar as tendências do nível do mar, é prática comum utilizar séries contínuas e longas de observações do nível do mar, medidos com instrumentos precisos. A terminologia comum, “nível do mar residual” é equivalente a “nível do mar observado menos maré” (Neves Filho, 1992; Stewart, 2002). O resíduo é a parte da variação observada no nível de mar que não é devida às marés. Em uma análise de dados de nível do mar, normalmente observa-se a tendência residual ou os resíduos significantes (picos) em um tempo particular para investigar as causas e razões científicas que justifiquem por que eles acontecem (Middleton, 2000). Ventos fortes, pressão atmosférica alta ou baixa e temperatura de água são as causas habituais destas variações residuais. Possíveis causas dessas variações podem ser associadas a alguns fenômenos que exercem influência no clima do globo inteiro, como o El Niño e La Niña, por exemplo, relacionados com a variação anômala da TSM (temperatura da superfície de mar) no Pacífico Equatorial. Com o enfraquecimento ou deslocamento do Anticiclone Subtropical do Atlântico Sul - ASAS, pela ocorrência dos eventos de El Niño (Gill e Schumann, 1979), a propagação de eventos meteorológicos severos gerados nas latitudes altas para o equador ao longo da costa fica facilitada, com o aumento do número de passagens de frentes frias. Tais eventos poderiam gerar as Ondas de Kelvin em períodos de cada 5 a 18 dias. De acordo com Brink (1991), tais ondas geralmente têm períodos mais longos que período inercial, de forma que freqüentemente agem como uma resposta do oceano às mudanças de tempo atmosférico que, tipicamente, tem a escala de tempo de alguns dias. A passagem de sistemas frontais por áreas oceânicas induz mudanças no nível do mar através da variação da pressão na superfície e a ação da tensão do vento associada (Gill e Schumann, 1979). Robinson (1964) introduziu o conceito de ondas de plataforma continental, estudando um modelo dinâmico em que mudanças no nível do mar foram produzidas diretamente por alterações da pressão atmosférica. O objetivo deste artigo é avaliar a variabilidade meteorológica do nível do mar na região de costa do sudeste de Brasil. Para tanto, foram utilizadas séries temporais dos anos de 1982 e 1983 de maré das estações em Cananéia – SP e Ilha Fiscal – RJ, vento e pressão atmosférica das estações em São Sebastião – SP e Ponta da Armação – RJ de modo a realizar análises de correlação espectral cruzada, tentando determinar a influência de cada variável. Área de Estudo A área de estudo está situada entre as latitudes 220 30’S e 250 30’S e longitudes 42 30’ W e 480 00’ W, compreendendo a costa do sudeste de Brasil (Figura 1). Os dados de nível do mar foram obtidos de duas estações cujas características podem ser vistas na Tabela 1. 0 178 Pesquisa Naval Nº 16, Outubro de 2003 Tabela 1- As coordenadas geográficas das estações de dados utilizados. Fonte: Diretoria de Hidrografia e Navegação - Marinha do Brasil. Figura 1 - Localização das estações maregráficas na área de estudo. O clima da região estudada, de acordo com a Classificação Climática de Köppen, é tropical com influência marinha forte tipo “Af” no Rio de Janeiro na costa brasileira. A temperatura média anual é aproximadamente 24 °C e a precipitação média anual é aproximadamente 1170 mm (Filippo, 1997; INEMET, 2002). Os efeitos do fenômeno El Niño Oscilação Sul (ENSO) são sentidos mais intensamente, tanto em termos dos campos de anomalias de precipitação sazonais, como em termos da temperatura do ar. Além disso, há comprovação observacional que a variabilidade de TSM no Oceano Atlântico Sul influencia o clima das áreas sul e sudeste do litoral brasileiro (Nobre, 1996). O padrão de mudança de tempo típico desta região é a passagem de frentes frias. A origem das frentes frias que atingem o litoral sul-sudeste do Brasil é extratropical, proveniente de regiões de altas latitudes (Filippo, 1997). Estes sistemas frontais Pesquisa Naval Nº 16, Outubro de 2003 179 se propagam para o equador freqüentemente ao longo da costa entre 40°S e 20°S, embora eles possam alcançar latitudes tão baixas quanto 13°S durante o verão no hemisfério sul (Kousky, 1979). A Figura 2 mostra três situações distintas de sistemas frontais na área de estudo: (a) com a presença do centro de baixa, em função do giro ciclônico, os ventos são de sudoeste; (b) após a passagem do sistema frontal e sua dissolução, a volta do centro de alta com seu giro anticiclônico determina o restabelecimento dos ventos nordeste. Nota-se a formação de novo sistema frontal mais ao sul; (c) com a aproximação do novo sistema frontal, os ventos rondam de nordeste para norte e depois para sudoeste com a chegada da frente, sempre no sentido anti-horário. O tempo decorrido entre a dissolução do sistema em (a) e o surgimento do novo em (c) foi de cerca de 9 dias, valor dentro da faixa 5-10 dias (Filippo, 1997). Figura 2 – Exemplo de evolução de sistemas frontais no litoral Atlântico da América do Sul. (a) Centros de Baixa pressão (Ciclônicos) na área de estudo no dia 08/05/2003. (b) Centro de Alta pressão (Anti-ciclônico, no caso o ASAS) na área de estudo no dia 14/05/2003 e formação de novo sistema frontal mais ao sul, na costa Argentina. (c) O novo sistema formado se aproxima da área de estudo no dia 17/05/2003. Materiais e Métodos O dados utilizados neste estudo foram séries horárias de nível do mar das estações maregráficas de Cananéia – SP e Ilha Fiscal – RJ, e séries temporais de vento e pressão atmosférica a cada 3 horas das estações meteorológicas de São Sebastião – SP e Ponta da Armação – RJ pelo período de 01-Jan-1982 para 31-Dez-1983. Cada conjunto de dados de cada estação foi analisado separadamente para observar e preservar as características locais. 180 Pesquisa Naval Nº 16, Outubro de 2003 Os dados de maré das três estações foram analisados visualmente para a retirada de valores espúrios devido a erros grosseiros de digitação ou de mau funcionamento do próprio marégrafo. Das séries originais foram subtraídas as respectivas médias, reduzindo-se os dados à variação em torno do nível médio. Além disso, para eliminar os efeitos astronômicos significativos, foi utilizado um filtro recursivo digital passa-baixa de Butterworth (Ackroyd, 1973), de ordem 8, com freqüência de corte correspondente a 48 horas. Para certificar qual o melhor método de interpolação para preencher as falhas das séries de dados meteorológicos, foram realizados dois testes antes de aplicar análise espectral cruzada. O primeiro consistiu em preencher as falhas com zeros e interpolar através de FFT, o que significa calcular o absoluto da FFT, descartar a parte complexa das séries e eliminar as freqüências que correspondem ao período da maior falha. A seguir, calculase o inverso de FFT das séries modificadas e obtém-se séries filtradas compatíveis com o original. O segundo teste consistiu em preencher as falhas com a média das séries e interpolá-las também por FFT. Para esse teste, foi utilizada uma parte das séries de vento (componente zonal Wx), onde foram introduzidas falhas artificiais e de forma aleatória, que foram preenchidas com zeros e pela média. Na Figura 3, pode-se ver as séries filtradas e interpoladas Wxf, Wxmf, Wxzf e a séries original Wx. Pode-se notar que a curva da série Wxzf diverge séries Wx e Wxf no período onde o preenchimento foi realizado (marcado com elipses) e a curva da série Wxmf representou melhor a tendência da curva original filtrada (Wxf). Assim, optou-se pela utilização das séries filtradas resultantes da interpolação por FFT com as falhas preenchidas pela média. Figura 3 - Série Original (Wx), original filtrada (Wxf) e original filtrada com falhas induzidas artificialmente preenchidas por zeros (Wxzf) e pela média (Wxmf). Pesquisa Naval Nº 16, Outubro de 2003 181 Após a eliminação das falhas, as séries foram reinterpoladas para intervalos horários de maneira poder compará-las com as séries de maré. A análise espectral das séries de dados do nível do mar, pressão atmosférica e de vento foram realizadas pela aplicação da Transformada Rápida Fourier (FFT), utilizando-se como parâmetros para janela de Hanning 4096 e para overlaping 10. Resultados As correlações cruzadas entre os dados de nível do mar (nm) da estação da Ilha Fiscal e os dados meteorológicos de cada variável (pa, Wx e Wy) da estação da Ponta da Armação estão apresentados nas Figuras 4, 5 e 6 e nas Tabelas 2, 3 e 4. Pode-se observar, no gráfico relativo à correlação cruzada, que há picos de alta coerência em eventos com periodicidade de 25,8; 18,5; 15,0; 6,8; 3,0 e 2,8 dias (Figura 4 e Tabela 2) e que o tempo de retardo (defasagem) variou de 6,8 a 166,4 horas. Figura 4 - Correlação Cruzada entre os dados de nível do mar (Estação Ilha Fiscal) e de pressão atmosférica (Estação Ponta da Armação). 182 Pesquisa Naval Nº 16, Outubro de 2003 Tabela 2 - Resumo das características da análise espectral cruzada das séries temporais do nível do mar (Estação Ilha Fiscal) e de pressão atmosférica (Estação Ponta da Armação). Freqüências (Hz) Períodos (dias) Coerência 4,48 x 10-07 6,26 x 10-07 7,72 x 10-07 1,71 x 10-06 3,83 x 10-06 4,14 x 10-06 25,8 18,5 15,0 6,8 3,0 2,8 0,72 0,64 0,83 0,67 0,72 0,77 ( A correlação cruzada entre nm e Wx mostrou picos de boa coerência para eventos com periodicidade de 6,9; 5,4; 4,3 e 2,8 dias (Figura 9 e Tabela 3), tendo o tempo de defasagem variado de 22,1 a 75,4 horas. Figura 5 - Correlação Cruzada entre os dados de nível do mar (Estação Ilha Fiscal) e os da componente X do Vento – Wx (Estação Ponta da Armação). Pesquisa Naval Nº 16, Outubro de 2003 183 Tabela 3 - Resumo das características da análise espectral cruzada das séries temporais do nível do mar (Estação Ilha Fiscal) e os da componente X do Vento – Wx (Estação Ponta da Armação). Freqüências (Hz) Períodos (dias) Coerência 1,68 x 10-06 2,14 x 10-06 2,68 x 10-06 4,10 x 10-06 6,9 5,4 4,3 2,8 0,64 0,82 0,78 0,68 ( A partir dos resultados da correlação cruzada entre nm e Wy, pode-se notar picos de boa coerência em eventos com periodicidade de 15,6; 12,1; 8,9; 5,4; 4,6; 3,2; 3,0 e 2,6 dias (Figura 6 e Tabela 4). O tempo de defasagem variou de 2,8 a 172 horas. Figura 6 - Correlação Cruzada entre dados de nível do mar (Estação Ilha Fiscal) e da componente meridional do vento (Wy) (Estação Ponta da Armação). 184 Pesquisa Naval Nº 16, Outubro de 2003 Tabela 4 - Resumo das características da análise espectral cruzada das séries temporais do nível do mar (Estação Ilha Fiscal) e os da componente meridional do vento (Wy) (Estação Ponta da Armação). Freqüências (Hz) Períodos (dias) Coerência 7,40 x 10-07 9,54 x 10-07 1,29 x 10-06 2,16 x 10-06 2,50 x 10-06 3,62 x 10-06 3,83 x 10-06 4,44 x 10-06 15,6 12,1 8,9 5,4 4,6 3,2 3,0 2,6 0,70 0,66 0,83 0,81 0,65 0,66 0,69 0,61 ( Os resultados das correlações cruzadas entre a série temporal de nível do mar da Estação Cananéia e cada uma das séries de dados meteorológicos de São Sebastião são mostrados pelas Figuras 7, 8 e 9, e pelas Tabelas 4, 6 e 7. A correlação cruzada entre nm e pa mostrou que há um grande número de picos com boa coerência em eventos com periodicidade que variam de 2,5 a 14,5 dias (Figura 7 e Tabela 5). O tempo de defasagem da resposta do nível do mar à pressão atmosférica variou de 1,9 a 148,2 horas. Figura 7 - Correlação Cruzada entre os dados de nível do mar (Estação Cananéia) e de pressão atmosférica (Estação São Sebastião). Pesquisa Naval Nº 16, Outubro de 2003 185 Tabela 5 - Resumo das características da análise espectral cruzada das séries temporais do nível do mar (Estação Canaéia) e os de pressão atmosférica (Estação São Sebastião). Freqüências (Hz) Períodos (dias) Coerência 8,11 x 10-07 9,89 x 10-07 1,22 x 10-06 1,50 x 10-06 2,12 x 10-06 2,38 x 10-06 2,74 x 10-06 3,39 x 10-06 3,66 x 10-06 4,34 x 10-06 4,64 x 10-06 14,3 11,7 9,5 7,7 5,5 4,9 4,2 3,4 3,2 2,7 2,5 0,65 0,69 0,85 0,75 0,98 0,96 0,70 0,62 0,65 0,83 0,67 F (g A correlação cruzada entre nm e Wx mostrou poucos picos de boa coerência para eventos com periodicidade que variaram de 2,7 a 11,6 dias (Figura 8 e Tabela 6). O tempo de defasagem variou de 22,1 a 75,4 horas. Figura 8 - Correlação cruzada entre os dados de nível do mar (Estação Cananéia) e os da componente X do Vento – Wx (Estação São Sebastião). 186 Pesquisa Naval Nº 16, Outubro de 2003 Tabela 6 - Resumo das características da análise espectral cruzada das séries temporais do nível do mar (Estação Cananéia) e os da componente X do Vento – Wx (Estação São Sebastião). Freqüências (Hz) Períodos (dias) Coerência 9,96 x 10-07 1,46 x 10-06 2,10 x 10-06 2,71 x 10-06 3,15 x 10-06 3,69 x 10-06 4,33 x 10-06 11,6 7,9 5,5 4,3 3,7 3,1 2,7 0,67 0,67 0,82 0,83 0,69 0,73 0,70 ( Nos resultados da correlação cruzada entre Wy, pode-se notar boa coerência nos eventos com periodicidade que variaram de 2,6 a 12,2 dias (Figura 9 e Tabela 7). O tempo de defasagem variou de 8,9 a 129,8 horas. Figura 9 - Correlação cruzada entre os dados de nível do mar (Estação Cananéia) e os da componente meridional (Wy) (Estação São Sebastião). Pesquisa Naval Nº 16, Outubro de 2003 187 Tabela 7 - Resumo das características da análise espectral cruzada das séries temporais do nível do mar (Estação Cananéia) e da componente meridional do vento (Wy) (Estação São Sebastião). Freqüências (Hz) Períodos (dias) Coerência 9,51 x 10-07 2,59 x 10-06 4,47 x 10-06 12,2 4,5 2,6 0,66 0,83 0,81 (g De um modo geral, os eventos com período em torno de 5 e 14 dias no Rio de Janeiro e em torno de 5 dias em São Paulo tiveram as maiores coerências, com índices superiores a 0,80. Discussão e Conclusão A aplicação da metodologia para preenchimento de falhas das séries gerou bons resultados, uma vez que foram preservadas as características dos sinais espectrais, especialmente para as séries de pressão atmosférica. Essa técnica mostrouse mais eficiente quando o interesse está focado nos eventos de baixa freqüência. O padrão de mau tempo típico da região estudada é a passagem de frentes frias. A origem das frentes frias que atingem o litoral sul-sudeste do Brasil é extratropical, proveniente de regiões de altas latitudes (Filippo, 1997), têm sua frontogênese associada ao gradiente de temperatura sobre o Atlântico e o campo de deformação entre as duas células subtropicais de alta pressão (anticiclone do Antártico e anticiclone do Atlântico) (Serra & Ratisbona, 1959). Estes sistemas frontais propagam-se freqüentemente ao longo da costa entre 40°S e 20°S, embora possam alcançar latitudes tão baixas quanto 13°S durante o verão no hemisfério sul (Kousky, 1979). Sistemas frontais entre as latitudes 20°S e 34°S têm média 3-6 passagens por mês ao longo do ano, correspondendo a um período de 5 a 10 dias entre as frentes. Oliveira (1986) mostrou que a freqüência de ocorrência de sistemas frontais tende a diminuir em direção ao equador e aumentar durante o inverno austral. A menor freqüência de sistemas frontais acontece em fevereiro (3 por mês) e o máximo em outubro (5 por mês). A plataforma continental do Meio-Atlântico da América do Sul é afetada por ventos de diferentes direções, como resultado da passagem de sistemas frontais e do anticiclone semi-permanente do Atlântico Sul. Stech e Lorenzzetti (1992) estabeleceram que a velocidade de deslocamento das frentes frias para o nordeste é de aproximadamente 500 km/dia. Ventos no setor quente têm uma velocidade média de 5 m/s e giram de nordeste para noroeste (giro anticiclônico) com a aproximação da frente fria. No setor frio, ventos de sudoeste têm uma velocidade média de 8 m/s e giram de sudoeste à nordeste 24 h depois de passagem de uma frente fria. 188 Pesquisa Naval Nº 16, Outubro de 2003 A elevação do nível do mar junto à costa pode ser a diversos processos como (i) o transporte de Ekman, gerado por ventos paralelos à costa, e que pode transportar água em direção a ela; (ii) ventos perpendiculares à costa empurram a água diretamente para a costa; (iii) a elevação de ondas pela ação dos ventos e outras interações de ondas transportam água para a costa, somando-se aos dois primeiros processos; (iv) ondas de Kelvin geradas por ventos se propagam ao longo da costa; (v) a baixa pressão atmosférica dentro dos centros de baixa elevam o nível do mar de 1 cm para cada decréscimo de 1 hPa na pressão pelo efeito do barômetro invertido e, finalmente, (vi) a elevação induzida por tempestade (storm surge) somado ao efeito das marés locais, principalmente as preamares das marés de sizígia, podem potencializar a ação de uma tempestade relativamente fraca (Stweart, 2002). Os resultados da análise espectral cruzada mostraram duas tendências diferentes das forçantes meteorológicas que agem na flutuação do nível do mar de cada estação avaliada. A análise dos dados da estação Ilha Fiscal, RJ, indicaram a componente meridional do vento como a forçante dominante na flutuação de baixa freqüência do nível do mar local, seguida pela componente zonal e pela pressão atmosférica. Já em Cananéia, SP, embora a componente meridional do vento também tenha se mostrado como a forçante de maior influência, a pressão atmosférica mostra-se mais atuante nas oscilações de baixa freqüência que a componente zonal do vento (Tabela 8). Embora fosse esperado que a tensão do vento atuasse como um processo mais eficiente comparada à pressão atmosférica direta (Wunsch, 1981; Castro, 1985), não foram encontradas diferenças notáveis em termos de coerência média (Tabela 8). Tabela 8 – A coerência média e desvio-padrão entre as séries das variáveis meteorológicas e a do nível do mar. Variável Pressão Atm. Wx Wy Ilha Fiscal 0,72 ± 0,08 0,73 ± 0,08 0,76 ± 0,13 As diferenças entre os resultados obtidos para as estações são, muito provavelmente, devidas às características locais tanto em termos fisiográficos, quanto climatológicos. Na área da Ilha Fiscal, no Rio de Janeiro, o litoral tem orientação E-W e, assim, a componente meridional de vento (Wy), representativa dos ventos de SWS-SE, de maior intensidade e representativos de passagens de frentes frias, é perpendicular à costa. Em Cananéia, São Paulo, o litoral é alinhado na direção SW-NE e Wy é representativa dos ventos de SE, típicos de períodos finais da passagem de frentes frias e com intensidades mais fracas. Pesquisa Naval Nº 16, Outubro de 2003 189 Agradecimentos À Diretoria de Hidrografia e Navegação - DHN pela cessão dos dados necessários para este estudo. Ao Laboratório de Modelagem de Processos Marinhos e Atmosféricos – LAMMA do Departamento de Meteorologia da UFRJ pelo apoio e amizade. Referências Ackroid, M. H. Digital Filters. London: D. W. Hill. 1973. 79 p. Brink, K. H. The effect of bottom friction on low-frequency coastal trapped waves. Journal of Physical Oceanography, v.12, n.2, p.127-133. 1982. Brink, K. H. Coastal-trapped waves and wind-driven currents over the Continental Shelf. Annual Review of Fluid Mechanics, v.23, p.389-412. 1991. Castro, B. M. Subtidal response to wind forcing in South Brazil Bight during winter. (Doctoral dissertation). University of Miami, Miami, 1985. 211 p. Castro, B. M., Miranda Luiz B. Physical Oceanography of the Western Atlantic Continental Shelf Located Between 4 N and 34 S. In: A. R. Robinson, Brink, Kenneth H. (Ed.). The Sea: John Wiley & Sons, Inc., v.11, 1998. Physical Oceanography of the Western Atlantic Continental Shelf Located Between 4 N and 34 S, p.209-251 Neves Filho, S. d. C. Variação da Maré Meteorológica no Litoral Sudeste do Brasil : 1965 - 1986. (Dissertação de Mestrado). COPPE - Coordenação dos Programas de Pós-graduação de Engenharia., Universidade Federal do Rio de Janeiro, Rio de Janeiro, 1992. 113 p. Filippo, A. M. Passagem de Frentes Frias na Baía de Guanabara, RJ - Brasil: Impacto no nível do mar. (Dissertação de Mestrado). Departamento de Geoquímica Ambiental, Universidade Federal Fluminense - UFF, Niterói, 1997. 79 p. Gill, A. E. e E. H. Schumann. Topographically Induced Changes in Structure of an Inertial Coastal Jet: Application to the Agulhas Current. Journal of Physical Oceanography, v.9, September 1979, p.975 - 991. 1979. INEMET. Normais Climatológicas: Instituto Nacional de Meteorologia. 2002 2002. Kousky, V. E. Frontal influences on northeast Brazil. Mon. Weather Rev., v.107, n.9, p.1140-1153. 1979. Middleton, G. V. Data analysis in the Earth Sciences Using MatLab. New Jersey: Prentice Hall. 2000. 260 p. Nobre, P. A Variabilidade Interanual do Atlântico Tropical e sua Influência no Clima da América do Sul. Climanálise - Boletim de Monitoramento e Análise Climática: INPE/MCT 1996. Oliveira, A. S. Interações entre sistemas frontais na América do Sul e convecção na Amazônia. (MSc. dissertation). Instituto de Peaquisas Espaciais - INPESão José dos Campos - SP, 1986. Oliveira, G. S. e P. Satyamurty. O El Niño de 1997/98: evolução e impactos no Brasil. X Congresso Brasileiro de Meteorologia. Brasília - DF. realizado de 26 a 30 de outubro de 1998, 1998. Resumos expandidos. 190 Pesquisa Naval Nº 16, Outubro de 2003 Pereira, B. D. B., M. B. Z. Pais, et al. Análise Espectral de Séries Temporais - Uma Introdução para Engenharia, Economia e Estatística. Rio de Janeiro: Arte Final Leasing Editorial. 1986. 109 p. Robinson, A. R. Continental shelf waves and the response of sea level to weather systems. Journal Geophysical Research, v.69, p.367-368. 1964. Serra, A. e L. Rastibonna. As Massas de Ar da América do Sul. Revista Geográfica do Instituto Pan-Americano de Geografia e História, v.25, n.51, Jul-Dez, p.67-129. 1959. Stech, J. L. e J. A. Lorenzzetti. The response of the South Brazil Bight to the passage of wintertime cold fronts. Journal Geophysical Research, v.97, n.C6, p.9507-9520. 1992. Stewart, R. H. Introduction To Physical Oceanography. Galveston: Texas A & M University. 2002. 350 p. The Mathworks, Inc. Matlab software. Release 12. 2000. The Mathworks, Inc.. Matlab The Language of Technical Computing 2001. Welch, P. D. The Use of Fast Fourier Transform for the Estimation of Power Spectra: A Method Based on Time Averaging Over Short, Modified Periodograms. IEEE, v.AU-15, June 1967, p.70-73. 1967. Wunsch, C. Low-Frequency Variability of the Sea. In: B. A. Warren e C. Wunsch (Ed.). Evolution of Physical Oceanography. Massachusetts: Massachusetts Institute of Technology, 1981. Low-Frequency Variability of the Sea, p.342-374 XV Capítulo O CASO DA PRAIA DO GONZAGUINHA EM SÃO VICENTE - SP PESQUISA DO TRANSPORTE DE SEDIMENTOS NA BAÍA DE SANTOS Gilberto Berzin Engenheiro Civil, Professor Titular da Faculdade de Engenharia Civil. Coordenador do Núcleo de Pesquisas Hidrodinamicas - NPH Universidade Santa Cecília –UNISANTA - [email protected] Alexandra Franciscatto P. Sampaio Engenheira Civil, Pesquisadora do NPH-UNISANTA Universidade Santa Cecília – [email protected] Resumo Até 1945 a praia do Gonzaguinha em São Vicente – SP estava em equilíbrio natural, com areia em toda sua extensão de 800 metros, pois havia reposição constante de areia transportada pelas correntes que seguem paralelas às praias de Santos até a baía de São Vicente, atravessando um trecho (tômbolo) que ligava a ilha Porchat à praia do Itararé, alagado constantemente nas marés altas, popularmente chamado de “mar casado”. Uma obra, discutível na sua concepção, permitiu o acesso à ilha Porchat por meio de uma pequena ponte, provocando a retenção de areias que em poucos anos obstruiu esta passagem. Deste modo, parte do aporte de sedimentos necessários à estabilidade da Praia do Gonzaguinha foi interrompido e a largura da faixa de areia da praia vêm diminuindo desde então. Como conseqüência, quando ocorrem marés mais altas e ressacas, o efeito das ondas tem sido devastador para as instalações junto da avenida costeira. Utilizando o MOHID - Modelo Hidrodinâmico de Circulação Oceânica, a Universidade Santa Cecília, através do Núcleo de Pesquisas Hidrodinâmicas, estudou os efeitos desta obra na circulação das correntes existentes nesta área utilizando traçadores lagrangeanos. 192 Pesquisa Naval Nº 16, Outubro de 2003 Finalmente propõe-se soluções para o caminho da recuperação da faixa de areia, pois resta apenas um pequeno trecho que retém o pouco de areia circulante. Abstract Up to 1945, the beach Gonzaguinha, in São Vicente - SP, was in natural balance, with sands in all its extension of 800 meters, as a natural continuation of beaches of the bay of Santos, having a constant replacement of sands for the currents, that came parallel bars to beaches of Santos until the bay of São Vicente, crossing a stretch who bound the Porchat island to beaches, constantly flooded in the high tides. A workmanship of I fill with earth, arguable in its conception, allowed to access to the Porchat island for a small accessible bridge for attires, provoking the sand clamping that in few years obstructed this pass. In this way it arrives in port it of necessary sediments to the stability of the Beach Gonzaguinha was interrupted and the beach was disappearing. As consequence, when of higher tides and undertows, the effect is devastator for the installations next to the coastal avenue. Using the MOHID - Hydrodynamic Model of Oceanic Circulation, the University Santa Cecília, studied the effect of the locking in existing currents, searching the path of carried solids, identifying its areas of sedimentation. One considers solutions for backup finally, therefore it remains only one small stretch that holds back little of the circulating sand. Palavras Chaves: Modelo hidrodinâmico, Correntes, Transporte, Sedimentos, Praias. Introdução Até metade do século passado, a Praia do Gonzaguinha localizada no município de São Vicente, Estado de São Paulo, com aproximadamente 800 m metros de comprimento, tinha areias em toda a sua extensão. A ilha Porchat era separada da praia com uma formação típica de um “mar casado” nas marés altas, ocorrendo união com a praia nas marés mais baixas, como se verifica na formação natural de algumas ilhas próximas às praias (tômbolo). Na “História da Marinha do Brasil”, publicada pelo seu serviço de documentação, numa interpretação do diário de bordo de Pero Lopes, feito pelo Cmt. Eugênio de Castro, diz que as embarcações menores de Martim Afonso de Souza adentraram na baía de São Vicente pelo canal localizado entre a ilha de Mude, atualmente chamada de Ilha Porchat, e as praias de São Vicente. Em diversas citações históricas e plantas existentes desde a fundação da Vila de São Vicente, constata-se que a principal comunicação do estuário de São Vicente era feito entre a ilha e a praia. Estudos oceanográficos realizados no estuário e baía de Santos ao longo de anos, indicam a existência de uma corrente de água que se desloca ao longo das praias no sentido Santos para São Vicente. Essas correntes foram estudadas utilizando o Modelo Pesquisa Naval Nº 16, Outubro de 2003 193 Hidrodinâmico de Circulação Oceânica - Mohid, pelo Núcleo de Pesquisa Hidrodinâmicas da UNISANTA. Todas as praias, em geral, tendem a um equilíbrio dinâmico, ou seja, todo o material que sai transportado pelas correntes tende a ser reposto, porém a capacidade de romper com este equilíbrio com obras mal planejadas é verificada em todo o mundo. Foi o que aconteceu em São Vicente. Uma obra de ligação por meio de aterros nas duas extremidades unidos por uma pequena ponte (ainda existente e enterrada na areia), entre a ilha Porchat e a praia do Itararé, para a instalação de um antigo cassino na ilha em décadas passadas, provocou o bloqueio das correntes existentes ao longo das praias de Santos que transportam naturalmente as areias que chegavam a Praia do Gonzaguinha por este trecho. Com a interrupção desta passagem, parte deste material passou a se acumular no canto oeste da praia do Itararé, aterrando-a e engordando-a até atingir a atual dimensão. Deste modo a praia do Gonzaguinha que ficou sem esta parcela de reposição de areia, vem sendo erodida pelas correntes locais que transportam o material erodido em direção ao canal dos Barreiros (área interna do estuário de SV) e para a baía de Santos. O que resta hoje no Gonzaguinha é um pequeno trecho na face oeste da praia que retém um pouco da areia circulante, devido ao morro dos Barbosas. Na figura 1 visualiza-se as principais referencias citadas e na figura 2, trecho da carta náutica da Marinha do Brasil de 1937, com a configuração da região antes do impacto da obra de ligação entre a Ilha Porchat e a praia do Itararé em São Vicente. Figura 1 - Foto aérea da área em estudo - São Vicente/SP. 194 Pesquisa Naval Nº 16, Outubro de 2003 Figura 2 – Trecho da carta náutica da Marinha do Brasil de 1937. Metodologia da Modelagem No XII SBRH – Simpósio Brasileiro de Recursos Hídricos, dez/99, realizado em Belo Horizonte, foi apresentado a técnica de modelagem hidrodinâmica MOHID, na qual apoiam-se os estudos realizados e apresentados no presente trabalho. Em resumo, os modelos hidrodinâmicos tiveram um grande impulso com o advento da informática, onde equações diferenciais puderam ser resolvidas com rapidez pelos micros computadores. Os caros modelos físicos reduzidos de áreas costeiras, que exigiam complexos equipamentos geradores de marés e ondas, e outros, estão sendo em muitos casos substituídos por modelos hidrodinâmicos computacionais. Os prazos e custos diretos tornaram-se então muito menores. Num monitor, pode-se acompanhar a evolução das correntes e seus efeitos, além de possibilitar produzir rapidamente relatórios técnicos pormenorizados. Pesquisa Naval Nº 16, Outubro de 2003 195 I: O trabalho de Berzin et all (1997) ressalta que as técnicas de modelação matemática já começavam estar disponíveis comercialmente, permitindo o apoio aos projetos de obras de engenharia costeira, aos estudos de impacto ambiental, bem como para a gestão do meio estuarino e costeiro. Principais estudos resultantes: - Comportamento hidrodinâmico de áreas estuarinas e costeiras, principalmente para os estudos de obras em zonas portuárias. - Estudo das correntes provenientes de marés, ventos e ondas. - Variação dos níveis de maré, identificação de áreas alagadas. - Posicionamento adequado de emissários submarinos. - Dispersão de poluentes - Evolução de manchas de poluição provocadas por lançamentos submarinos de esgotos e/ou resíduos industriais; vazamentos de derivados de petróleo, granéis e outros materiais. - Estudo das zonas de erosão e sedimentação em praias, canais, bacias de evolução e zonas de atracação portuárias. - Pesquisa de locais adequados na zona oceânica para o lançamento de material de dragagem de áreas portuárias. Técnica da Modelação Hidrodinâmica A modelação hidrodinâmica de estuários e zonas costeiras sujeitas à ação da maré conheceu nas duas últimas décadas uma grande evolução como já foi dito, sendo atualmente prática corrente, quer para a simples caracterização da circulação, quer como ferramenta de base para o planejamento e gestão de sistemas costeiros. Os modelos bidimensionais integrados na vertical são os mais divulgados e atualmente são processados em boas condições por microcomputadores. Alguns destes modelos foram objeto de trabalho de sistematização, tornando-os facilmente utilizáveis tecnicamente, independente daqueles que os desenvolveram. Os modelos tridimensionais já vêm atingindo o nível de operacionalidade dos bidimensionais. Essa operacionalidade depende da evolução da capacidade de cálculo das máquinas e do desenvolvimento científico em curso. Modelação do Estuário de Santos / São Vicente A simulação da hidrodinâmica do Estuário de Santos foi feita inicialmente com base no modelo MOHID-2D e atualmente já se trabalha com o MOHID-3D. O modelo hidrodinâmico bidimensional e integrado na vertical simula a circulação de marés em 196 Pesquisa Naval Nº 16, Outubro de 2003 estuários e zonas costeiras. O sistema Mohid começou por ser desenvolvido para o Estuário do Sado, em Portugal, por Neves (1985), e desde então têm sido adicionados diversos módulos de cálculo (advecção - difusão, sedimentos, qualidade da água, temperatura,...) facilitando sua utilização e dando confiabilidade aos arquivos de dados e processamento de resultados. O MOHID2D visualizado nas simulações a seguir utiliza o método das diferenças finitas, permitindo incluir trechos unidimensionais acoplados ao modelo bidimensional, facilitando deste modo a imposição das condições aos limites. Na fronteira com o oceano é imposta a elevação da superfície livre, obtida a partir das componentes de maré ou de uma série temporal de níveis. Nas fronteiras fluviais, é imposta uma contribuição de vazão média em função do tempo. Todo estuário é uma zona complexa em termos hidrodinâmicos, pela interação de distintas condicionantes: maré, vazões dos rios afluentes, agitação marítima e vento. O estuário de Santos recebe a contribuição de vários rios das vertentes da Serra do Mar, desde 700 m de altura, possuindo vazões médias constantes durante as estações do ano, que influenciados pelo regime de chuvas intensas caídas na serra, atingindo em média 3.000 mm anuais, provocam o arraste de material sedimentável para as áreas de influência no estuário, principalmente nos canais dragados para a navegação interior. O vento e a agitação incidente também são considerados, pois podem influenciar a circulação da maré no interior do Estuário ocasionando uma variação do nível médio por efeito de compartimentação. A modelação matemática da região seguiu os seguintes passos fundamentais: 1 - Levantamento de dados de base existentes 2 - Campanhas de medidas. 3 - Tratamento espacial das informações obtidas. 4 - Estabelecimento e calibração do modelo matemático, baseado nos dados obtidos. 5 - Processamento, análise e interpretação dos resultados. Principais atividades desenvolvidas por seqüência de execução: - Batimetria - Níveis e Correntes - Salinidade, Temperatura e Sedimentos em suspensão - Granulometria do fundo. - Geração de malhas. - Alterações de níveis médios devido ao vento - Calibração de níveis . - Calibração de velocidades . Pesquisa Naval Nº 16, Outubro de 2003 197 Caracterização hidrodinâmica do Estuário de Santos / São Vicente Foi obtido por meio de resultados de níveis de maré, nível médio, atrasos de fase de preamar e baixa-mar e amplitudes da maré num período de sizígia e quadratura em locais representativos das várias zonas do Estuário, resultados das vazões e volumes acumulados em várias seções de interesse; plantas de níveis, velocidades instantâneas, velocidades residuais e vazões residuais em todo o Estuário, representando várias situações ao longo do ciclo da maré; estimativas das taxas de renovação da água por zonas de influência. Definiram-se também zonas com características homogêneas no estuário, para estimar a forma como essas interagem entre si e com a zona exterior. Utilizando a metodologia lagrangeana, é possível acompanhar toda a circulação da água presente em determinado instante no Estuário, obtendo-se assim uma estimativa das taxas de renovação da água por ciclo de maré em cada zona. Simulações e Estudos de Circulação na Área Estudos oceanográficos já realizados no estuário e baía de Santos ao longo de muitos anos, indicam uma corrente de água, que se desloca ao longo das praias, e que transportam a areia no sentido da Ponta da Praia em Santos para as Praias de São Vicente. Essas correntes podem ser visualizadas através do modelo de circulação oceânica no presente trabalho. Com a construção no meio do século passado do conjunto aterro/ponte citado anteriormente, parte das areias transportadas pelas correntes e bloqueadas pela obra, estão sedimentando na face oeste da praia do Itararé. Uma pequena parcela deste material ainda pode em algumas situações acompanhar a corrente que contorna a ilha Porchat pelo lado do mar, e depositar-se na chamada Garganta do Diabo, no canal de São Vicente, entre a ilha Porchat e o continente, aonde existe um banco de areia (fig.03) e constata-se devido a pouca profundidade, a formação de arrebentação de ondas perigosas para a navegação local. 198 Pesquisa Naval Nº 16, Outubro de 2003 Figura 3 – Foto aérea da situação atual No estudo feito com o Mohid-2D e 3D, para a calibração das correntes na baía de Santos foram utilizados principalmente os resultados de campo obtidos por Agudo et al. (1976), nos estudos de difusão turbulenta na costa com técnicas radioisotópicas. Utilizando a modelagem com o cuidado especial de considerar todos os parâmetros atuantes na área, foi possível simular condições específicas de circulação das correntes e do arraste de sedimentos na área da baía de Santos, comprovando os estudos já existentes e obtidos em campanhas oceanográficas anteriores, como as descritas pela SONDOTECNICA (1978) e por Bandeira et al. (1981). Além de simular a circulação das correntes atuantes na área em estudo, utilizando o módulo de traçadores lagrangeanos é possível verificar sua trajetória na situação com a passagem aberta, situação natural (tômbolo), entre ilha Porchat e as Praias (situação 2), em condições de maré vazante e enchente, na sizígia, comparativamente à situação atual do local (situação 1), ou seja, após a obstrução da passagem das correntes pela obra existente. Não foi considerado o efeito de vento e ondas que intensificam o transporte de sedimentos. Para a hidrodinâmica consideramos apenas a circulação devido a maré. Nestas simulações manteve-se as mesmas condições para as 2 situações, de modo a permitir uma comparação dos resultados. Pesquisa Naval Nº 16, Outubro de 2003 199 A seguir apresentam-se algumas figuras das simulações efetuadas. Figura 04 – Simulação da velocidade das correntes: Situação 1-atual. Figura 05 – Simulação utilizando traçadores lagrangeanos: Situação 1-atual. 200 Pesquisa Naval Nº 16, Outubro de 2003 Figura 06–Simulação da velocidade das correntes - Situação 2 - natural, anterior à obra. Figura 07-Simulação utilizando traçadores lagrangeanos-Situação 2 - natural, anterior à obra. Pesquisa Naval Nº 16, Outubro de 2003 201 Verifica-se na figura 04 as baixas velocidades das correntes existentes atualmente e que favorecem um maior acúmulo de areia na face oeste da praia do Itararé bem como nas praias de Santos, condição que antes do fechamento da passagem não ocorreria com tanta intensidade (fig.06). As simulações foram realizadas considerando o mesmo dia e horário, em condição de sizígia. Na situação 2, observa-se que os módulos das velocidades entre a ilha e a praia atingem os mesmos valores daqueles obtidos na Garganta do Diabo, logo, nesta situação, a corrente transportando o sedimento percorreria este trecho já com alguma perda de carga, até atingir a baía de São Vicente e vindo a depositar-se na face praial do Gonzaguinha devido às baixas velocidades que ali se encontram (fig.06). Utilizando traçadores lagrangeanos para as duas situações, figuras 05 e 07, foram eliminadas as cores das correntes, deixando apenas o seu módulo, para facilitar a visualização dos traçadores. Observa-se na situação 1, figura 05, que após um período de maré vazante e início de enchente, houve espalhamento dos traçadores vermelhos na baía de Santos, que não conseguem chegar à baía de São Vicente pelo canal de São Vicente neste período. Uma fração dos traçadores em azul seguem em direção à baía de Santos, outra parcele segue para o interior do estuário de SV, e uma tende a permanecer na face oeste da praia devido à retenção natural do Morro dos Barbosas. A corrente que contorna a ilha pelo lado de fora e segue para o único acesso à baía de SV provavelmente tem capacidade de transportar apenas o material mais fino, que pode por perda de carga devido a diminuição da velocidade das correntes, após o afunilamento da Garganta do Diabo, ter alguma probabilidade de depositar-se no banco de areia em frente a praia de Paranapuã, porém seria uma fração muito pequena. Na figura 07, situação 2, os traçadores indicam o sentido que o material transportado pelas correntes de Santos para São Vicente teriam. Vindo de encontro aos registros históricos levantados, eles atingiriam a praia do Gonzaguinha, onde devido às baixas velocidades se depositariam, cumprindo deste modo para a manutenção da faixa de areia ali existente. Metodologia de Recuperação Deve-se ressaltar, que ao longo dos anos tentou-se recuperar as praias utilizando obras sem o devido diagnóstico e compreensão da interação dos fenômenos de circulação oceânica existentes na área. Para tentar reter a areia, construiu-se espigões de pedras (fig. 08), que apesar de bem intencionados, pouco efeito produziram, pois além da pouca areia existente para reposição, sua construção não contou com a observância de parâmetros que definissem as exigências de posicionamento, espaçamento entre eles e inclinação dos taludes. Enfim eles não são capazes de a pequena fração de material que circula na baía e recuperar a praia. 202 Pesquisa Naval Nº 16, Outubro de 2003 Figura 08 - Detalhe da pequena quantidade de areia acumulada nos espigões construídos Foram estudadas as seguintes soluções possíveis: 1ª) Retorno às condições naturais, mantendo o acesso a ilha: - Remoção de todo o aterro e ponte antiga existente. Construção de nova ponte sobre pilares (sem aterros de cabeceira), ao lado do atual aterro formado. - Dragagem das áreas, permitindo a circulação das correntes por baixo da nova ponte, que transportam o material areia para as praias da baía de São Vicente. Prazo previsto para recuperação de 50% das praias é de 6 anos, obtido por um estudo da Capitania de Postos do Estado de São Paulo. Esta solução tem o inconveniente de exigir custos elevados devido à construção da nova ponte e serviço de dragagem a ser muito bem estudado e planejado, além da remoção das instalações de um Clube construídas posteriormente ao engordamento do canto oeste da praia do Itararé por acúmulo de areia. Pesquisa Naval Nº 16, Outubro de 2003 203 2ª) Reconstruir os espigões e aterrar utilizando o material do banco de areia - Estudos pormenorizados das correntes internas no Mar Pequeno utilizando o Modelo Hidrodinâmico de Circulação Oceânica, para avaliação dos melhores pontos onde se efetuar as construções dos espigões e seus detalhes técnicos. - Reconstrução dos espigões existentes, adequando-os aos projetados, utilizando os enrocamentos de pedras e alterando-os quando necessário. - Dragagem do banco de areia utilizando tubulações para o lançamento do material dragado junto aos espigões, que servirão para reter o material lançado e o que circula na baía de SV, evitando a assim a erosão continuada da praia. Técnica a ser utilizada com muito cuidado. O custo desta solução em relação à primeira deve ser muito significativa, incluindo os estudos da hidrodinâmicos, construção dos espigões e dragagem do banco de areia. A recuperação e construção dos espigões têm prazo aproximado de 04 meses, e a dragagem pode ser iniciada quando o primeiro espigão estiver construído, sem necessidade de esperar a conclusão de todos. Recomendações O caso da praia do Gonzaguinha requer um estudo hidrodinâmico global da região, apoiado por simulações bem detalhadas, considerando os efeitos das frentes meteorológicas na circulação das correntes e de ondas, através de campanhas de medidas. O objetivo é obter um diagnóstico detalhado da situação de recuperação, visando o perfeito dimensionamento das obras propostas. A calibração da modelagem deve ser feita com os resultados obtidos das campanhas meteo-oceanográficas na área específica e com um levantamento atual da batimetria da região, pois o pequeno volume de informações das cartas náuticas mais recentes da Marinha para a área de São Vicente, exigem a necessidade da realização de uma batimetria de malha fina de toda área. Conclusão O objetivo proposto no trabalho é avaliar os resultados obtidos na simulação da circulação das correntes nas duas diferentes situações: com acirculação interrompida pelo aterro e não, utilizando o modelo hidrodinâmico – MOHID 2D, com os registros históricos, estudos realizados no campo e fotos aéreas existentes da região. A modelagem matemática é uma ferramenta de grande valor a ser utilizada para simular os fenômenos ligados a circulação oceânica junto à costa, pois uma vez estabelecida, além de auxiliar nas pesquisas das causas decorrentes das modificações da linha de costa, vem possibilitar o estudo detalhado com boa precisão para a tomada de decisões de soluções a serem implantadas. 204 Pesquisa Naval Nº 16, Outubro de 2003 Bibliografia AGUDO, E. G., et al, ( 1976 ) “Estudos de difusão turbulenta na costa do Guarujá, São Paulo, Por Meio de Técnicas Radioisotópicas”, Instituto de Energia Atômica, São Paulo. BANDEIRA, J.V. et al, – “Estudo do Comportamento dos Sedimentos de Fundo na Baía de Santos”, Divisão de Engenharia Ambiental – CDTN - NUCLEOBRÁS – 1981. BERZIN, G. ( 1991) “Monitoring of the Santos Submarine Out Fall, 10 Years of Operation” -International Specialized Conference on Marine Disposal Systems - Anais. Lisboa - Portugal. IAWPRC: v.1,p.31-45. BERZIN, G., NEVES, R. J. J. & LEITÃO, J. C., ( 1997 ) “Modelação Matemática no Estuário de Santos e sua Importância nas Atividades Portuárias”- Anais do XII ENEP - Encontro Nacional de Entidades Portuárias - Guarujá - SP. PORTELA, L. e NEVES, R. - ( 1.994 ) “Numerical Modelling Suspended Sediment Transport in Estuaries: a Comparison Between the Tagus (Portugal) and the Scheldt (The Netherlands)”. Netherlands Journal of Aquatic Ecology, 28, pp. 329-335. SONDOTÉCNICA –1978 – “Análise do Relatório do Comportamento Hidráulico e Sedimentológico do Estuário Santista” – Cia Docas de Santos. XVI Capítulo CARACTERIZAÇÃO TERMOHALINA DA REGIÃO NORTE DO BRASIL DANIELLE SARA CORREIA ALVES Oceanógrafo_ Universidade do Estado do Rio de Janeiro 1º Ten T MARCIA HELENA MOREIRA VALENTE Mestre em Oceanografia pela Universidade de São Paulo Seção de Dados Oceanográficos _ Centro de Hidrografia da Marinha Resumo A Seção de Dados Oceanográficos do Centro de Hidrografia da Marinha vem elaborando trabalhos visando caracterizar o comportamento dos parâmetros físicos da água do mar (temperatura, salinidade e correntes), e definir configurações médias para estes parâmetros, importantes para o apoio às operações navais e atividades correlatas como previsão meteorológica e oceanográfica. Para tal são utilizados dados adquiridos durante as comissões integrantes do programa OCEANO, que, após sofrerem processos de validação e análise nesta Seção, são armazenados no BNDO (Banco Nacional de Dados Oceanográficos). O presente trabalho se constitui no desenvolvimento de um estudo iniciado em 2001, cujos resultados preliminares se traduziram nos primeiros procedimentos para definição de uma máscara T-S da região norte brasileira, apresentados nos Anais Hidrográficos de 2001 (Alves & Valente,2001). Seguindo o mesmo objetivo, serão apresentados diagramas T-S, elaborados para a plataforma norte do Brasil e região oceânica adjacente. Abstract The Hidrography Center of the Navy (CHM_Centro de Hidrografia da Marinha) has been working to characterize the behaviour of the physical properties of the seawater (temperature, salinity and currents) and define their medians, which are important for the naval operations and ativities such as meteorological and oceanographical predictions. The utilized data are from the Oceanographic 206 Pesquisa Naval Nº 16, Outubro de 2003 Comissions of the OCEANO Program, these data are analized in the Oceanographic Data Section and stored in the BNDO (Banco Nacional de Dados Oceanográficos). This paper continues the work initiated in 2001, whose first results are the principles to create a TS mask of the Brazilian Northern Region (Alves&Valente, 2001). In this paper, we present TS diagrams, for the Northern Brazilian Shelf and its next-to oceanic region. 1. INTRODUÇÃO A definição da máscara T-S de uma região é uma ferramenta fundamental para o planejamento das operações navais e caracterização da sua circulação termohalina. Estabelece-se uma máscara T-S considerando-se que os parâmetros temperatura e salinidade são conservativos. Desta forma, as massas d’água de grandes regiões oceânicas apresentam índices termohalinos característicos obtidos graficamente a partir dos chamados diagramas de estado ou simplesmente curvas T-S. Quando uma massa d’água se distancia de seu local de origem ela começa a perder as suas características, se misturando com outras massas que atravessam seu caminho. Normalmente como as massas são originadas em regiões polares, elas se aquecem ao longo do seu percurso, variando sua densidade, e consequentemente seu posicionamento na coluna d’água. Este trabalho tem como objetivo apresentar curvas T-S espalhadas, dividindoas em áreas de plataforma e oceânicas, sob influência ou não da foz do rio Amazonas. As curvas foram comparadas com índices existentes na bibliografia, identificando assim as massas d’água presentes. Além disso, pretende-se ainda discutir a sazonalidade dos parâmetros físicos na região em estudo. Tais procedimentos determinam a metodologia para confecção da máscara T-S da Costa Norte, cujos primeiros desenvolvimentos se encontram detalhados em Alves&Valente (2001). 2. A REGIÃO ESTUDADA A costa Norte Brasileira, compreendida entre a foz do Rio Parnaíba e a fronteira marítima com a Guiana Francesa, possui características ímpares. A sua singularidade deve-se principalmente à influência da descarga do Rio Amazonas, o maior curso de água doce em volume do mundo. De fato, a sua vazão se constitui em 18% de toda a água doce da Terra (Oltman, 1968). A pluma de água com baixa densidade formada pela descarga do Rio Amazonas apresenta uma extensão de centenas de quilômetros em direção ao mar aberto, penetrando pelo Oceano Atlântico Norte. Devido à sua localização em baixas latitudes, não se podem caracterizar estações do ano bem definidas nesta região; deve antes ser considerada a existência de uma estação seca e outra chuvosa, determinada pelo deslocamento meridional da Zona de Convergência Intertropical (ZCIT). Os principais fatores influentes na dinâmica oceanográfica da região são a variação sazonal do fluxo do Amazonas e, mais Pesquisa Naval Nº 16, Outubro de 2003 207 externamente, a Corrente Norte do Brasil (CNB), que arrasta as águas sobre a plataforma externa e o talude em direção a noroeste, acompanhando o norte da América do Sul. Nos meses de abril a junho ocorre a descarga máxima do Rio Amazonas; no período entre outubro e início de janeiro (estação seca), é registrada uma menor influência da água doce proveniente do rio. Em 1995, Linhares utilizou dados coletados em estações realizadas em profundidades locais maiores que 30m, identificando através dos mesmos as seguintes massas de água na Plataforma Continental Amazônica: Água do Rio (AR), Água Oceânica Sub-Superficial (AOSS) e Água Central do Atlântico Sul (ACAS). O diagrama T-S apresenta uma estrutura triangular, sendo a AR definida pelo vértice menos salino e mais quente, o vértice mais salino caracterizando a AOSS e o mais frio a ACAS. A Água do Rio é proveniente da descarga do Rio Amazonas, com a salinidade variando de 0 a 12 PSU, enquanto que a temperatura é relativamente mais constante (27º C – 30º C). O índice termohalino da AOSS é 36.3 PSU, 28.5 ºC e o da ACAS 34.4 PSU, 5.1 ºC. (Linhares, 1995). Em regiões rasas (compreendidas entre as isóbatas de 10m e 20m), Curtin (1986), apud Linhares (1995), identificou, outra massa não mencionada anteriormente, a Água Superficial de Alta Temperatura (ASAT), com temperatura oscilando entre 29.1ºC e 30.3ºC, e salinidades entre 9.0 e 34.0 PSU. Entre a costa e a isóbata de 30 m a temperatura é elevada (27º C – 30 º C), diminuindo em direção ao largo. Em uma faixa de profundidade que se estende de 200m a 700m, se constata a existência da termoclina permanente, demonstrando o predomínio da ACAS (Curtin, 1986). 3. METODOLOGIA Os dados apresentados neste trabalho foram adquiridos em três comissões oceanográficas realizadas pelo Navio Oceanográfico ANTARES, subordinado à Diretoria de Hidrografia e Navegação da Marinha do Brasil. Tais dados consistem em perfis de temperatura, salinidade e pressão. As comissões foram selecionadas de acordo com a época do ano de sua realização, de modo a ser possível o estudo da sazonalidade dos processos oceanográficos na área em questão. Comissão REVIZEE NORTE I REVIZEE NORTE II REVIZEE NORTE IV/ /OCEANO NORTE I Estações realizadas 203 154 147 Época de Coleta F março a maio de 1995 v setembro a dezembro de 1997 julho a setembro de 2001 de desc 208 Pesquisa Naval Nº 16, Outubro de 2003 Os dados de temperatura e salinidade foram reprocessados e filtrados com o auxílio do pacote Seasoft e rotinas Matlab. Devido à longa duração de cada comissão (aproximadamente 3 meses),e por forma a obter uma condição o mais sinótica possível, a região amostrada foi separada em quatro áreas, acompanhando o cronograma da coleta durante as pernadas realizadas (Figura 1). Além disso, foram confeccionados diagramas TxS em separado para a região de plataforma (sob influência direta da descarga do Amazonas, até a isóbata de 200 metros), e para a área mais externa e de características oceânicas (além da isóbata de 200 metros). Figura 1 - Área Estudada 4. RESULTADOS Os dados coletados em cada uma das três comissões foram separados pelas quatro áreas (A a D), bem como segundo as regiões plataforma/oceânica. Assim, para cada época do ano correspondente a uma comissão, foram gerados 4 Pesquisa Naval Nº 16, Outubro de 2003 209 diagramas T-S para a região de plataforma e 4 diagramas para a região oceânica adjacente a cada uma das áreas. A – PLATAFORMA AMAZÔNICA (ATÉ A ISÓBATA DE 200 METROS) A análise dos diagramas T-S foi realizada seguindo o padrão das áreas A a D (Fig.1). A região de plataforma, estando sob a influência direta da descarga do Rio Amazonas, apresenta maior variabilidade sazonal da salinidade em função do volume de água doce presente. Na comissão de transição, foram realizadas 3 estações mais internas, localizadas ainda no estuário, antes da isóbata de 30 metros, cujos valores de salinidade oscilaram entre 0 a 5 psu. À exceção destes, os valores de salinidade registrados durante a descarga máxima são os mais baixos de modo geral para toda a região em consideração, como esperado. No entanto, na área A, localizada a noroeste da foz do Amazonas, durante a época de transição, foram registrados valores menores de salinidade em relação ao período de descarga máxima, como se apresenta na figura 2. Fig. 2 Diagrama TS para área A, durante a descarga (esq.) e transição (direita). A área B é constituída pelos perfis adjacentes à foz do Amazonas, tendo como limites a Barra Norte e a Barra Sul, apresentando marcante influência estuarina. Ressalta-se a existência, em 2001, de registros de salinidade que atingem 0 PSU, que, embora quantitativamente tratam-se de apenas duas estações, indicam a presença de água doce principalmente nas profundidades inferiores a 30 metros. Isto não ocorre com os dados de 1995, quando estas estações tão rasas não foram realizadas, e consequentemente a salinidade registrada se mantém próxima de 28-29 PSU. Se forem retirados os pontos T-S, obtidos nestas duas estações costeiras coletadas em 2001, os diagramas de 1995 e de 2001 tornam-se bastante semelhantes, com as salinidades mais baixas em 1995. (Alves & Valente, 2001). Em contrapartida, na descarga mínima, como esperado, os valores de salinidade são maiores, como se observa na figura 3. nte 210 Pesquisa Naval Nº 16, Outubro de 2003 Fig. 3- Diagramas TS relativos à Área B, 95-fluxo max. (esq.) e 97-fluxo min. (dir.). Na área C, por outro lado, é bem evidente a presença da água doce, registrando portanto os menores valores de salinidade durante a descarga máxima, com a salinidade aumentando Durante a descarga mínima, a salinidade apresenta apenas valores superiores a 35 PSU. Observa-se portanto nesta região a variação da salinidade em razão inversa do fluxo de água doce. Fig.4- Diagramas TS para a área C, durante a descarga máxima (esq) e descarga mínima (inferior) Finalmente, na área D, mais afastada da foz do Amazonas, a influência da água doce é menor, porém, durante a descarga máxima, ainda é expressiva, reduzindo a salinidade para valores da ordem de 29 PSU. Durante a época de transição e de descarga mínima, os valores registrados são superiores, atingindo 37 PSU (Fig.5). Pesquisa Naval Nº 16, Outubro de 2003 211 Fig. 5 Diagramas TS relativos à área D (plataforma), 95 (esq.) e 97 (dir.). A tabela 1 tem como função sintetizar os valores mínimos e máximos encontrados sobre a plataforma nos períodos de descarga máxima, transição e descarga mínima. Tabela 1- valores máximos e mínimos de T (em ºC)e S (em PSU) sobre a plataforma T(d.max,1995) S(d.max,1995) T(trans,2001) S(trans,2001) T(d.mín,1997) S(d.mín,1997) Área A 23.05-28.0 29.85-36.70 15.11-28.5 12.69-36.5 19.26-28.77 24.84-36.41 Área B 23.06-27.83 27.8-36.4 24.98-29.0 0-36.4 13.82-28.87 29.27-37.13 Área C 22.7-28.3 9.12-36.07 26.83-28.6 32.43-36.4 26.52-28.58 36.2-37.27 B – REGIÃO OCEÂNICA (ALÉM DA ISÓBATA DE 200 METROS) Além da quebra da plataforma, a principal feição dinâmica é a Corrente Norte do Brasil, que flui para noroeste com velocidade de até 75 cm/s (Milliman et al, 1975). Deste modo, a pluma de água com baixa salinidade proveniente da foz do Amazonas é arrastada em direção a noroeste. 212 Pesquisa Naval Nº 16, Outubro de 2003 Fig. 6- Diagramas TS relativos à Área A, 95 (esq.) e 97(dir.) Fig. 7- Diagramas TS relativos às Áreas B, (esq.) eD (dir.), na transição (2001). È possível constatar a existência de água de descarga continental, representada pelos valores de menores salinidades e temperaturas mais elevadas, na porção superior esquerda do diagrama. A feição mais expressiva, no entanto, é a curva comum a todos os diagramas, que compreende os pontos representativos da ACAS, AIA (Água Intermediária Antarctica), e nas estações mais profundas, até da APAN (Água Profunda do Atlântico Norte), que engloba os valores de mais alta densidade, como identificado eriormente de base para a criação do gabarito. Pesquisa Naval Nº 16, Outubro de 2003 213 Fig. 8 - Diagramas TS relativos à Área D, 95 (esq.) e 97 (dir.) A tabela 2 apresenta os valores máximos e mínimos de temperatura e salinidade encontrados na região oceânica de cada uma das quatro áreas. Tabela 2-Valores máximos e mínimos de T e S para as Áreas A a D (além da isóbata de 200m). T em ºC; S em PSU A seguir, apresentam-se os diagramas TS com os dados oceânicos das três comissões analisadas, para cada área (A a D), onde estão representados: -em vermelho, os dados do período de descarga máxima; -em azul, o período de descarga mínima; -em magenta, os dados da época de transição. 214 Pesquisa Naval Nº 16, Outubro de 2003 5. DISCUSSÃO Como apresentado em Alves & Valente (2001), os resultados mostraram que a variabilidade dos diagramas T-S depende principalmente da proximidade à foz do Rio Amazonas. As estações mais próximas da foz da Barra Norte apresentaram os valores mínimos de salinidade. Os mínimos de temperatura foram verificados nas estações oceânicas ao norte do delta do Rio Amazonas (Área B) e na área D, mais ao sul da plataforma norte brasileira; os máximos se localizaram nas proximidades da foz do Rio. Os máximos de salinidade, conforme o previsto, foram obtidos na época de descarga mínima, para todas as áreas; por outro lado os mínimos, para a descarga transicional, se localizaram a noroeste da região, e durante a descarga máxima foram encontrados na área central. Pode-se inferir a influência da Corrente Norte do Brasil, transportando a pluma de baixa densidade para noroeste, durante a transição do Rio; enquanto que na descarga máxima o maior volume de água doce permanece durante mais tempo retido Pesquisa Naval Nº 16, Outubro de 2003 215 na área central da plataforma. Para além da isóbata de 200 metros, é durante a descarga máxima que se obtêm os menores valores de salinidade, a noroeste da região. De fato, comparativamente à região de plataforma, além da isóbata de 200 metros a influência de água do rio é bem menos significativa. Os diagramas TS apresentados revelam a presença de diversas massas d’água na região oceânica norte brasileira, cuja amostragem é função da profundidade de coleta. Foram encontradas, além das águas mais superficiais (AOSS e ACAS), a AIA e a APAN. Deve-se ainda salientar o fato de que nos diagramas é também visível a mistura desta última com a água mais densa dos oceanos, a Água Antártica de Fundo (AAF) a maiores profundidades. 6. FUTUROS DESENVOLVIMENTOS Espera-se na continuação deste trabalho proceder à inclusão de dados coletados durante o verão, bem como de perfis verticais de mistura, de forma a ser possível uma visualização, em corte, da disposição das diferentes massas d’água e de possíveis flutuações sazonais. Além disso, com a análise de mais comissões, pretende –se comparar os índices obtidos com os existentes na bibliografia, e deste modo confeccionar um gabarito final de massas d ‘água para a região oceânica norte brasileira. 7. BIBLIOGRAFIA ALVES, D. & VALENTE, M.H., 2001 - Primeiros Desenvolvimentos para Definição da Máscara TS na Região Norte Brasileira. Anais Hidrográficos 2001, tomo LVIII, p117-127. Diretoria de Hidrografia e Navegação, Niterói, RJ. CASTRO, M. C. T., 2000 – Relatório de Análise de Comissão Oceanográfica (Revizee Norte III). Arquivo Técnico, Centro de Hidrografia da Marinha, Diretoria de Hidrografia e Navegação. Niterói (RJ), 35 p. CURTIN, T.B., 1986 – Physical Observations in the Plume Region of the Amazon River during Peak Discharge_Water Masses. Cont. Shelf Res., 6, 53-71. LINHARES, V. P., 1995 – Circulação e Massas de Água na Plataforma Continental Externa Amazônica. Dissertação de Mestrado, Instituto Oceanográfico da Universidade de São Paulo. São Paulo, 191 p. MILLER, A. R., 1950 – A study of mixing processes over the edge of the continental shelf. J. Mar. Res., 9(2):145-160. MILLIMAN, J.D.; SUMMERHAYES, C.P.; BARRETO, H.P., 1975 – Oceanography and suspended matter of the Amazon River, February-March 1973. Journal of Sedimentary Petrology, 45: 189-206. OLTMAN, R.E., 1968 – Reconaissance investigations of the discharge and water quality of the Amazon River. U.S. Geological Survey, circular 552, 16pp. Fig.2 – Diagrama TS para a área A, durante a descarga máxima(esq.) e transição (direita). 216 Pesquisa Naval Nº 16, Outubro de 2003 INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULO MOREIRA (IEAPM) Na condição de órgão da Marinha do Brasil responsável pelas atividades de C&T na área de Oceanográfia e Engenharia Oceânica, o IEAPM tem por propósito contribuir para a obtenção de modelos, métodos, sistemas, equipamentos, materiais e técnicas que permitam o melhor conhecimento e a eficaz utilização do meio ambiente marinho, no interesse da MB. Para consecução desse propósito compete ao IEAPM planejar e executar atividades de pesquisa e desenvolvimento científico e tecnológico nas áreas de Oceanografia, Meteorologia, Hidrografia, Geologia e Geofísica Marinhas, Instrumentação Oceanográfica, Acústica Submarina e Engenharia Costeira e Oceânica. A missão do IEAPM é decorrente do reconhecimento das Marinhas modernas de que o conhecimento do ambiente em que operam é indispensável para aumentar a eficácia de seu desempenho, principalmente em face da modernização dos meios flutuantes, dotados com sistemas e equipamentos extremamente sensíveis e dispendiosos. O IEAPM vem realizando diversos projetos de importância para o desenvolvimento científico da Marinha do Brasil, destacando-se: • BIOINCRUSTAÇÃO E CORROSÃO MARINHAS • MONITORAMENTO DO AMBIENTE MARINHO • LEVANTAMENTO DOS RECURSOS VIVOS MARINHOS • MAPEAMENTO FACIOLÓGICO • INTERAÇÃO DO AMBIENTE MARINHO COM MEIOS FLUTUANTES • • • • E ESTRUTURAS MODELAGEM DOS ESCOAMENTOS HIDRODINÂMICOS MEDIÇÃO E PROCESSAMENTO DE PARÂMETROS DO MEIO AMBIENTE MARINHO PROJETO SISPRES PROGRAMA DE MENTALIDADE MARÍTIMA IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ E-mail: [email protected] Telefone: 22-2622-9000 XVII Capítulo Modelagem de Equações Estruturais na Melhoria da Gestão Capitão-de-Corveta (T) Sérgio Luís Dutra de Lamare, M.Sc. Mestre em Ciências em Engenharia de Sistemas e Computação, IME Graduado em Engenharia de Sistemas e Computação, UERJ Administração de Empresas, UFRJ Centro de Análises de Sistemas Navais, Praça Barão de Ladário s/n, Ilha das Cobras Ed. 8 do AMRJ 3° andar, CEP 20091-000 Rio de Janeiro – RJ e-mail : [email protected] , [email protected] Abstract Structural Equations Modeling (SEM) is a statistical technique that combines multiple regressions and factor analysis in the simultaneous estimation of cause and effect relationships, and the verification of the influences among variables in a model. This technique is applied in social sciences since the sixties, in fields such as sociology, econometry, biology, and management science – the scope of this work. Accordingly to Bollen [2], discussions were also developed in the fields of psychology and in economics. In 1921, Sewall Wright [2] conducted the initial studies in the branch of cause and effect analysis, publishing his results in the “Journal of Agricultural Research”. In 1934, he extended his work to include path analysis, already applying path diagrams, correlation equations, and the decomposition of its effects. Later, in 1960, he proposed rules for defining the equations representing the relations among variables in the model, using regression techniques in the path analysis. Haavelmo, in 1943, and Koopmans, in 1950 and 1953, applied these qualitative studies, combined with statistical analysis, to obtain a quantitative evaluation of cause and effect relationships in a given study. Accordingly to Judea Pearl [10], two different approaches were proposed in the study of cause and effect relations: one is the path diagram model, used with 218 Pesquisa Naval Nº 16, Outubro de 2003 SEM, and the other is the potential response model. Economists and social scientists adopted the former, while a small group of statisticians adopted the latter. But the second approach was only partially formalized, because is it based on a subjective vocabulary, without a clear connection between the variables in the model and the common understanding of the cause and effect process. Judea Pearl [10] also concluded that the models of potential response were understood only by a few, and used even less, while the structural equations modeling approach was adopted by several researchers, but with questionable interpretations. Recent developments in graphic representation of the models, and in the identification of the logic behind cause and effect relationships, indicate SEM as a primary approach of causal modeling. This technique can deliver a scientific bases, instead of superficial evaluations, in the measurement of the influence of different entities involved in a relationship model, for example in enterprise quality management. This work introduces a method [7] which can be useful to organizations wishing to verify the level of inter-relationship among entities inside its management system. The application of this method may also be extended in segments such as: healthcare, education, welfare, etc. Key words: Structural Equations Modeling, cause and effect relationships, Enterprise Quality Management. 1. Introdução Para a utilização da Modelagem de Equações Estruturais (MEE) é necessária uma justificativa teórica, para que as especificações, modificações ou avaliações dos relacionamentos de causa-e-efeito 1, nos modelos, possam ser fundamentadas. Segundo Hair [7], a teoria utilizada na MEE fornece uma explicação para quase todos os aspectos da modelagem. Em alguns casos, onde os relacionamentos obtidos são específicos, o objetivo a ser alcançado é a confirmação desses relacionamentos. Em outros, os relacionamentos não são bem conhecidos e o objetivo é descobrir esses relacionamentos. A flexibilidade da MEE permite atingir esses dois objetivos de pesquisa, entretanto os mesmos devem ser bem definidos e orientados para estratégia de modelagem a ser utilizada. Hair [7] define três estratégias distintas na MEE: (1) desenvolvimento de um modelo a ser estimado, utilizando a MEE para avaliar e realizar uma análise confirmatória nesse modelo; (2) desenvolvimento de um modelo a ser estimado e de outros modelos, a fim de apresentarem melhores ajustes ao modelo estimado a partir de comparações entre os modelos; e (3) desenvolvimento de um modelo a ser estimado, cuja finalidade é realizar modificações nesse modelo por meio do modelo estrutural e/ ou de medição e, a partir daí, desenvolver um outro modelo para ser estimado . Pesquisa Naval Nº 16, Outubro de 2003 219 2. Desenvolvimento 2.1. Os Passos Utilizados para a Modelagem de Equação Estrutural O verdadeiro valor de modelagem de equações estruturais vem dos benefícios de usar os modelos estrutural e de medição simultaneamente, cada um desempenhando distintos papéis na análise final. Para garantir que ambos os modelos estejam corretamente especificados e que os resultados sejam válidos, um processo de sete passos a ser executado. A Figura 1 apresenta o processo utilizado neste artigo, e que foi preconizado por Hair, cujos passos são descritos a seguir. 2.2. O Processo de Modelagem de Equações Estruturais 2.2.1. Passo 1 - Definição do Modelo Teórico Neste passo, o modelo a ser avaliado é dimensionado por meio de relacionamentos causais, onde as variáveis são identificadas e relacionadas. Deve-se tomar o cuidado de não se omitir as variáveis determinantes ou significativas no modelo a ser verificado. Esse problema é conhecido como erro de especificação. Por 220 Pesquisa Naval Nº 16, Outubro de 2003 outro lado, não se deve incluir qualquer variável sem uma avaliação da sua real necessidade, devendo ser levados em consideração os limites práticos da MEE. Não existe nenhum limite quanto ao número de variáveis a serem incluídas no modelo, mas é necessário que sejam considerados os benefícios de uma modelagem concisa e parcimoniosa. Hair [7] afirma que, freqüentemente, a interpretação dos resultados se torna difícil na medida em que o número de variáveis se torna excessivamente alto. 2.2.2. Passo 2 - Construção do Diagrama de Caminho Após a definição do modelo teórico a ser estudado, é feita a sua apresentação gráfica, utilizando um diagrama de caminho, onde são indicadas as relações causais entre as variáveis latentes. A Figura 2 apresenta um exemplo de diagrama de caminho. 2.2.3. Passo 3 - Conversão do Diagrama de Caminho em um Conjunto de Equações Estruturais e Especificação do Modelo Após a definição do modelo teórico e da sua representação em um diagrama de caminho, é realizada a conversão desse diagrama em equações, onde os modelos estrutural e de medição são especificados, por meio das variáveis utilizadas no modelo. Além disso, é especificado um conjunto de matrizes, indicando os relacionamentos e as correlações entre as variáveis. Para exemplificar a conversão de um diagrama de caminho em um conjunto de equações estruturais, tomemos o exemplo do diagrama de caminho mostrado na Figura 2, e que está mostrado na Figura 3. Pesquisa Naval Nº 16, Outubro de 2003 Figura 3: Representação gráfica de um modelo de equações estruturais 221 222 Pesquisa Naval Nº 16, Outubro de 2003 Notação Utilizada Fonte (Hair 1995) Letra Descrição Modelo Estrutural Matriz dos coeficientes de relacionamentos endógenos entre Beta M Gamma à variáveis latentes endógenas Matriz dos coeficientes de relacionamentos exógenos entre variáveis latentes exógenas e endógenas Matriz de correlações entre variáveis latentes exógenas Phi Ö Ø Matriz de correlações entre variáveis latentes endógenas Psi Modelo de Medição Ë Matriz de correspondência entre variáveis observadas exógenas Matriz de correspondência entre variáveis observadas endógenas Matriz de erros de predição para variáveis observadas exógenas Matriz de erros de predição para variáveis observadas exógenas Lambda-X Lambda-Y Theta-delta Theta-epsilon B Ë È È Nas Figuras de 4 a 10 está mostrado a representação matricial do diagrama de caminho apresentado na Figura 3. Os zeros acima e abaixo da diagonal principal (Figuras 8 e 9) representam o pressuposto de que os erros de medição para diferentes variáveis não são correlacionados. As células acima da diagonal principal são equivalentes às da parte inferior da diagonal principal, por serem matrizes simétricas. EquaçõesdoModeloEstrutural: Equações doModelodeMedição: VariáveisLatentes Exógenas î1 ç1 ç2 î2 î3 Variáveis Latentes Exógen VariáveisLatentes Endógenas ç1 = ë1î1 + ë2î2 + ë3î3 = Erro ç2 â1ç1 å + + å1 å2 RepresentaçãoMatricial: ξ η 1 γ11 γ12 γ13 1 0 0η 1 ζ1 η = + ξ2 + 2 0 0 0 ξ β21 0η 2 ζ 2 3 (mx1) = (mxn) (nx1) + (mxm) ( mx1) + (mx1) Figura 4: Equações do modelo estrutural e representação matricial Variáveis Observadas Exógenas X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 X11 X12 X13 = = = = = = = = = = = = = î1 ë11î1 ë21î1 ë31î1 ë41î1 ë51î1 ë61î1 î2 ë72î2 ë82î2 ë92î2 Figura 5: Equações d de medição Pesquisa Naval Nº 16, Outubro de 2003 223 RepresentaçãoMatricial: VariáveisLatentesEndógenas Χ=Λxξ+δ λ 11 x λ 21 λ x 31 x λ 41 λ x 51 x λ 61 = 0 0 0 0 0 0 0 X 1 X 2 X 3 X 4 X 5 X 6 X 7 X 8 X 9 X 10 X 11 X 12 X 13 x (qx1) λ λ λ 0 0 0 0 0 0 0 0 0 0 0 0 x x x 72 0 82 0 0 92 λ λ λ λ 0 0 0 0 = x x x x 103 113 123 133 (qxn) ξ1 ξ 2 ξ3 ξ 4 ξ5 ξ6 ξ 7 ξ8 ξ 9 ξ 10 ξ 11 ξ 12 ξ 13 δ1 δ 2 δ 3 δ 4 δ 5 δ 6 + δ 7 δ 8 δ 9 δ 10 δ 11 δ 12 δ 13 X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 X11 X12 X13 X3 1 Èä2 1 Èä3 1 Èä4 1 Èä5 1 Èä6 1 Èä7 1 Èä8 1 Èä9 1 Èä10 1 Èä11 1 Èä12 1 Èä13 1 1 Èä3 2 Èä4 2 Èä5 2 Èä6 2 Èä7 2 Èä8 2 Èä9 2 Èä10 2 Èä11 2 Èä12 2 Èä13 2 1 Èä4 3 Èä5 3 Èä6 3 Èä7 3 Èä8 3 Èä9 3 Èä10 3 Èä11 3 Èä12 3 Èä13 3 X4 X5 X6 X7 X8 1 Èä6 5 Èä7 5 Èä8 5 Èä9 5 Èä10 5 Èä11 5 Èä12 5 Èä13 5 1 Èä7 6 Èä8 6 Èä9 6 Èä10 6 Èä11 6 Èä12 6 Èä13 6 ë11ç1 ë21ç1 = = = = 1 Èä8 7 Èä9 7 Èä10 7 Èä11 7 Èä12 7 Èä13 7 1 Èä9 8 Èä10 8 Èä11 8 Èä12 8 Èä13 8 ë32ç2 ë42ç2 Υ=Λyη+ y1 λy11 y y 2=λ21 y3 0 y4 0 (px1) = 0 0 η λy32η λy42 (pxm) (m CorrelaçõesentreasVariáveisObservadasEndóge X9 X10 X11 X12 X13 Y1 1 Èä5 4 Èä6 4 Èä7 4 Èä8 4 Èä9 4 Èä10 4 Èä11 4 Èä11 4 Èä12 4 ç2 Figura 7: Variáveis lat e representação Correlações entre as Variáveis Observadas Exógenas: X2 Y1 Y2 Y3 Y4 ç1 (nx1) + (qx1) Figura 6: Representação matricial do modelo de medição X1 Variáveis Observadas Endógenas 1 Èä10 9 1 1 Èä11 9 Èä11 10 Èä12 9 Èä12 10 Èä12 11 1 Èä13 9 Èä13 10 Èä13 11 Èä13 12 Y1 Y2 Y3 Y4 Y2 Y3 Y4 Èå21 1 Èå31 Èå32 1 Èå41 Èå42 Èå43 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 Θδ11 0 Θ 0 0 0 0 0 0 0 0 0 0 0 δ 22 0 0 Θδ 33 0 0 0 0 0 0 0 0 0 0 0 0 Θδ 44 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Θδ 55 0 0 0 0 0 0 0 0 0 0 0 0 Θδ 66 0 0 0 0 0 0 0 0 0 0 0 0 0 Θδ 77 0 0 0 0 0 0 Θδ = 0 0 0 0 0 0 0 Θδ 88 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Θδ 99 0 0 0 0 0 0 0 0 0 0 0 0 0 Θδ1010 0 0 0 0 0 0 0 0 0 0 0 0 Θδ1111 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Θδ1212 0 0 0 0 0 0 0 0 0 0 0 0 Θδ1313 0 Θε11 0 Θε = 0 0 0 0 0 Θε22 0 0 0 Θε33 0 0 0 Θε 44 (pxp) (q x q) Figura 8: Correlações entre variáveis observadas exógenas e representação matricial Figura 9: Correlações observadas endógenas matricia 224 Pesquisa Naval Nº 16, Outubro de 2003 Correlações entre as variáveis latentes exógenas Correlações entre as variáveis la î1 î2 î3 î1 î2 1 Ø21 Ø31 1 Ø32 î3 ç1 ç2 ç1 ç2 1 ö21 1 1 Representação Matricial: 1 Φ = φ 21 φ 31 φ 12 1 φ 32 (p x p) φ 13 φ 23 1 1 ϕ12 Ψ= ϕ 21 1 (m x m) F ig u ra 1 0 : C o rre la ç õ e s e n tre v a riá v e la te n te s e x ó g e n a s e e n d ó g e n a s e re p re s e m a tric ia l 2.2.4. Passo 4 - Seleção do Tipo de Matriz de Entrada e Estimação do Modelo Proposto A modelagem de equações estruturais difere de outras técnicas porque utiliza apenas matrizes de correlação ou de variância/covariância como dados de entrada, para análise no programa de computador, permitindo o uso de observações individuais de uma amostra, para que sejam incluídas como dados de entrada no programa de computador, e, a partir deles, convertê-los em um dos dois tipos de matrizes de correlação ou covariância. Entretanto, o foco da estimação na MEE não são as observações individuais, mas o comportamento dos relacionamentos entre os constructos identificados na análise e as variáveis coletadas dos respondentes. Hair [7] afirma que matriz de correlação tem sido muito utilizada por ser apropriada quando o objetivo da pesquisa é entender e interpretar o padrão dos relacionamentos entre constructos e não o de explicar o total de variâncias em um constructo. Segundo Hair [7], existem duas abordagens comuns para a aplicação deste procedimento. A primeira consiste em colocar uma das cargas em cada constructo com um valor fixo de 1,0 para obter soluções padronizadas. Na segunda, estimam-se diretamente as variâncias do constructo. Ambas as abordagens resultam exatamente nas mesmas estimativas. Além disso, para possibilitar uma boa estimativa e interpretação dos resultados na MEE, o tamanho da amostra é muito importante, e deve estar dentro de limites Pesquisa Naval Nº 16, Outubro de 2003 225 aceitáveis. Amostras em torno de 50 não são recomendáveis, por serem muito pequenas, mas sim amostras com tamanhos mínimos de 100. É recomendado [7] utilizar amostras com tamanho máximo de 200, independente do tamanho da amostra original. Porque valores acima de 200 tornam os testes demasiadamente sensíveis para a detecção de diferenças entre os dados. Portanto, a faixa recomendável do tamanho da amostra situa-se entre 100 e 200. 2.2.5. Passo 5 - Avaliação da Identificação do Modelo de Equações Estruturais Para que haja a avaliação da identificação do modelo, o problema principal a ser verificado e corrigido é o da existência de tantas equações quantas forem as variáveis existentes no modelo, para que o modelo gere estimativas únicas. Após resolvido o principal problema de identificação, os seguintes pontos abaixo devem ser verificados para corrigir outros problemas de identificação no modelo. 1) quantidade de dados relacionados diferente do tamanho da amostra 2) variáveis relacionadas diferentes do número de colunas de dados 3) dados de entrada incorretos (ex: não numéricos) 4) dados insuficientes 5) formato dos dados incorretos Se ainda assim existirem problemas de identificação, o modelo deve ser revisto. 2.2.6. Passo 6 - Avaliação dos Critérios de Ajuste Neste passo, os resultados são avaliados, por meio da verificação dos coeficientes estimados obtidos, verificando se eles estão dentro de faixas aceitáveis. Esta avaliação é realizada separadamente para os modelos estrutural e de medição. Para o modelo de medição, a verificação é realizada observando se os coeficientes estimados não violam limites. As verificações iniciais a serem observadas são: (1) coeficientes padronizados excedendo 1; (2) variâncias de erro negativo para qualquer variável e; (3) valores de erros padrão associados muito grandes para qualquer coeficiente estimado. Além disso, é verificado o grau de consistência interna das variáveis, por meio de sua confiabilidade. Em seguida, é verificada a validade dos constructos, por meio da análise de fator. Uma outra verificação é a do coeficiente total de determinação (R²), que examina o grau de representação das variáveis observadas no modelo. Para o modelo estrutural são verificadas se as observações foram obtidas de forma independente, se as amostras obtidas dos respondentes foram aleatórias e se não existe recursividade no modelo, para que as hipóteses apresentadas possam ser respeitadas. Ainda neste passo, devem ser verificados os valores dos coeficientes estimados para as relações no modelo, considerando-se que o modelo deve possuir um número significativo de relações acima de 0,30. Relações com valores muito acima de 0,90 devem sempre ser examinadas, porque podem indicar conceitos idênticos. Isso pode ser corrigido com a inclusão ou a remoção de variáveis no modelo, ou ainda com a reformulação dos relacionamentos causais. 226 Pesquisa Naval Nº 16, Outubro de 2003 2.2.7. Passo 7 - Interpretação do Modelo de Equações Estruturais Após o modelo ser considerado aceitável, podem ser realizadas possíveis modificações no modelo, a fim de melhorar as especificações teóricas, e tentar se obter melhores resultados. Entretanto, isto deve ser realizado tomando-se o cuidado em se obedecer às justificativas teóricas já descritas anteriormente. Uma solução pode ser conseguida pela adição, remoção ou modificação dos relacionamentos causais no modelo. Devem ser observados, na modificação da modelo, os baixos valores encontrados na estimação dos coeficientes nas relações entre as variáveis latentes em cada relacionamento causal porque esses valores podem ser úteis na avaliação de modificações no modelo. Contudo, após as modificações, o modelo deve ser reavaliado para que seja verificado se o novo modelo obteve melhores resultados em relação ao anterior. Para Hair [7], enquanto um modelo estimado não obtiver melhores níveis de resultados, este modelo representa o melhor modelo disponível, até que uma pesquisa futura identifique melhorias em relacionamentos teóricos ou medições de constructos. 3. Conclusões MEE por ser uma técnica que combina elementos de regressão múltipla e análise de fator permite não apenas que possam ser avaliados os relacionamentos de dependência inter-relacionados, como também incorporar os efeitos de erro de medição nos coeficientes estruturais. Mesmo com os benefícios conseguidos pela modelagem de equação estrutural, ela é melhor empregada na forma confirmatória, devendo a análise exploratória ser utilizada por outras técnicas multivariadas. Cabe mencionar que, primeiramente, é necessário estabelecer indicadores válidos e confiáveis de variáveis latentes em um modelo de medição, e então especificar os relacionamentos entre variáveis latentes em um modelo estrutural. Conseqüentemente o foco deste artigo foi fornecer um auxílio para um melhor entendimento de como desenvolver modelos de equação estrutural. Uma tentativa deliberada foi feita para minimizar os termos simples de notação matricial de forma que fosse possível um entendimento simples da abordagem de MEE. Uma organização que utilize, por exemplo, os critérios de excelência preconizados pelo Prêmio Qualidade do Governo Federal (PQGF), para avaliar a sua gestão, pode fazer uso dessa metodologia a fim de ajudar a auto-avaliação do seu modelo de gestão. Glossário Análise de fator (factor analysis) No nome de um método estatístico multivariado, que permite conhecer o tipo de estrutura de um relacionamento entre as variáveis envolvidas no modelo, a fim de identificar quais variáveis são representativas em um constructo. Pesquisa Naval Nº 16, Outubro de 2003 227 Confiabilidade (Reliability) A confiabilidade indica o grau de consistência interna das variáveis observadas, que representam o conceito de cada variável latente associada, sendo determinada pelo valor do “alfa de Cronbach” [4]. Uma confiabilidade alta significa dizer que é mais fácil fazer uma distinção entre os diversos estágios ou níveis de implementação de determinado item do que se houvesse uma baixa confiabilidade. Para Hayes [8], a confiabilidade alta “torna mais provável a descoberta de relacionamentos entre variáveis realmente relacionadas”. Constructo (Construção) É um conjunto teórico que age como um bloco construtor podendo representar conceitos simples e conceitos complexos. Diagrama de Caminho (path diagram) É a representação gráfica dos relacionamentos entre as variáveis de um modelo de equações estruturais. Nele, as variáveis observadas são representadas por retângulos, as variáveis latentes, por círculos, e seus relacionamentos, por setas. Estratégia (strategy) O caminho escolhido para posicionar a organização de forma competitiva e garantir sua sobrevivência no longo prazo, com a subseqüente definição de atividades e competências inter-relacionadas para entregar valor de maneira diferenciada às partes interessadas. É um conjunto de decisões que orientam a definição das ações a serem tomadas pela organização. As estratégias podem ser construídas ou conduzir a novos produtos, novos mercados, crescimento das receitas, redução de custos, aquisições, fusões e novas alianças ou parcerias. As estratégias podem ser dirigidas a tornar a organização um fornecedor preferencial, um produtor de baixo custo, um inovador no mercado e/ou um provedor de serviços exclusivos e individualizados. As estratégias podem depender ou exigir que a organização desenvolva diferentes tipos de capacidades, tais como; agilidade de resposta, individualização, compreensão do mercado, manufatura enxuta ou virtual, rede de relacionamentos, inovação rápida, gestão tecnológica, alavancagem de ativos e gestão da informação. Modelo (model) Especifica um conjunto de relacionamentos dependentes que podem ser testados empiricamente (demonstração de uma teoria). O propósito de um modelo é fornecer uma representação compreensiva dos relacionamentos examinados. O modelo pode ser representado por um diagrama de caminho ou por um conjunto de equações estruturais. Organização (organization) Companhia, corporação, firma, órgão, instituição ou empresa, ou uma unidade destas, pública ou privada, sociedade anônima, limitada ou com outra forma estatutária, que tem funções e estrutura administrativa próprias e autônomas. 228 Pesquisa Naval Nº 16, Outubro de 2003 Processo (process) Conjunto de recursos e atividades inter-relacionadas que transformam insumos (entradas) em produtos (saídas). Essa transformação deve agregar valor na percepção dos clientes do processo e exige um certo conjunto de recursos. Os recursos podem incluir pessoal, finanças, instalações, equipamentos, métodos e técnicas, numa seqüência de etapas ou ações sistemáticas. O processo poderá exigir que a seqüência de etapas seja documentada por meio de especificações, de procedimentos e de instruções de trabalho, bem como que as etapas de medição e controle sejam adequadamente definidas. Qualidade (quality) Totalidade de características de uma entidade (atividade ou um processo, um produto, uma organização ou uma combinação destes), que lhe confere a capacidade de satisfazer as necessidades explícitas e implícitas dos clientes. Recursividade (recursivity) É a retroalimentação em alguma parte do modelo, por ela própria. Teoria (theory) Pode ser definida como um conjunto sistemático de relacionamentos que fornecem uma explicação consistente e compreensível de um fenômeno, a partir de experiências e práticas obtidas em observações comportamentais do mundo real, o que faz da MEE um método confirmatório [7]. Variável Observada (Observed variable) É uma variável cujos dados podem ser coletados por meio de questionário. Variável Latente (Latent variable) É uma variável não observada que não pode ser mensurada diretamente e são representados pelas variáveis observadas. Um conjunto de variáveis observadas com a respectiva variável latente forma um constructo. Bibliografia [1] BYRNE, Barbara M.: Structural Equations Modelling with AMOS, Basic Concepts, Applications, and Programing. First Edition, Ed. Lawrence Erlbaum Associates, Publishers, Mahwah, New Jersey, 2001. [2] BOLLEN, Kenneth A.: Structural Equations with Latent Variables, Department of Sociology, the University of North Caroline at Chapel Hill, Chapel Hill, North Caroline. A WileyInterscience Publication, John Wiley & Sons, New York, 1989. Pesquisa Naval Nº 16, Outubro de 2003 229 [3] COLEMAN, Garry D.: Estimating the Consistency of ThirdParty Evaluator Scoring of Organizational Self-assessments, University of Tennessee Space Institute; Koelling, C. Patrick, Oklahoma State University, 1998, ASQ. Quality Management Journal, p.31-53. [4] CRONBACH, Lee J.: Coeficient Alpha and the Internal Structure of tests, Univesity of Illinois, Psycometria-Vol., 16, No3 September, 1951. Essentials of Psychological Testing. 4th ed. New York: Harper & Row, 1984. [5] DEMING, W. Edwards: Out of Crises, Massachusetts Institute of Tecnology Center for Advanced Engineering Study, Cambridge, 1991. [6] GIL, Antônio Carlos: Métodos e Técnicas de Pesquisa Social. São Paulo: Editora Atlas,1994. [7] HAIR Jr, Joseph F.; ANDERSON, Ralph E.; TATHAM, Ronald L.; Black, Willian C: Multivariate Data Analysis. Fourth Edition, Ed. Prentice Hall, New Jersey, 1995. [8] HAYES, Bob E.: Measuring Customer Satisfaction: Development and Use of Questionnaires. Milwaukee, Wisconsin: ASQC Quality Press, 1992. [9] PASQUALI, Luiz: Psicometria: Teoria e aplicações. Ed. Universidade de Brasília,1977. [10] PEARL, Judea: Graphs, Causality, and Structural Equation Models, Cognitive Systems. Laboratory, Computer Science Department, University of California, Los Angeles, CA 90024, 1999. [11] SCHUMACKER, Randall E.; LOMAX, Richard G: A Beginner’s Guide to Structural Equation Modeling. First Edition, Ed. Lawrence Erlbaum Associates, Publishers, Mahwah, New Jersey, 1996. 1 A literatura de Modelagem de Equações Estruturais utiliza o termo causa-e-efeito [1, 6, 10]. 230 Pesquisa Naval Nº 16, Outubro de 2003 Centro de Análises de Sistemas Navais APOIO À DECISÃO O CASNAV desenvolve ferramentas computacionais que auxiliam o Comandante do Teatro de Operações Marítimo e demais comandos subordinados, no planejamento, execução e controle das Operações Navais, Aeronavais e de Fuzileiros Navais. Os Sistemas de Apoio à Decisão (SAD) auxiliam no processo de obtenção de soluções para as principais inquietudes de natureza operativa e administrativa. Estes sistemas incorporam uma filosofia abrangente que, por possuir firmes alicerces na Engenharia de Software, se constitui numa arquitetura aberta à permanente evolução e ao atendimento das necessidades de novos clientes. Entre os Sistemas de Apoio à Decisão dedicados aos problemas de caráter administrativo, podemos mencionar o SAD-GP, voltado para questões relativas à Gerência de Pessoal. Esta ferramenta auxilia o gerenciamento do complexo sistema de pessoal da Marinha, permitindo, por exemplo, determinar as necessidades de admissão de pessoal nas diferentes qualificações existentes. Este programa executa projeções para horizonte de até dez anos, possibilitando conhecer os impactos futuros de políticas de pessoal adotadas nos dias atuais. Para tal, empregamos modernas ferramentas matemáticas com o propósito de simular a admissão e progressão funcional dos cerca de 50 mil componentes dos diversos quadros e qualificações da Marinha. Este Sistema foi comercializado para o Exército e para a Força Aérea Brasileira. Nossa equipe está habilitada a desenvolver sistemas como este, capaz de organizar imensa massa de dados, de maneira inteligente, para que os decisores, conhecendo o impacto no futuro, possam fazer as melhores opções no presente. Centro de Análises de Sistemas Navais Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro 3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332 e-mail: [email protected] XVIII Capítulo COMPORTAMENTO DA TAXA DE FALHA COMO CONHECIMENTO NECESSÁRIO PARA A FORMULAÇÃO DE HIPÓTESES ESTATÍSTICAS NA PESQUISA DA CONFIABILIDADE CMG (T-RRm) Paulo Antonio Cheriff dos Santos, MSc Marinha do Brasil (MB)/ComOpNav [email protected] Paulo Fernando Ferreira Frutuoso e Melo, DSc COPPE/UFRJ – Prog. Eng. Nuclear, Brasil [email protected] Carlos Rodrigues Pereira Belchior, DSc COPPE/UFR J – Prog. Eng. Oceânica, Brasil [email protected] Resumo O propósito deste trabalho é mostrar o emprego de método estatístico nãoparamétrico na avaliação do comportamento da taxa de falha, a fim de subsidiar a formulação da hipótese nula para a pesquisa da confiabilidade e o processo de diagnóstico das causas das falhas com base no parâmetro de forma da distribuição de Weibull. Abstract The purpose of this paper is to show the employment of a nonparametric statistical method for evaluating the failure rate behavior in order to help stating the statistical null hypothesis for reliability research, and also for the diagnosis of the failure causes by means of the shape parameter of the Weibull distribution. 1. Introdução Podemos resumir em uma só questão o dilema de todo profissional de manutenção. Essa questão refere-se às incertezas acerca das ações que devem ser empreendidas 232 Pesquisa Naval Nº 16, Outubro de 2003 para assegurar que a manutenção, de uma planta, sistema ou equipamento, está se realizando da maneira mais efetiva. Iremos encontrar a resposta, para essa questão, na análise de dois tipos de gerenciamento que diferem, entre si, por sua extensão no tempo e objetivos distintos. Esse gerenciamento, a curto prazo, com base anual por exemplo, é definido como política de manutenção. A longo prazo, de forma a abranger todo o período de utilização de uma planta, sistema ou equipamento, é denominado de estratégia de pósinvestimento. Considerando que os métodos de manutenção dizem respeito ao gerenciamento a curto prazo e que já estão definidos, a estratégia de pós-investimento estabelece que o seu desenvolvimento deve estar em sintonia com o nível de obsolescência do equipamento. A finalidade é a otimização do ciclo de vida do equipamento, mediante a modificação da política de manutenção, possibilitando, por exemplo, a seleção de diferentes tipos de intervenção ou a decisão acerca de uma parcial ou total recuperação ou atualização tecnológica. Assim, evidencia-se o cerne da questão, o comportamento do material (SANTOS, 2003). 2. Generalidades acerca do comportamento do material À primeira vista, temos a impressão de que o único fator responsável pelas alterações de funcionamento de uma instalação seria a sua própria degradação, segundo o padrão definido pela sua taxa de falha. Mas, outros fatores concorrem para alterações do funcionamento/performance da instalação, os quais precisam ser, de alguma forma, avaliados e acompanhados, porque têm impacto na sua confiabilidade e, conseqüentemente, na sua disponibilidade operacional. Confiabilidade é “a característica de um dispositivo expressa pela probabilidade que esse dispositivo tem de cumprir uma função requerida em condições de utilização e por um período de tempo determinado” (MONCHY, 1989). Sob o ponto de vista único e exclusivamente da qualidade da instalação, essa probabilidade irá refletir, de fato, a confiabilidade operacional inicial do sistema, decorrente de falhas potenciais intrínsecas ao sistema. Essas falhas potenciais originamse nas falhas de concepção, de componentes, de fabricação e de montagem que, na realidade, propiciam as primeiras incertezas no comportamento do material. Isto posto, fica evidente que todo esforço para minimizar a ocorrência das falhas potenciais redunda em ganho para a manutenção. Mas, alcançar o objetivo de um custo operacional o menor possível vai depender de como agimos para atenuar os impactos das influências extrínsecas ao sistema, que podem comprometer ainda mais a confiabilidade operacional. Referimo-nos, dentre outras, principalmente, à qualidade Pesquisa Naval Nº 16, Outubro de 2003 233 da operação e à qualidade da manutenção, que, por sua vez, dependerá da qualidade das pessoas, dos métodos, das ferramentas e das intervenções. Essas influências extrínsecas são as responsáveis pelo incremento do grau de incertezas no comportamento do material ao longo do tempo de operação, ou seja, a preservação da sua confiabilidade. Resumindo, a confiabilidade de uma instalação não depende somente das ações sob a responsabilidade da manutenção. A análise acerca das incertezas nessa função logística evidencia que existem vários fatores que podem impedir a efetividade das ações de manutenção e, por conseqüência, modificar o comportamento do material, alteração essa que se dará a conhecer por meio da alteração da sua taxa de falhas, ou melhor, pelo aumento da freqüência das falhas. A taxa de falha é um “estimador” da confiabilidade. É definida como a probabilidade condicional, λ(t) dt, de um sistema falhar entre t e t + dt, dado que sobreviveu até o tempo t. Por isso, dizemos que ela representa uma “proporção de dispositivos que “sobreviveram” num instante t” (MONCHY, 1989). LAFRAIA (2001) a define como “Freqüência com que as falhas ocorrem, num certo intervalo de tempo, medida pelo número de falhas para cada hora de operação ou número de operações do sistema ou componente”. É representada pelo símbolo λ. O essencial é que compreendamos que um ciclo de vida de um equipamento geralmente segue um mesmo modelo (padrão). A taxa de falha λ facilita esse entendimento. Ela tanto mostra o número de falhas que ocorrem durante um certo período de tempo, por exemplo, semanalmente ou mensalmente, quanto representa uma importante norma/regra na engenharia de confiabilidade, tornando explícita a característica da vida dos componentes, por meio da existência e/ou prevalência de áreas que definem a denominada curva da banheira. Portanto, ela descreve as fases de vida de um determinado componente ou sistema (LAFRAIA, 2001), definindo o comportamento do material. Classicamente, curvas desse tipo podem ser divididas em três áreas. Na área I, durante a partida, um número decrescente de falhas ocultas de construção, erros de montagem e problemas de início de operação provocam falhas. Na área II, utilização, a taxa de falha é estabilizada controlando o desgaste, mas esse inevitavelmente aumentará. A área III é caracterizada por uma taxa de falha crescente devido à idade seguida pela obsolescência do equipamento. Qualquer curva desse tipo obviamente parará instantaneamente se o equipamento for descartado (alienado ou sucateado) ou reconstruído (modernizado). A respeito do assunto, um outro aspecto deve ser destacado. Nem todos os tipos de componentes apresentam sempre todas as fases da curva da banheira. Alguns exemplos podem ser vistos na Figura 1. 234 Pesquisa Naval Nº 16, Outubro de 2003 Figura 1: Variações da Curva da Banheira (LAFRAIA, 2001) Agora, observemos com atenção a Figura 2 que mostra a configuração da curva da banheira na eletrônica e na mecânica. A curva de variação de taxa de falha na mecânica explicita duas importantes informações. Mostra que a curva da banheira é resultante de duas outras: a curva devida às falhas prematuras e a curva relativa à influência do desgaste pelo uso sobre λ(t). A curva devida às falhas prematuras se estende pelas três áreas e a curva de influência do desgaste começa a se tornar significativa no período de vida útil. Elas definem um padrão de comportamento da taxa de falhas, mercê das características de cada componente ou sistema. Assim acontecendo, é viável pensar que os fatores causadores de incerteza nas ações de manutenção podem influir na curva devida às falhas prematuras e na curva da influência do desgaste pelo uso, modificando o padrão da taxa de falhas. Existem falhas provocadas por ações externas e outras decorrentes da disfunção dos componentes/sistemas provocadas em decorrência dos efeitos de ações externas. São as chamadas falhas extrínsecas e falhas intrínsecas. MONCHY (1989) alerta que (a) Figura 2: Variação da Taxa de Falha na eletrônica (a) e na Mecânica (b) (MONCHY, 1989) Pesquisa Naval Nº 16, Outubro de 2003 235 (b) Figura 2: Variação da Taxa de Falha na eletrônica (a) e na Mecânica (b) (MONCHY, 1989) se “utilizada com confiabilidade, a taxa de falha deverá excluir as falhas extrínsecas ao conjunto analisado, tais como as panes devidas à falha de “manejo”(acidente, instruções não respeitadas) ou devidas a uma influência acidental do meio externo (inundações, incêndios...)”. Portanto, as alterações da curva devidas às falhas prematuras e da curva relativa à influência do desgaste pelo uso sobre λ(t), necessariamente, precisam resultar de disfunções do conjunto analisado. Essas disfunções caracterizam as falhas intrínsecas. Também é viável considerar, para alguns tipos de componentes/sistemas, em face das suas características, que a pouca influência do desgaste pelo uso sobre λ(t), ou a imunidade à lei do desgaste, explique a inexistência de fases na curva da banheira. O que acabamos de dizer é importante por dois aspectos. 236 Pesquisa Naval Nº 16, Outubro de 2003 Primeiro, por possibilitar entendimento de como essas alterações podem ser estimadas, avaliadas e diagnosticadas, por exemplo, pelo Fator de Forma β do modelo de Weibull, conforme mostrado na Figura 2. Segundo, por explicar outros padrões de falhas. A Figura 3 mostra os outros padrões de falhas existentes. Quanto mais complexo se torna o equipamento mais o padrão se aproxima de 2d e 2e que caracteriza o comportamento de equipamento eletrônico, hidráulico e pneumático (UNIDO e ILO, 1994). Figura 3: Outros Padrões de Falhas (UNIDO e ILO, 1994) É por meio da análise estatística de falhas que nós conseguimos determinar a taxa de falhas e o Tempo Médio Entre Falhas (TMEF) que significa o mesmo que vida média para uma amostragem total. Na realidade, vem a ser uma das duas interpretações distintas para o conceito de vida. A outra é a vida útil que é determinada pelo ponto em que se inicia a fase do desgaste, quando ocorre um rápido aumento na probabilidade condicional de falha λ (t) dt. A diferença entre esses dois conceitos ficará a cargo da variância da amostra, Figura 4. Quanto maior for a variância da amostra, a vida útil tenderá a ser muito menor do que o TMEF. Para um plano de manutenção que se baseie num programa de substituição ou de recondicionamentos, no caso de uma amostra com uma grande variância, a adoção do TMEF terá pouca ou nenhuma utilidade, uma vez que não evitará a falha. A adoção da vida útil poderá provocar a intervenção antes que um número razoável de componentes tenha falhado. Se por um lado evitamos a falha, por outro, neste caso, poderemos estar perdendo dinheiro. Pesquisa Naval Nº 16, Outubro de 2003 237 Figura 4: TMEF e Vida Útil (LAFRAIA,2001) O dilema da efetividade das ações de manutenção, que todos os profissionais enfrentam, pode agora ser encarado quantitativamente mediante a aplicação da metodologia da pesquisa de confiabilidade, Figura 5, que tem por finalidade a estimativa da taxa de falha e do TMEF e a definição da lei de confiabilidade que modele o comportamento do material. Para equipamento em exploração, dois aspectos são importantes para que tenhamos sucesso na aplicação dessa metodologia. O primeiro é o histórico de manutenção. A constituição de um histórico de manutenção é função da exploração do que desejamos. MONCHY (1989) enfatiza que “é a definição exata das informações e de sua exploração que justifica a existência do mesmo e que condiciona o seu conteúdo”. Esse aspecto, para nós, evidencia uma das causas da baixa utilização da análise de confiabilidade e também uma postura gerencial de pouca valorização e utilização de históricos de manutenção. Na realidade, na maioria das vezes, os históricos são negligenciados, ignorando o fato de que a eficácia do trabalho de um setor que se dedique a métodos de manutenção está diretamente relacionada com o conhecimento detalhado e exaustivo do material e da evolução do seu estado ou condição, objetivo maior do estudo das falhas. Um histórico organizado é necessário para a obtenção dos tempos de funcionamento até a falha, dos tempos de bom funcionamento (TBF), dos tempos efetivos de indisponibilidade (TA) ou dos tempos técnicos de reparo (TTR) relativos às falhas dos componentes dos sistemas. –O segundo aspecto importante é a adoção de um método que, de uma forma simples e bastante objetiva, possa indicar o modelo que a taxa de falha segue e a fase da curva da banheira em que o material se encontra, permitindo a formulação da hipótese nula para a pesquisa da confiabilidade. 238 Pesquisa Naval Nº 16, Outubro de 2003 Figura 5: Metodologia da Pesquisa de Confiabilidade (MONCHY, 1989) 3. Metodologia LEWIS (1996) expõe que os métodos não-paramétricos nos permitem, sem a seleção de uma distribuição em particular, obter uma perspectiva da natureza da distribuição que os dados representam. O seu uso pode servir, também, como um primeiro passo na tomada de decisão de prosseguir na análise paramétrica, e na provisão de uma indicação visual de que classe de distribuição é mais apropriada. Com relação ao comportamento da taxa de falha, LEWIS (1996) mostra a possibilidade de podermos examiná-la como uma função do tempo. Ele define a integral da taxa de falha λ (t) como taxa acumulada de falha H(t). t H (t ) = ∫ λ (t ')dt ' . o Num gráfico, H(t) é traçada como uma função do tempo. Vejamos. Aproximando a função distribuição cumulativa F(t) pelos postos médios, Fˆ (ti ) = i /( N + 1) , e considerando R (t ) = 1 − F (t ) teremos Rˆ (t i ) = ( N + 1 − i ) /( N + 1) . Mas, Pesquisa Naval Nº 16, Outubro de 2003 t R(t ) = exp − ∫ λ (t `)dt ` = e − H (t ) . 0 Logo, 239 H (t ) = − ln R(t ) . Assim, Hˆ (t i ) = ln (N + 1) − ln (N + 1 − i ) . Ĥ (t i ) fornece alguma compreensão acerca da natureza da taxa de falha: um gráfico linear indica uma taxa de falha constante, uma curva cuja concavidade esteja voltada para cima indica taxa de falha que está aumentando com o tempo, enquanto uma concavidade voltada para baixo indica uma taxa de falha decrescente com o tempo, Figura 6. Figura 6: Interpretação acerca da concavidade de H(t) 4. Aplicação da Metodologia. Avaliando um estudo realizado acerca da disponibilidade dos sistemas de Navios de Superfície, que doravante passaremos a denominar Unidades de Superfície (USp), de uma determinada classe, chamou-nos a atenção a distribuição das falhas ao longo dos diversos períodos operativos dessas unidades. Ora eram espaçadas, ora concentradas em um período de tempo, muitas vezes após a realização de uma parada ou de um período de manutenção, e alteravam a condição do material provocando restrições no emprego das Unidades. Efetuando um levantamento de dados relativos ao período de 1993 a 2000, o comportamento observado confirmou-se. A indagação decorrente era acerca do porquê de tal comportamento. O que poderia de fato estar concorrendo para aquela distribuição de falhas? Destarte, surgiu a necessidade da avaliação da gestão da manutenção, por meio da pesquisa da confiabilidade, para que pudessem ser identificados os fatores de influência, a fim de possibilitar as ações corretivas do Sistema de Apoio Logístico. 240 Pesquisa Naval Nº 16, Outubro de 2003 O conhecimento da natureza da falha, primeiramente, permitirá definirmos a fase em que operam as Unidades: partida/amaciamento; vida útil ou envelhecimento. Secundariamente, possibilitará adotarmos uma hipótese, a hipótese nula, para a distribuição a que os dados de falhas ocorridas em cada unidade melhor se ajustem. Em outras palavras, permitirá verificar se os tempos de falha seguem a lei exponencial (taxa de falha constante) ou Lei de Weibull que permite o ajuste de taxas de falha crescentes ou decrescentes no tempo, a fim de que possamos prosseguir com a pesquisa da confiabilidade. Esse método mostra-se importante também para auxiliar no diagnóstico, acerca das causas das falhas, que pode ser feito com base no valor do fator de forma (²) da distribuição de Weibull. O conhecimento da fase de operação o tornará mais preciso e confiável, pois permitirá a sua confrontação com a realidade definida pelo critério de construção das unidades. A MB possui USp construídas sob os critérios americano e britânico. No primeiro, as unidades são construídas para uma vida útil de 30 anos com possibilidade de aumento em até 50%. O critério britânico vem apresentando tendência de redução, (20 a 25 anos), como medida de incentivo à construção naval. Exceção é feita quanto à construção de Porta-Aviões, Navios Auxiliares ou de Apoio Logístico (ASTABURUAGA, 1999). 5. Resultados e Discussão. Com base nas amostras de tempos de operação até a falha, de cada unidade, utilizou-se o método não-paramétrico descrito no item anterior, identificando-se, mediante o comportamento da taxa acumulada de falha H(ti), em que fase de operação cada unidade se encontrava, vida útil ou obsolescência. As estimativas obtidas indicaram que a taxa de falha de todas as unidades estava aumentando com o tempo. A concavidade da curva estimativa, H(ti), voltada para cima, evidenciou que as unidades encontravam-se na fase de envelhecimento, obsolescência. Considerando a vida útil estabelecida pelo critério de construção das unidades, os resultados obtidos foram considerados como compatíveis e, portanto aceitáveis. Os gráficos de H(ti) podem visualizados na Figura 7. O resultado obtido permitiu estabelecer a Hipótese nula (H0) da análise: H0: - os Tempos de Bom Funcionamento (TBF) das Unidades seguem a distribuição de Weibull. Pesquisa Naval Nº 16, Outubro de 2003 241 Uma vez inseridos os Tempos de Bom Funcionamento (TBF) no papel de probabilidade da distribuição da hipótese nula, o exame visual mostrou o alinhamento dos pontos, sugerindo que as unidades seguem uma distribuição de Weibull a dois parâmetros. Ou seja, o parâmetro de posição (γ) é igual a zero, que é uma característica de falhas que ocorrem com o início da operação. A Tabela 1 mostra os parâmetros dessa distribuição. Esses parâmetros permitiram diagnosticar as causas das falhas, que não serão discriminadas por não ser o objetivo deste trabalho, e, principalmente, evidenciar a taxa anual de perda de confiabilidade das unidades que vem a ser o melhor indicador do seu aprestamento, Tabela 2. Nessa Tabela, destacam-se as maiores taxas de redução de confiabilidade constatadas nas U-2, U-5 e U-6. O respaldo a esses valores é conferido pelo resultado, disposto na Tabela 3, obtido com o ajuste, a verificação da sua acurácia e o teste de hipótese. Para o teste de hipótese, optamos pela aplicação do Teste de Aderência de Kolmogorov-Smirnov (K-S) (MASSEY, 1951). A escolha baseou-se no fato de que o K-S é um teste simples de ser aplicado, e é válido para qualquer tamanho de amostra (N) e emprega dados não agrupados. Figura 7: Gráficos de H(ti) 242 Pesquisa Naval Nº 16, Outubro de 2003 Tabela 1: Parâmetros da Distribuição de Weibull Unidade (β) (η) (dias) TMEF (dias) Variância (dias)2 U-1 0,75 171,995 204,633 76.487,992 U-2 0,66 98,598 131,474 41.689,521 U-3 1,48 124,943 112,943 6.028,457 U-5 0,66 83,603 112,715 31.394,429 U-6 0,96 106,851 108,654 12.737,395 Tabela 2: Taxa anual de perda de confiabilidade Unidade Período (ano) Perda (%) Taxa anual (%) U-1 7,2 4,3 0,5972 U-2 7,4 6 0,8108 U-3 6,8 3 0,4412 U-5 7,1 6,7 0,9437 U-6 6,2 5,05 0,8145 Pesquisa Naval Nº 16, Outubro de 2003 243 Tabela 3: Resultado do ajuste Indicador 2 Coeficiente de determinação (r ) Coeficiente de correlação (r) Variação não explicada (SSE) Erro padrão da estimativa (Se) Erro do coeficiente linear a (Sa) Erro do coeficiente angular b (Sb) Intervalo de confiança (95%) de b Estimador do coeficiente b U-1 0,957 0,978 0,735 0,229 0,057 0,043 U-2 0,917 0,958 1,875 0,322 0,072 0,053 U-3 0,971 0,985 0,380 0,185 0,052 0,078 0 0 0 0 0 0 ±0,095 ±0,111 ±0,172 ±0 Não é tendencios Teste Nível de significância α=0,10(2) 0,295 0,264 0,325 0 (3) K-S da (N) 0,139 0,187 0,164 0 Tamanho da amostra 16 20 13 Observações: (1) – O coeficiente b é um bom estimador do parâmetro de forma da distribuição de Weibull. (2) - O nível de significância α adotado define o erro usual tolerado pelo analista. Esse erro é conhecido, também, como nível de risco. É o risco que o analista está aceitando no caso de rejeitar a hipótese nula quando ela for verdadeira. Quando a hipótese nula é rejeitada, sendo verdadeira, cometemos o erro do tipo I. Assim, a probabilidade de cometer o erro tipo I é α; e (3) - O teste K-S baseia-se em uma estatística que mede o desvio do histograma acumulado da (N) em relação à função de distribuição da hipótese constituída pelos parâmetros obtidos. Esse desvio deve ser menor que os valores tabulados para o nível de significância escolhido. 6. Conclusão. Os resultados obtidos evidenciaram a potencialidade do método empregado e da sua validade para uma formulação, com maior embasamento, da hipótese nula para a pesquisa da confiabilidade. Ele mostrou-se importante, também, por definir a fase de vida em que se encontra o material que estamos estudando. Esse aspecto confere um subsídio relevante ao processo de diagnóstico das causas das falhas com base no fator de forma (β) da distribuição de Weibull. Finalmente, a aplicação demonstra que é possível, mediante o emprego de métodos estatísticos não-paramétricos, conceber um sistema de investigação, gerado em bases técnicas e científicas, que enfatize os defeitos, falhas e avarias e que contribua para o aprimoramento dos sistemas de manutenção vigentes. 244 Pesquisa Naval Nº 16, Outubro de 2003 REFERÊNCIAS BIBLIOGRÁFICAS ASTABURUAGA, G. J., “Vida Útil das Unidades de Superfície”. Revista Marítima Brasileira. Serviço de Documentação da Marinha. pp.265-274. 4º T/99. LAFRAIA, J. R. B., Manual de Confiabilidade, Mantenabilidade e Disponibilidade. Rio de Janeiro, Qualitymark, Petrobrás, 2001. LEWIS, E. E. Introduction to Reliability Engineering. New York, John Wiley & Sons, Inc., 1996. MASSEY, F. J. Jr., “The Kolmogorov-Smirnov Test for Goodness of Fit”, American Statistical Association Journal, pp. 68-78, Mar. 1951. MONCHY, F., A Função Manutenção. São Paulo, Durban/Ebras, 1989. SANTOS, P.A.C. dos, 2003, Avaliação Estatística da Gestão da Manutenção e Acompanhamento do Grau de Obsolescência de Máquinas Marítimas Militares. Tese de M.Sc., COPPE/UFRJ, Rio de Janeiro, RJ, Brasil. XIX Capítulo ESTIMATIVA DA PRESSÃO MÁXIMA EM CONTENÇÕES DE REATORES NAVAIS DEVIDO A UM ACIDENTE DE PERDA DE REFRIGERANTE NO CIRCUITO PRIMÁRIO Teofilo Mendes Neto, MSc Instituto de Pesquisas Energéticas e Nucleares, IPEN/CNEN-SP Travessa R 400, Cidade Universitária 05598-900, São Paulo, SP, Brasil João Manoel Losada Moreira, PhD Centro Tecnológico da Marinha em São Paulo, CTMSP Av. Lineu Prestes 2468, Cidade Universitária 05508-000, São Paulo, SP, Brasil Resumo Neste trabalho é estudado o problema da elevação da pressão na contenção de um reator nuclear típico para a propulsão naval, isto é, contenções com volumes pequenos, devido a um acidente de perda de refrigerante (LOCA). Determina-se a pressão máxima na contenção para diferentes tamanhos de contenção e potência de reatores, desde um PWR comercial a um reator naval. A pressão máxima em uma contenção de pequeno porte é estimada a partir de resultados de plantas comerciais, obtendo-se 185 psia para uma razão entre os volumes do circuito primário e da contenção de 0,025. O problema também é estudado com o programa CONTEMPTLT obtendo-se uma pressão máxima de 162 psia para a mesma razão de volumes. Em um acidente tipo “LOCA” o comportamento da temperatura máxima na contenção, em função da razão de volumes, tende para um valor assintótico para pequenas contenções; a pressão máxima na contenção tem um comportamento quase linear e crescente em função da razão de volumes. 246 Pesquisa Naval Nº 16, Outubro de 2003 Abstract This work studies the problem of containment pressurization after a LOCA in naval reactors with small containment free volumes. The relationship between the reactor power and the containment free volume is described with the ratio between the volumes of the primary circuit and of the containment. The maximum pressure in a containment, following a LOCA, obtained after a correlation based on large containment PWRs, is around 185 psia for a primary circuit and containment volumes ratio of 0.025. For the same problem, calculations with the CONTEMPT-LT code produced a maximum pressure of 162 psia. The behavior of the temperature after a “LOCA” to the containment, as a function of the ratio between the primary circuit and containment volumes, is such that it increases reaching asymptotically to a maximum; differently, the pressure increases almost linearly with the ratio of volumes. 1 – Introdução A expulsão do refrigerante em um reator à água pressurizada, decorrente do rompimento de uma grande tubulação do circuito primário de um reator nuclear, ocasiona um aumento considerável da pressão e da temperatura no ambiente de sua contenção em um curto espaço de tempo. As estruturas internas, blindagens e equipamentos dentro da contenção formam volumes ou compartimentos confinados que ficam pressurizados devido as massa e energia liberadas. As paredes e os equipamentos dentro dos compartimentos são submetidos a níveis diferentes de pressão, ocasionando carregamentos e esforços não estáticos durante os transientes. A legislação de segurança de centrais nucleares exige que se determine a pressão diferencial entre os diferentes compartimentos e estruturas da contenção e que se faça uma análise estrutural demonstrando a capacidade de suportar tais esforços [1,2]. Para se determinar o valor do pico de pressão e temperatura atingidos devido a esse acidente, deve-se levar em consideração a quantidade de massa de água e energia transferidas para a contenção durante o período de despressurização. Reatores de pequeno porte para propulsão naval apresentam em seu projeto um volume livre de contenção reduzido devido a indisponibilidade de grandes áreas nas embarcações. A razão entre a potência térmica produzida, ou o volume do circuito primário, e o volume livre da contenção em reatores navais apresenta valores elevados quando comparados com PWRs comerciais para a produção de energia elétrica. Como consequência, espera-se que para pequenas contenções a pressão atinja valores muito mais elevados. Neste trabalho faz-se um estudo do pico de pressão que uma contenção de volume livre reduzido seria submetida no caso de ocorrer um acidente de perda de Pesquisa Naval Nº 16, Outubro de 2003 247 refrigerante do circuito primário tipo grande “LOCA” [1,2]. Utiliza-se nas análises os modelos para plantas comerciais onde as principais variáveis do problema são a massa e entalpia do refrigerante no circuito primário, o volume do circuito primário e o volume livre da contenção [3,4]. Inicialmente é apresentado o equacionamento do problema a partir do balanço macroscópico de massa e energia em função do tempo no volume da contenção. A seguir são apresentados resultados de picos de pressão para volumes de contenção reduzidos obtidos de curvas que são função da entalpia inicial do refrigerante no circuito primário e a razão entre os volumes do circuito primário e a contenção. Contenções de reatores PWR comerciais tem uma razão Rv entre 0,003 e 0,005 enquanto reatores navais tem razões entre 0,02 e 0,03. A diferença é cerca de uma ordem de magnitude indicando que a pressão máxima devido a um “LOCA” deve ser muito maior para uma instalação naval. Em seguida, são apresentados resultados obtidos em uma modelagem com o programa CONTEMPT-LT [4] para plantas PWR em que a contenção varia desde de grandes volumes livres até volumes livres bastante reduzidos e, finalmente, são apresentadas as conclusões. 2 – Metodologia de estimativa da pressão na contenção devido a um “LOCA” O acidente de perda de refrigerante devido a uma grande ruptura da tubulação no circuito primário de um PWR faz com que a massa de água existente neste circuito seja expandida para o volume livre da contenção. O refrigerante no circuito primário, antes do acidente, encontra-se pressurizado, em torno de 2200 psia, com temperatura em torno de 570 F e em condições sub-resfriadas. Havendo uma grande ruptura no circuito primário, como é postulado em acidentes tipo “LOCA”, todo o refrigerante expande através da ruptura ocupando o volume livre da contenção. O refrigerante, inicialmente em estado líquido, vaporiza na contenção e pressiona suas paredes que devem ser projetadas para suportar este esforço. Neste processo, o vapor na contenção pode se condensar tornando-se novamente líquido, trocar calor com as paredes da contenção e dos equipamentos dentro da contenção, normalmente em temperaturas muito mais baixas que a do vapor. Todos estes processos diminuem a pressão e a temperatura do vapor expandido na contenção. Para se determinar a pressão e a temperatura na contenção após um “LOCA”, deve-se considerar o comportamento temporal da pressão, temperatura, massa e energia nos compartimentos que fazem parte da contenção; considerar a interação entre os compartimentos, como troca de massa e calor, considerar a troca de calor com estruturas que fazem parte da contenção e considerar a atuação de dispositivos de segurança como “sprays”, ventiladores etc. Os modelos zero-dimensionais e bifásicos [4,5] utilizados para se determinar a pressão na contenção consideram as equações de conservação de massa e energia. Cada compartimento da contenção possui duas regiões separadas para representar o vapor e ar, na parte superior, e o líquido acumulado na parte inferior. A interação entre 248 Pesquisa Naval Nº 16, Outubro de 2003 as duas regiões pode ser de evaporação, condensação, “bulk boiling” e troca de calor sensível através da interface, transferindo massa e energia entre elas. Pode haver troca de calor com estruturas como a parede da contenção, e troca de massa entre compartimentos por meio de quebras ou dutos. Sejam as regiões de vapor e líquido no compartimento “n” identificadas pelos subscritos “v” e “l”, respectivamente. Assim, as equações de balanço macroscópico de massa e energia para este compartimento podem ser escritas como: dM n ,v (t ) dt = ∑ ( f m→n ,vWm→n (t ) − f n→m ,vWn→m (t )) + m Wn ,l →v (t ) − Wn ,v→l (t ) dM n ,l (t ) dt = ∑ ( f m→n ,lWm→n (t ) − f n→m,lWn→m (t )) − m Wn ,l →v (t ) + Wn ,v→l (t ) d ( M n ,v (t )u n ,v (t ) + M n ,a c n ,a Tn ,v (t )) = ∑ ( f m→n ,vWm→n (t )hm,v (t ) dt m f n→m ,vWn→m (t )hn ,v ) + u n ,l (t )Wn ,l →v (t ) − u n ,v (t )Wn ,v→l (t ) − Qn ,v ( d ( M n ,l (t )u n ,l (t )) dt = ∑ ( f m→n ,lWm→n (t )hm ,l (t ) − f n→m,lWn→m (t )hn m u n ,l (t )Wn ,l →v (t ) + u n ,v (t )Wn ,v→l (t ) − Qn ,l (t ) (1) ( 2) (3) (4) onde Mn,v é a massa de vapor no compartimento “n”; Mn,l é a massa de líquido no compartimento “n”; Mn,a é a massa de ar na região de vapor no compartimento “n”; fm→n,v é a fração de vapor da vazão total do compartimento “m” para o compartimento “n”; fm→n,l é a fração de líquido da vazão total do compartimento “m” para o compartimento “n”; Pesquisa Naval Nº 16, Outubro de 2003 249 Wm→n é a vazão total de líquido e vapor do compartimento “m” para o compartimento “n”; Wn,l→v é a vazão que se evapora da região de líquido para a região de vapor no compartimento “n”; Wn,v→l é a vazão que se condensa da região de vapor para a região de líquido no compartimento “n”; un,v é a energia interna do vapor no compartimento “n”; un,l é a energia interna do líquido no compartimento “n”; cn,v é o calor específico do ar na região de vapor do compartimento “n”; Tn,v é a temperatura na região de vapor do compartimento “n”; hn,v é a entalpia do vapor no compartimento “n”; hn,l é a entalpia do líquido no compartimento “n”; Qn,v é o calor transferido através de estruturas existentes na região de vapor do compartimento “n”; Qn,l é o calor transferido através de estruturas existentes na região de líquido do compartimento “n”; Nas regiões de líquido e de vapor considera-se a existência de uma mistura bifásica homogênea de vapor e líquido: v n,v = (1 − x n,v )v f (Tn,v ) + x n,v v g (Tn,v ) v n,l = (1 − x n,l )v f (Tn,l ) + x n,l v g (Tn,l ) (5) onde v n,v e v n,l são os volumes específicos das regiões de vapor e líquido do compartimento “n”, vf e vg são os volumes específicos de líquido e vapor saturado na temperatura indicada e xn,l e xn,v são os títulos nas regiões indicadas nos subscritos. As vazões entre os compartimentos podem ser calculadas de acordo com a evolução do transiente ou podem ser definidas externamente. No caso de um acidente tipo “LOCA”, a vazão de líquido e vapor para o compartimento da contenção, Wm→n , é definida em dados de entrada. O vapor produzido na região de líquido na forma de “bulk-boiling” (evaporação) é transferido para a região de vapor; o líquido na região de vapor (condensação) é transferido para a região de líquido. Neste processo há a transferência de massa e energia entre as duas regiões. As outras formas de troca de calor são calor sensível, via convecção devido a diferença entre as temperaturas da região de vapor e região de líquido, e calor latente devido a transferência de massa via gradiente de concentração molar do vapor. A partir dos resultados de temperatura e volume específico obtém-se a pressão no compartimento utilizando as equações de estado para o vapor e para o ar, 250 Pesquisa Naval Nº 16, Outubro de 2003 p n,v (t ) = p (Tn,v (t ), v n,v (t )) + M n,a R a Tn,v (t ) x n,v (t ) M n,v (t )v g (Tn ,v (t )) (6) onde o primeiro termo corresponde a equação de estado de vapor e o segundo a equação de estado do ar, considerado como gás ideal. 3 – Estimativa da pressão na contenção com o programa CONTEMPT-LT A partir de resultados de pressão em contenções de grande porte pode-se estimar a pressão em contenções de pequeno porte. Para um PWR comercial tem-se uma pressão máxima em torno de 45 psia, enquanto que para uma instalação naval, com uma razão entre o volume do circuito primário e da contenção de 0,025, tem-se uma pressão máxima em torno de 185 psia. Os resultados extrapolados acima, obtidos com ajustes de polinômios, é dependente dos coeficientes de ajustes e dos valores utilizados. Como os valores utilizados foram obtidos para razões em torno de 0,005 e os resultados de interesse tem razões de volume maiores que 0,02, torna-se necessário avaliar melhor estes resultados. Isto é feito a seguir utilizando o programa CONTEMPTLT [4]. O programa CONTEMPT-LT [4] foi desenvolvido para estimar o comportamento de longo prazo de uma contenção de LWR em consequência a um acidente de perda de refrigerante tipo “LOCA”. O programa calcula o comportamento temporal das variáveis pressão, temperatura, massa e energia nos compartimentos que fazem parte da contenção; considera a interação entre os compartimentos, como troca de massa e calor, troca de calor com estruturas que fazem parte da contenção e a atuação de dispositivos como “sprays” e ventiladores. A contenção pode ter até 4 compartimentos distintos. Cada compartimento possui duas regiões separadas para representar o vapor e ar, na parte superior, e o líquido acumulado na parte inferior, conforme apresentado na Seção 2. No programa CONTEMPT-LT, as Eqs. 1 a 5 são resolvidas assumindo uma aproximação quase-estática na qual as derivadas temporais são calculadas por meio de diferença finita explícita. A solução das equações é feita de forma iterativa assumindo um valor inicial para a temperatura e o volume específico, determinando a seguir as propriedades da água título, entalpia e energia interna. A temperatura é modificada de acordo com os resultados e os cálculos são feitos até que a diferença entre os valores entre duas iterações sucessivas é menor que uma dada tolerância. A pressão na contenção, determinada como a pressão termodinâmica, é fornecida pela Eq. (6). O programa CONTEMPT-LT é utilizado para análise de contenções de PWR que apresentam grandes volumes livres[3,4]. Sua validação, entretanto, incluiu experimentos que apresentavam vários compartimentos com volumes livres pequenos, correspondendo à razões de volume, Rv, superiores a 0,03, e apresentou uma boa Pesquisa Naval Nº 16, Outubro de 2003 251 concordância para os valores de pressão em função do tempo [5]. Para se estudar o comportamento da pressão máxima em reatores com razões de volumes, Rv, variando de 0,005 a 0,03 construiu-se um conjunto de dados, apresentados na Tabela 1, para instalações com Rv intermediárias. A massa de água total, existente no circuito primário antes de ocorrer o “LOCA”, os volumes da contenção e do primário para dez razões Rv diferentes também encontram-se na Tabela 1. Estas razões de volume são representativas de instalações de grande porte, médio porte e navais [2,3,4]. O comportamento temporal da descarga foi tomado das Refs. 6 e 7; as descargas em função do tempo são tais que integradas no tempo reproduzem as massas de água apresentadas na Tabela 1. Algumas das descargas encontram-se na Figura 1, onde o tempo de descarga é de cerca de 13 s. Nota-se que a vazão atinge valores muito elevados no início e depois cai numa taxa mais lenta até atingir valores nulos, o valor máximo de vazão atinge cerca de 80000 kg/s para reatores de grande porte e 4000 kg/ s para reatores navais. Foram feitas simulações para os dez casos apresentados Tabela 1, cada um correspondente à uma razão de volumes. Tentando reproduzir as condições apresentadas na Seção 3, não foram consideradas a troca de calor com as estruturas presentes ou qualquer dispositivo de segurança para promover a supressão do pico de pressão durante o acidente postulado. Considerou-se um tempo total de transiente de 25 s com cálculos sendo feitos em intervalos de tempo de 0,05 s. TABELA 1 – Volumes da contenção e do circuito primário, massas de água do circuito primário para dez razões de volume Rv escolhidas. Rv Vcont 0,005 [ft ] 2,6+6* [ft ] 1,3+4 0,006 1,97+6 1,18+4 0,007 1,49+6 9,17+3 0,008 1,13+6 9,05+3 0,010 6,5+5 6,49+3 0,015 1,62+5 2,43+3 0,020 4,06+4 8,11+2 0,023 1,77+4 4,06+2 0,025 1,014+4 2,53+2 0,030 2,54+3 7,62+1 * 2,6+6 lê-se 2,6x106. 3 Vprimari 3 252 Pesquisa Naval Nº 16, Outubro de 2003 As evoluções temporais da pressão e da temperatura na contenção em função do tempo para 6 casos diferentes são apresentadas nas Figuras 2 e 3. Os comportamentos são semelhantes para ambas as variáveis, atingindo um patamar de máximo, assintoticamente, a partir de 13 s. Como não há troca de calor com o ambiente, situação adiabática, a temperatura e a pressão se estabilizam nesses valores elevados. A consideração destes fenômenos faria com que elas atingissem um pico mais baixo e caíssem a seguir. Para grandes contenções, como para Rv de 0,005, a pressão máxima atinge 52 psia enquanto que para contenções pequenas, como Rv de 0,03, a pressão máxima atinge 198 psia. Os valores de temperatura e pressão máximas no ambiente da contenção, após o período de descompressão, em função da razão de volumes são apresentadas nas Figuras 4 e 5. Em relação a temperatura vê-se que a medida que a contenção se torna menor (maior razão de volume) seus valores aumentam com menor intensidade. Em relação ao comportamento da pressão em função da razão de volume, este se parece linear conforme foi estimado anteriormente na Seção II a partir dos resultados de reatores grande fornecidos por Slaughterbeck [2]. Nota-se na Figura 6, entretanto, que as curvas obtidas na Seção 2 e com o programa CONTEMPT-LT se cruzam em torno de uma razão de volume de 0,017, indicando que os resultados de pressão do programa crescem numa taxa menor com relação a Rv. Os resultados do CONTEMPTLT de pressão máxima na contenção são maiores para reatores de grande porte e menores para reatores de pequeno porte e navais. FIGURA 1 – Vazões de descarga devido a um “LOCA” para várias razões entre volumes do circuito primário e da contenção. Pesquisa Naval Nº 16, Outubro de 2003 253 4 - Conclusões Estudou-se o comportamento da pressão e da temperatura em função do tamanho da contenção do reator devido acidentes tipo “LOCA”. Considerou-se contenções de acordo com o porte do reator, isto é, grande porte, médio porte e naval. FIGURA 2 – Pressão na contenção em função do tempo para várias razões entre volume do primário e contenção. FIGURA 3 – Temperatura nacontenção em função do tempo para várias razões entre volume do primário e contenção. 254 Pesquisa Naval Nº 16, Outubro de 2003 360 Temperatura Máxima[F] 340 320 300 280 260 240 0,005 0,010 0,015 0,020 0,025 Razão de Volume FIGURA 4 Temperaturas máximas em função da razão entre volumes do primário e da contenção para acidentes tipo “LOCA”. FIGURA 5 – Pressões máximas em função da razão entre volumes do primário e da contenção para acidentes tipo “LOCA”. Pesquisa Naval Nº 16, Outubro de 2003 255 Utilizando resultados calculados para contenções com grandes volumes livres, onde nenhuma troca de calor foi considerada, extrapolou-se para contenções de volumes pequenos. Para uma razão de volumes Rv de 0,025 obteve-se uma pressão máxima em torno de 185 psia. Utilizando o programa CONTEMPT-LT para condições semelhantes obteve-se uma pressão máxima em torno de 162 psia e temperatura máxima em torno de 350 oF. A consideração de troca de calor diminuiria os valores máximos de pressão e temperatura na contenção. Reatores de grande porte apresentam pressões máximas na contenção na ordem de 52 psia. Os resultados extrapolados da Seção 2 e os obtidos com o programa CONTEMPT-LT para a pressão máxima em função da razão de volumes apresentam um comportamento quase linear. Entretanto, as inclinações são diferentes e os resultados do CONTEMPT-LT são inferiores que os extrapolados para reatores pequenos. A temperatura máxima na contenção aumenta com menor intensidade a medida que a contenção se torna menor (maior razão de volume), tendendo a um valor máximo assintoticamente. Referências 1. 2. 3. 4. US NUCLEAR REGULATORY COMMISSION, Standard Technical Specification, Westinghouse Plants, Revision 1, NUREG-1431, Abril de 1995. LEWIS, E.E., Nuclear Power Reactor Safety, cap. 9, pag.434, John Wiley & Sons, New York, 1977. SLAUGHTERBECK, D.C., Correlations to Predict The Máximum Containment Pressure Following a Loss of Coolant Accident in Large Pressurized Reactors with Dry Containments, Idaho Nuclear Corporation Report, IN-1468, 1971. WHEAT, L.L., WAGNER, R.J., NIEDERAUER, G.F., OBENCHAIN, C.F., CONTEMPT-LT, A Computer Program For Predicting Containment PressureTemperature Response To Loss Of Coolant Accident, Aerojet Nuclear Company, TID 4500, 1975. 5. MINGS, W. J., MILLS, J. I., Containment code developmental verification at INEL, Proceedings of the Topical Meeting on Thermal Reactor Safety, Eastern Idaho Section, American Nuclear Society, 1978. 6. SOUZA, A L., Análise da contenção da INAP, Rel. Técnico PSE.RAT.COPESP.002, RELT.001.R01, 1996. 7. DUTRA, A. S., Memorial de cálculo para contenção, Rel. Técnico CTMSP, 1997. 256 Pesquisa Naval Nº 16, Outubro de 2003 MUNIÇÃO NAVAL A Marinha do Brasil, atualmente, fabrica, no País, toda a munição naval de médio e grosso calibres utilizada pelas Forças Navais brasileiras. A Fábrica de Munição da Marinha - FMM, que tem suas origens ligadas à antiga Fábrica de Armamento da Marinha FAM (que funcionou até o final da década de 70 em instalações situadas no Arsenal de Marinha do Rio de Janeiro), teve suas instalações inauguradas em 9 de julho de 1982, no Guandu do Sapê - Campo Grande - Rio de Janeiro, e é a única planta fabril da América Latina em operação nos dias atuais, com capacidade para fabricação de munição completa de grosso e médio calibres. Ocupando aproximadamente 4.500.000m² no km45 da Avenida Brasil, com área construída de 20.000m², a FMM utiliza para sua operação 300 empregados militares e civis, altamente qualificados, sendo 20 de nível superior, 62 de nível médio e 218 de nível auxiliar. A FMM é diretamente subordinada à Diretoria de Sistemas de Armas da Marinha e está sendo gerenciada e operada, desde 1996, pela Empresa Gerencial de Projetos Navais - EMGEPRON. Atuando dentro de elevados padrões de qualidade e atendendo a rígidos requisitos de segurança e ao cumprimento rigoroso das especificações técnicas estabelecidas para atingimento do nível de qualidade exigido pelo mercado internacional, a FMM vem executando um contínuo trabalho de aperfeiçoamento da infra-estrutura do seu parque industrial, dos recursos humanos disponíveis e das técnicas de fabricação. A importância da atuação da FMM para a Marinha do Brasil e para o País, tanto no aspecto econômico, quanto no aspecto estratégico, e o seu posicionamento como única fábrica de munição na América Latina que opera na produção de munição completa de médio e grosso calibres, refletem o exato valor desse trabalho. XX Capítulo DETERMINAÇÃO DO FATOR DE PICO UTILIZANDO SINAIS DE DETECTORES OUT-OF-CORE EM REATORES NAVAIS Rose Mary Gomes do Prado Souza, MSc *Centro de Desenvolvimento da Tecnologia Nuclear – CDTN-CNEN/BH Caixa Postal 941. 30123-970, Belo Horizonte, MG, Brasil João Manoel Losada Moreira, PhD Centro Tecnológico da Marinha em São Paulo - CTMSP Av. Prof. Lineu Prestes, 2468 05508-000 Cidade Universitária, São Paulo, SP, Brasil Resumo O trabalho pretende mostrar que o fator de pico das distribuições de potência de um reator naval pode ser correlacionado com a diferença axial de potência obtida de detectores out-of-core e com a posição das barras de controle. As respostas dos detectores out-of-core para estados do reator com diferentes distribuições de potência foram medidas em experimentos realizados no reator IPEN/MB-01, operando a 10 W, com as barras de controle em diversas posições. As distribuições de potências para estes estados do reator foram obtidas por meio de cálculos tridimensionais do núcleo com o programa CITATION. Os resultados obtidos mostram que existe correlação entre os parâmetros citados para um reator naval. As análises mostram que há um padrão complexo (com maior dispersão de pontos) entre o fator de pico da distribuição de potência do reator e a diferença axial de potência. Concluise que o fator de pico deve ser determinado em função da diferença axial de potência e da diferença de potência por quadrante do reator. Abstract This paper aims to show that in naval reactors the power density peak factor can be determined from the power axial offset, measured from out-of-core detector 258 Pesquisa Naval Nº 16, Outubro de 2003 signals, and from signals indicating the control rod positions in the core. The response of out-of-core detector signals were measured in experiments performed in the IPEN/ MB-01 zero-power reactor. Several reactor states with different power density distribution were obtained by positioning the control rods in different configurations. The power distribution and its peak factor were calculated with the CITATION code for each of these reactor states. The obtained results show that for the naval reactors there is a correlation between the peak factor, the control rod position and power axial offset. The analysis shows that a complex pattern exist between the peak factor and the power axial offset. In order to improve the accuracy, the results indicate that the peak factor should be determined through a correlation which takes into account the power axial offset and the quadrant power tilt. 1 – Introdução Em reatores nucleares o controle da distribuição de fluxo neutrônico ou da densidade de potência durante a operaçãot: é importante para se determinar condições seguras de operação, inclusive quanto ao fluxo de calor crítico ou DNBR. Uma das formas de estimar o fluxo de calor crítico durante a operação é através dos valores de densidade de potência local, ou seja, do fator de pico, obtidos utilizando a diferença axial de potência (DAP) e a distribuição por quadrante ou octante fornecida pelos detectores out-of-core. A diferença axial de potência é estimada de forma indireta a partir dos sinais desses detectores, localizados nas partes superior e inferior do núcleo. Para reatores navais a estimativa da densidade de potência axial é mais complicada devido ao pequeno tamanho do núcleo do reator, em relação ao tamanho dos detectores, e às pequenas distâncias envolvidas Neste trabalho, mede-se a diferença axial de potência com detectores outof-core de forma a se obter dados experimentais que a correlacionem com o fator de pico da distribuição de potência do reator. Esta é a informação que se deseja para implementação no sistema de proteção do reator contra fluxo de calor crítico ou DNBR. Para isto, foram realizados experimentos na unidade crítica IPEN/MB-01, colocando quatro detectores de nêutrons externamente ao tanque do reator, dois na face norte e dois na face oeste, em posições simétricas em relação ao centro do núcleo. O reator foi colocado crítico com as barras de controle em diversas posições pré-fixadas e foram obtidas, para cada caso, as diferenças axiais de potência, das respostas dos detectores. A partir de cálculos com o código CITATION, obteve-se também a distribuição de potência no núcleo em função das posições das barras de controle. Na Seção II é apresentado o reator IPEN/MB-01 onde foram realizados os experimentos, na Seção III são apresentadas as medidas e os cálculos de distribuição de potência realizados. Na Seção IV são apresentados os principais resultados já obtidos e, finalmente, na Seção V são apresentadas as conclusões. Pesquisa Naval Nº 16, Outubro de 2003 259 2 – Reator IPEN/MB-01 Os experimentos foram realizados no reator IPEN/MB-01. A Figura 1 mostra, esquematicamente, o núcleo do reator e o tanque circular que contem água leve utilizada como moderador e refletor. O reator é constituído de um conjunto de varetas de combustível de aço inoxidável contendo pastilhas de UO2 levemente enriquecido, semelhantes a um reator PWR. Estas varetas são posicionadas no núcleo por meio de placas espaçadoras formando um conjunto semelhante a elementos combustíveis de PWR. Na figura, apresenta-se uma configuração equivalente a 4 elementos combustíveis. O controle de reatividade é feito por barras compostas de varetas absorvedoras de nêutrons de Ag-In-Cd e B4C. As letras “A” e “B” denotam as barras de Controle, a letra “S” as barras de Segurança. O retângulo escuro no lado direito do núcleo representa um conjunto de placas de aço que podem ser colocadas no refletor lateral do reator para simular os internos de reatores PWR, tais como a barreira térmica, o baffle ou outra estrutura interna. Os círculos numerados representam a instrumentação nuclear do reator. Figura 1 - Diagrama Esquemático do Núcleo do Reator IPEN/MB-01 260 Pesquisa Naval Nº 16, Outubro de 2003 3 – Metodologia para medir a diferença axial de potência Os detectores da instrumentação out-of-core de um reator monitoram a potência nuclear do reator e podem fornecer, também, outras informações como período e diferença axial de potência, DAP. Esta última informação é obtida da diferença entre o sinal de detectores out-of-core localizados em cotas acima e abaixo do centro do reator, dividida pela soma destes sinais: DAP = S s − Si . S s + Si (1) onde Ss e Si denotam o sinal dos detectores que monitoram a parte superior e inferior do núcleo. Esta grandeza é utilizada para se inferir a distribuição axial de densidade de potência de um reator durante a operação. Os experimentos realizados visam determinar a precisão com que se infere a distribuição axial de densidade de potência por intermédio da DAP [1,2,3]. Nos experimentos foram colocados quatro detectores de nêutrons juntos à face externa do tanque do reator. Dois detectores foram colocados na face norte e os outros dois na face oeste, conforme indicado na Figura 1 por “Detector Out-of-Core Face Norte” e “Detector Out-of-Core Face Oeste”, respectivamente. Estas posições simulam a localização destes detectores em reatores de potência. Os detectores de nêutrons utilizados nas medidas foram de 10B. Para obter um maior número de estados do reator com diferentes configurações de barras de Controle e Segurança foi necessário aumentar o excesso de reatividade do núcleo. Assim, o núcleo do reator IPEN/MB-01 foi colocado na forma cilíndrica, retirando combustíveis dos cantos do núcleo quadrado original e colocando-os nos centros dos lados e também removeu-se as placas de aço na lateral oeste. Com este procedimento houve um ganho de aproximadamente 700 pcm em reatividade. O reator foi então colocado crítico a 10 W com as duas barras de Segurança (denominadas BS1 e BS2) e as duas de Controle (BC1 e BC2) à mesma altura (67,10 % retiradas). Foram tomadas as contagens nos quatro detectores considerando-as como referência. A seguir, o reator foi colocado crítico no mesmo nível de potência, com as barras de Controle e de Segurança em diversas posições distintas, totalizando 56 estados diferentes de posições de barras de controle e de segurança e de distribuição de densidade de potência. As extrações das barras de controle foram realizadas a partir das barras posicionadas à mesma altura (67,1% retiradas), e depois extraindo-as 77,1%, 87,1% e finalmente 100%, ou, totalmente fora do núcleo. Em cada situação, foram feitas compensações com outras barras a fim de manter a criticalidade do reator. Pesquisa Naval Nº 16, Outubro de 2003 261 O seguinte procedimento foi seguido: • Compensação cruzada de barras; • Compensação paralela de barras; • Compensação de barras emparelhadas duas a duas; • Compensação emparelhada tripla de barras. As contagens nos diversos detectores foram registradas para os cálculos das respectivas DAP’s, com a seguinte nomenclatura: • DAPN - diferença axial de potência calculada a partir das respostas dos detectores colocados na face norte; • DAPO – diferença axial de potência obtida das respostas dos detectores colocados na face oeste. Concomitantemente, foram registradas as correntes de detectores colocados sob o tanque e pertencentes à instrumentação do reator, através de medidores chamados de Canal 0 e Canal 1. A partir das medidas das correntes destes detectores, obteve-se, pela técnica de Ruído, os valores da potência do reator. As medidas foram feitas para distribuições axiais de potência bem pronunciadas para simular as condições do reator da INAP, Instalação Nuclear a Água Pressurizada. 4 – Resultados e análises Para cada um dos 56 estados diferentes do reator foi calculada a distribuição de densidade de potência do reator IPEN/MB-01 utilizando o programa CITATION [4] e seções de choque obtidas com o programa HAMMER/TECHNION [5]. Dos resultados do código CITATION foram obtidos os valores de densidade de potência local máxima (fator de pico - FP) e sua localização para as diversas posições das barras de Controle e de Segurança em que foram realizadas as medidas. A partir das medidas de diferença axial de potência norte e oeste (DAPN, DAPO, respectivamente) e posição das barras de Controle e Segurança e de cálculos do fator de pico e sua localização no reator, um conjunto de dados pôde então ser obtido relacionando as DAP’s e Fator de Pico (FP) e sua localização no núcleo do reator. Nas Figuras 2 a 5, tomadas como exemplo, tem-se, as diferenças axiais de potência norte e oeste (DAPN e DAPO) e os valores calculados de FP em função dos valores de retirada da barra BS1 e BS2, sem considerar os pontos em que elas ficaram sem movimentar. Nota-se que os vários estados do reator, conseguidos por meio da movimentação das barras de controle, causaram fatores de pico entre aproximadamente 2 e 2,3. As distribuições das DAP’s e FP’s obtidas a partir da retirada da barra BC1 e BC2 apresentam comportamento semelhantes. 262 Pesquisa Naval Nº 16, Outubro de 2003 Figura 2. DAPN, FP em Função da Posição da Barra de Segurança BS1 Figura 3. DAPO, FP em Função da Posição da Barra de Segurança BS1 Como pode ser observado dos gráficos, há uma correlação entre as DAP’s, os FP’s e a posição das barras BC1, BC2, BS1 e BS2. Há um padrão em todas as figuras que pode ser descrito como a seguir. Com as barras em torno da posição de 60% retirada, mas chegando em alguns casos até mais de 70% retirada, obtém-se os maiores valores Pesquisa Naval Nº 16, Outubro de 2003 263 de diferença axial de potência, em torno de 18%. A medida que qualquer das barras é inserida mais para dentro do reator, como até a posição de 50% retirada, a DAP diminui; a medida que uma das barras é retirada do reator, até a posições de 100% retirada, a DAP também vai diminuindo. Há uma dispersão de pontos nas curvas porque pode-se obter o mesmo valor de DAP com barras posicionadas em diferentes posições. Isto se deve ao fato de que a medida que uma barra absorvedora é inserida no reator ela empurra o fluxo de nêutrons ou a densidade de potência para baixo, e aumenta a DAP. Após certa altura de inserção, o fluxo de nêutrons tende a ir para os quadrantes ao lado, onde não há barras absorvedoras, ou mesmo a voltar para a parte superior se a inserção da barra for muito grande. No presente experimento verifica-se que na posição de barra de 60% retirada ocorre a transição de “empurrar o fluxo de nêutrons para baixo” para “empurrar o fluxo nêutrons para os quadrantes laterais”. Figura 4. DAPN, FP em Função da Posição da Barra de Segurança BS2 Determinação do Fator de Pico a Partir de Sinais de Posição de Barra. Nas Figuras 2 a 5, a um dado valor da abcissa encontram-se vários valores na ordenada, isto é, para uma dada posição da barra BS1 ou BS2 existem vários valores de diferença axial de potência e fator de pico. Isto ocorre porque foram conseguidos nos experimentos vários estados críticos do reator com a mesma posição da barra BS1, mas com posições diferentes para as barras BS2, BC1 e BC2. O mesmo foi conseguido para a barra BS1, BC1 e BC2. Cada um dos pontos apresentados para a mesma abcissa corresponde a um desses diferentes estados críticos. 264 Pesquisa Naval Nº 16, Outubro de 2003 Assim, correlacionar o fator de pico e a posição de apenas uma das barras não é suficiente para se ter uma boa estimativa. As figuras indicam que, neste caso, devese correlacionar o fator de pico a posição das 4 barras de controle, pois todas elas afetam a distribuição de potência do reator. Figura 5. DAPO, FP em Função da Posição da Barra de Segurança BS2 Os resultados apresentados nas Figuras 2 a 5 mostram que há uma correlação forte entre o fator de pico da distribuição de densidade de potência e a posição das barras de controle. Os sinais de posição da barra de controle, durante a operação do reator, podem ser utilizados para inferir o valor do fator de pico a ser utilizado no sistema de proteção de um reator. Determinação do Fator de Pico a Partir da Diferença Axial de Potência. A diferença axial de potência obtida a partir dos sinais de detectores out-ofcore pode ser utilizada para se determinar o fator de pico da distribuição de densidade de potência. As Figuras 6 e 7 apresentam o fator de pico em função das diferenças axiais de potência obtidas dos detectores localizados nas faces norte e oeste. Nestas figuras os pontos apresentados são aqueles em que a barra BS1 foi movimentada (elas se referem às Figuras 2 e 3). Os resultados das Figuras 6 e 7 mostram que a correlação entre fator de pico e as diferenças axiais de potência não é tão clara, pois existem vários estados do reator que apresentam valores diferentes de fator de pico para a mesma diferença axial de potência. Pesquisa Naval Nº 16, Outubro de 2003 265 Há duas razões principais para este comportamento. A primeira, está ligada ao fato que os detectores out-of-core, localizados longe do núcleo, não são capazes de diferenciar alterações pequenas na distribuição de potência. Assim, pequenas variações de fator de pico não são percebidas pela diferença axial de potência. A segunda razão está ligada ao fato de existir distribuições de potência com valores de fator de pico diferentes, mas que apresentam a mesma diferença axial de potência. Figura 6. Fator de Pico em Função da Diferença Axial de Potência da Face Norte. Figura 7. Fator de Pico em Função da Diferença Axial de Potência da Face Oeste 266 Pesquisa Naval Nº 16, Outubro de 2003 Observando a Figura 1, nota-se que, por exemplo, ao se introduzir a barra de controle A (BC1), próxima a face norte, e compensar esta reatividade negativa retirando a barra B (BC2) próxima a face oeste (estando as barras BS1 e BS2 paradas) obtém-se um dado fator de pico e uma dada diferença axial de potência na face norte (DAPN). Ao se compensar a reatividade negativa com a barra S (BS2), próxima a face sul, (barras BC2 e BS1 paradas) pode-se obter, para a mesma diferença axial de potência na face norte, pois as respostas dos detectores out-of-core são as mesmas, um fator de pico diferente localizado em outro ponto do reator. As Figuras 6 e 7 mostram claramente este comportamento. As Figuras 8 e 9 representam subconjuntos da Figura 6. A Figura 8 mostra o comportamento do fator de pico em função da diferença axial de potência na face norte do reator considerando somente os estados em que a barra BS1 foi inserida e a barra BS2 foi retirada (para manter a criticalidade) enquanto as barras BC1 e BC2 não se movimentaram. Observando a Figura 8 nota-se que o fator de pico varia pouco situandose entre 2,24 e 2,27 no intervalo de 14,5 a 18 % de diferença axial de potência. Isto é esperado pois as barras BC1 e BC2 (A e B na Figura 1) encontram-se em posições simétricas no núcleo fazendo com que a distribuição de potência não mude muito na posição central do reator. Figura 8. FP em Função da DAPN para Estados do Reator com Movimentação da Barra BS1, Compensada pela Barra BS2 Pesquisa Naval Nº 16, Outubro de 2003 267 A Figura 9 mostra o comportamento do fator de pico em função da diferença axial de potência da face norte para outros estados do reator com configurações de barras diversas. Neste caso, enquanto as barras BC1 e BC2 são inseridas no reator, a criticalidade é mantida retirando-se as barras BS1 e BS2, não havendo, portanto, simetria. Conforme mostra a figura, o fator de pico aumenta de 2,08 a 2,24 para uma diferença axial de potência variando de aproximadamente 14,5 a 17,5 %. As Figuras 8 e 9 mostram que existe uma correlação entre o fator de pico e a diferença axial de potência, entretanto, para se encontrá-la é necessário uma análise criteriosa dos dados. Se esta análise não for realizada as incertezas na correlação serão muito grandes, conforme pode ser visto nas Figuras 6 e 7 onde a dispersão dos dados é muito grande. Figura 9. FP em Função da DAPN para Estados do Reator com Movimentação das Barras BC1 e BC2, Compensadas pelas Barras BS1 e BS2. A abordagem que se apresenta melhor para resolver este problema é considerar na correlação para se determinar o fator de pico as informações de diferença axial de potência das faces norte e oeste do reator. Isto é equivalente a se considerar informações de distribuição de potência por quadrante. Desta forma, o fator de pico é determinado em função da diferença axial de potência e da diferença de potência por quadrante do 268 Pesquisa Naval Nº 16, Outubro de 2003 reator. A correlação para se determinar o fator de pico será realizada segundo esta abordagem e será o próximo passo deste trabalho. 5 – Conclusões Os resultados experimentais obtidos no reator IPEN/MB-01, um reator de pequeno porte de proporções similares aos reatores navais, mostram que há uma correlação entre a posição das barras absorvedoras, a diferença axial de potência e o fator de pico. Há um padrão claro que permite dizer que há correlação entre a distribuição de potência do reator e as posições das barras de controle. Consequentemente, podese afirmar que para um reator naval os sinais de indicação de posição da barra de controle, durante a operação do reator, podem ser utilizados para inferir o valor do fator de pico a ser utilizado no sistema de proteção de um reator. As análises mostraram também que há um padrão mais complexo (com maior dispersão de pontos) entre o fator de pico da distribuição de potência do reator e a diferença axial de potência. Neste caso, o fator de pico deve ser determinado em função da diferença axial de potência e da diferença de potência por quadrante do reator. A correlação para se determinar o fator de pico em função desses parâmetros, obtidos dos sinais de detectores out-of-core, será obtida na continuação deste trabalho. Referências [1] MOREIRA, J.M.L., e SOUZA, R.M.G.P. Rotina Experimental - Determinação de Fator de Pico Utilizando Detectores Externos ao Tanque de Moderador. Relatório Técnico Interno, CTMSP, abril de 2001. [2] MOREIRA, J.M.L., e SOUZA, R.M.G.P. Determinação de Fator de Pico Utilizando Detectores Externos ao Tanque de Moderador - Plano de Trabalho. Relatório Técnico Interno, CTMSP, novembro de 2000. [3] MOREIRA, J.M.L., e SOUZA, R.M.G.P. Determinação da Densidade de Potência Local Utilizando Sinais da Instrumentação Nuclear. Relatório Técnico Interno, CTMSP, rev. 01, maio de 2001. [4] FOWLER, T. B., VONDY, D. R., CUNNINGHAN, G. W. Nuclear Reactor Core Analysis Code: CITATION, ORNL-TM-2496, 1971. [5] BARHEN, J., et al., The HAMMER Code System Technion, EPRI-NP-565, 1978. XXI Capítulo ANÁLISE DA DISTRIBUIÇÃO E IDENTIFICAÇÃO DE “OUTLIERS” DE UM CONJUNTO DE DADOS DE PRIMEIRA DETECÇÃO RADAR UTILIZANDO A FERRAMENTA “BOXPLOT” Capitão-de-Corveta Cleber Almeida de Oliveira, MSc Centro de Apoio a Sistemas Operativos – CASOP [email protected] ou [email protected] Resumo Este trabalho resume os resultados da aplicação da metodologia de desenho esquemático denominado “boxplot” a dados extraídos dos Exercícios Operativos (EXOP) relativos às distâncias das primeiras detecções RADAR de alvos de superfície de oportunidade registradas pelos diversos meios da Marinha do Brasil (MB), visando a análise e verificação da distribuição dos dados. Esta análise permite a identificação de valores atípicos, denominados “outliers”, devido a erros de anotação das medidas ou devido a observações discrepantes e, posterior, inferência estatística. A comparação dos resultados obtidos de média e desvio padrão após a identificação dos “outliers” utilizando o “boxplot” com os resultados obtidos pela metodologia aplicada aos dados de 2002, complementa a análise dos dados. Abstract This paper synthesizes the results of a research aimed to analyze and verify the data distribution obtained from operations exercises related to the distances of first RADAR detection in the naval environment. This Analysis allows the identification of outliers. The comparison of the results obtained of mean and standard deviatiom after using boxplot with the results obtained by the methodology applied to the data in 2002, complements the data analysis. Keywords: Boxplot - Outliers 270 Pesquisa Naval Nº 16, Outubro de 2003 INTRODUÇÃO Este trabalho baseou-se em dados extraídos dos Exercícios Operativos (EXOP) relativos às distâncias das primeiras detecções RADAR de alvos de superfície de oportunidade registradas pelos diversos meios da Marinha do Brasil (MB), colhidos de jan/2001 a dez/2002. Esses dados permitem o estabelecimento de valores padrões de detecção para cada conjunto Navio/RADAR/Tamanho do alvo, visando ao planejamento de missões de esclarecimento. Os alvos de superfície foram separados em função do seu tamanho, a saber: Ø Alvo Pequeno – deslocamento < 3000 t. (ex.: Pesqueiro); Ø Alvo Médio – deslocamento entre 3000 e 6000 t. (ex.: Navio Mercante); e Ø Alvo Grande – deslocamento > 6000 t. (ex.: Navio Petroleiro). A detecção RADAR depende de diversos fatores tais como: seção reta RADAR do alvo, parâmetros de operação do transmissor e receptor RADAR, condições de propagação, etc. Como as condições de propagação reinantes durante as detecções não foram consideradas durante a coleta dos dados, faz-se mister o emprego de ferramenta para a identificação de dados com valores atípicos “outliers” que possam influenciar a grande massa de dados. Figura 1.1 - Diagrama esquemático - “boxplot” Pesquisa Naval Nº 16, Outubro de 2003 271 O emprego do “boxplot” permite a identificação desses valores atípicos com maior facilidade e rapidez, dispensando a interferência do especialista na redução da amostra para a análise e, conseqüente, inferência estatística. “Boxplot” é um diagrama que traduz, graficamente, as informações de cálculo da mediana, quartis, e pontos extremos, desenvolvida e aprimorada por pelos autores, tais como Tukey (1977), Tukey e Larsen (1978) e McGill (1978). Os valores observados que não estiverem dentro da área delimitada pelos limites superior e inferior descritos na figura 1.1 serão caracterizados como “outliers” e desconsiderados no cálculo da média e desvio padrão da primeira detecção RADAR. A identificação dos “outliers” é imprescindível em virtude do cálculo da média e do desvio padrão serem afetados, de forma exagerada, por valores discrepantes da maioria dos dados. Os dados compreendidos entre o quartil inferior (Q1) e o quartil superior (Q3) representam 50% das observações da amostra. A justificativa para utilizarmos os limites descritos na figura acima para definir as detecções atípicas é a seguinte: considere uma curva normal com média zero e, portanto, com mediana zero. Utilizando a tabela de distribuição normal, é fácil verificar que Q1=0,6745, Q3= 0,6745 e portanto IQR=1,349. Segue-se que os limites são: LI= -2,698 e LS=2,698. A área entre estes dois valores, embaixo da curva normal, é 0,993, ou seja, 99,3% da distribuição está entre estes dois valores. Isto é, para dados com distribuição normal, os pontos exteriores constituirão cerca de 0,7% da distribuição. As distribuições de freqüência de um conjunto de dados podem diferir não só em termos das medidas de posição e de dispersão, mas também com relação à forma das medidas de posição e de dispersão. Utilizaremos o coeficiente quartílico de assimetria dado por: eq = (Q3 − Md ) − (Md − Q1) = Q3 − 2Md + Q1 (Q3 − Md ) + (Md − Q1) Q3 − Q1 , onde: -1 ≤ eq ≤ 1 O módulo de eq, indica o grau de enviesamento e o seu sinal indica o lado de inclinação: positivo, a inclinação é a esquerda; negativo, a inclinação é a direita. A curtose, afilamento ou achatamento das curvas, é medida em relação a uma curva normalmente achatada, denominado mesocúrtica. Uma curva mais achatada do que ela é denominada platicúrtica e uma menos achatada (ou mais afilada) leptocúrtica. Para medir o grau de curtose utilizaremos o coeficiente percentílico de curtose que é a relação entre o desvio quartílico e o percentílico dos dados, dado por: K= Q3 − Q1 2(C 90 − C10) se k > 0,263, a curva é platicúrtica; se k = 0,263, a curva é mesocúrtica; e se k < 0,263, a curva é leptocúrtica 272 Pesquisa Naval Nº 16, Outubro de 2003 Nas análises realizadas anteriormente, os dados que não pertencessem ao intervalo determinado pela média ± 2σ calculados a partir da amostra total eram identificados como valores atípicos e expurgados da amostra. Com base na amostra reduzida, eram calculados os valores de média e desvio padrão e, novamente, identificados os valores atípicos e expurgados. Este artifício era utilizado até que mais nenhum dado fosse identificado como valor atípico. Entretanto, a média e o desvio padrão não são medidas resistentes, ou seja, são afetadas caso haja uma pequena porção de dados com valores atípicos, dificultando a identificação dos “outliers” por este artifício, sendo, então, necessária a interferência do analista. A comparação dos resultados obtidos de média e desvio padrão após a identificação dos “outliers” utilizando o “boxplot”, com os resultados obtidos pela metodologia de verificação dos dados aplicada anteriormente, complementa a análise dos dados. Como o número de registros de algumas amostras eram relativamente grandes, foi desenvolvida uma planilha em EXCEL para o cálculo da mediana e quartis e plotagem do “boxplot” e dos valores atípicos (“outliers”). Na Seção 2, aplicamos a ferramenta “boxplot” ao conjunto dos dados de jan/2001 a dez/2002 e comparamos os resultados obtidos através desta metodologia com os obtidos anteriormente, e na Seção 3, apresentamos as conclusões e comentários finais. DADOS E PRIMEIROS CÁLCULOS DO “BOXPLOT” Para evitar que informações operacionais comprometessem o sigilo do trabalho tanto os navios quanto os sensores utilizados não foram identificados. Este estudo se restringe aos dados computados de quatro (4) meios da MB no período de jan/2001 a dez/2002. Os diagramas esquemáticos apresentados na figura 2.1 referem-se aos “boxplot” dos dados dos navios analisados. Figura 2.1 – Boxplot – Dados dos Navios Pesquisa Naval Nº 16, Outubro de 2003 273 Os navios N1 e N2 pertencem a classe de navio A, enquanto que os navios N3 e N4 pertencem a classe de navio B. Consequentemente, os navios pertencentes a determinada classe possuem sensores similares. As ordenadas dos gráficos representam a distância de detecção em milhas naúticas e apresentam escalas diferenciadas, porque as observações atípicas ou “outliers” foram plotadas. A figura 2.1 b) apresenta a plotagem da detecção de um alvo de porte médio a mais de 200 milhas de distância. Ao observarmos o diagrama da figura 2.1 b) podemos observar que a distribuição dos dados para alvos médios e grandes do navio N2 dificulta a discriminação das distâncias médias de alvos médios e grandes. A distribuição dos dados para os alvos médios dos navios N1 e N2 são bastante similares, corroborando o fato de possuírem os mesmos sensores. As distribuições dos dados para todos os tamanhos de alvo dos navios N3 e N4 estão bastante similares quanto a simetria, conforme podemos evidenciar na tabela 2.1. Tabela 2.1 – Análise da Distribuição Alvos Alvos Al Navio/Dados Pequenos Médios Gra Curtose 0,419 Plati 0,277 Plati 0,219 N1 Assimetri 0,246 Esquerda 0,109 A -0,374 a Esquerda Curtose 0,291 Plati 0,273 Plati 0,163 N2 Assimetri 0,126 Esquerda 0,218 A -0,329 a Esquerda Curtose 0,259 Lepto 0,323 Plati 0,257 N3 Assimetri 0,054 Esquerda 0,0 B -0,058 Direita a Esqu Curtose 0,130 Lepto 0,229 Lepto 0,198 N4 Assimetri -0,022 Direita 0,0 B a u 274 Pesquisa Naval Nº 16, Outubro de 2003 A Tabela 2.2 apresenta um quadro comparativo das variáveis de mediana, média, desvio padrão e quantidade de detecções, baseadas nas observações dos dados iniciais, sem filtro; e dos dados filtrados utilizando a metodologia anterior pelo cálculo da média ± 2σ dos dados iniciais e com a aplicação da ferramenta “boxplot”. Tabela 2.2. Quadro comparativo Alvos Pequenos Alvos Médios Alv DadosMe Médi DP Obs Med Média DP Obs Med M Navio d a Iniciai 11, 13,5 17 17, 23, 8,7 19,2 9,7 50 s 4 9 8 N1 Antes 11 12,1 16 17, 23, 6,8 18,3 7,2 49 A 8 5 Boxpl 11, 13,5 17 17, 23, 8,7 18,3 7,2 49 2 ot 4 8 6 Iniciai 13 14,4 11 21, 18, 16 20, 8 23 s 7 5 1 4 8 N2 Antes 12, 13,7 11 21, 16 20, 7,1 21,8 7,6 A 9 3 4 3 7 Boxpl 13 14,1 11 21, 16 7,5 21,9 7,4 20 1 ot 6 5 2 Iniciai 18, 19,8 61 29, 15 30, 8,5 29,7 9,6 s 5 5 2 1 N3 Antes 18 18,4 57 29, 15 7 29,3 8,3 35 B 3 1 Boxpl 18, 19,4 60 29, 15 35, 8,1 29,3 8,3 3 ot 4 3 1 1 Iniciai 14 15 56 25, 20 27, 6,5 26 7 s 5 0 4 51 25, 15 N4 Antes 13, 13,4 4,1 25,4 6 34 1 1 0 B Boxpl 13, 12,9 49 25, 19 34, 3,2 25,6 6,3 3 ot 1 3 4 1 Cabe ressaltar as seguintes considerações observando a tabela 2.2: A variação da mediana calculada com os dados iniciais e com os dados após a filtragem é bem menor do que a variação do cálculo da média. Isto corrobora o fato da mediana ser uma medida bem mais resistente à introdução de valores atípicos (“outliers”) do que a média e o desvio padrão; 2. O desvio padrão calculado após a filtragem dos dados foi, consideravelmente, menor do que o calculado com os dados iniciais; 3. A média calculada de detecções de alvos médios foi maior do que a média calculada para alvos grandes para os meios N1 e N3. Entretanto, quando analisamos o 1. Pesquisa Naval Nº 16, Outubro de 2003 4. 5. 6. 275 cálculo da mediana, observamos que as diferenças entre os valores de detecção de alvos médios e grandes são menores; Excetuando-se nas ocasiões em que houve interferência direta do analista na filtragem dos dados utilizando a metodologia anterior, o número de observações da amostra após a filtragem dos dados aplicando o “boxplot” é geralmente menor. Entretanto, os resultados obtidos de média e desvio padrão através das duas metodologias são bem próximos, conforme podemos evidenciar na tabela 2.2 para os dados de alvos médios do navio N5; Nas detecções dos meios N1 e N3 para alvos médios e grandes, observou-se que o aspecto do alvo da maioria das detecções de alvos médios considerados eram de través enquanto que a grande maioria das detecções dos alvos grandes apresentavam aspecto de proa ou de popa. Foi considerado aspecto de través quando o alvo estivesse marcando o navio da MB no arco 045º a 135º ou 225º a 315º relativos e de proa/popa nos outros intervalos; e A metodologia anterior para o filtro dos dados utilizando a média ± 2σ dos dados iniciais necessita da interferência do analista visto que as duas medidas calculadas baseadas nos dados iniciais são afetadas, de forma exagerada, por valores atípicos, enquanto que a metodologia do “boxplot” independe do analista. CONCLUSÕES E COMENTÁRIOS FINAIS Este trabalho desenvolveu-se no sentido de aplicar a ferramenta “boxplot” para a análise da distribuição, visando a fornecer medidas mais resistentes a valores extremos e a minimizar a interferência do analista na identificação e filtro dos valores atípicos denominados “outliers”. Ficou evidenciado que o enfoque baseado no diagrama esquemático aplicado facilita a avaliação da distribuição, a identificação dos “outliers”, e a identificação de conflitos de dados. Por outro lado, a classificação das distâncias de detecção no banco de dados quanto ao aspecto que o alvo estiver apresentando por ocasião da detecção, ou seja, de través, de proa ou de popa, tornaria os resultados mais realistas, visto que consideraria a seção reta RADAR do alvo, que é fundamental na determinação da distância de detecção. REFERÊNCIAS BIBLIOGRÁFICAS [1] Tukey, J. W. “Box-and-Whisker Plots in Exploratory Data Analysis”. Reading, MA: Addison-Wesley, pp. 39-43, 1977. [2] Chambers, J.; Cleveland, W.; Kleiner, B.; and Tukey, P. “Graphical Methods for Data Analysis”. Belmont, CA: Wadsworth, 1983. [3] Hoaglin D. C., Mosteller F. & Tukey J. W. “Understanding Robust and Exploratory Data Analysis”. John Wiley and Sons, New York, 1983. [4] Morettin P. A. & Bussab W. O., “Estatística Básica”, Atual editora, São paulo, 1987. 276 Pesquisa Naval Nº 16, Outubro de 2003 Instituto de Pesquisas da Marinha (IPqM) O IPqM vem realizando, apoiando e incentivando atividades de pesquisa científica e desenvolvimento tecnológico, contribuindo, dessa forma, para a obtenção de sistemas, equipamentos, componentes, materiais e técnicas apropriadas às atividades da Marinha do Brasil. Duas áreas fundamentais exercem influência diretamente sobre atividades de Pesquisa e Desenvolvimento (P&D): - a primeira delas, o Material, possui como objetivo primordial a nacionalização dos meios, possibilitando a criação e desenvolvimento de capacitação no setor da indústria, seja ele privado ou governamental, de modo a atingir a provisão de materiais com especificações militares; - a segunda, a de Pessoal, tem por meta o estabelecimento de um quadro de competência, que venha a possibilitar o desenvolvimento das atividades-fim constantes nos projetos estipulados, criando sistemas e controlando as demais tarefas que constam da primeira área. Em ambas, o Instituto tem por norma enfatizar o intercâmbio e colaboração com instituições privadas e governamentais congêneres. O Departamento de Pesquisa do IPqM exerce a atividade-fim do Instituto e conta com os seguintes Grupos no desenvolvimento de suas atividades científicas: Grupo de Armas; Grupo de Guerra Eletrônica; Grupo de Acústica Submarina; Grupo de Sistemas Digitais; e Grupo de Materiais. PRINCIPAIS PROJETOS * Foguete de Chaff * Alvo Sonar * Classificação de Contato Sonar * Equipamento de Contramedidas Eletrônicas Radar CME * BOROC / FAS 375 mm * Gerador de Alvos Radar * Testador de Martelo Acústico * Mina de Fundeio de Contato MFC-100 * Sistema de Previsão de Alcance Sonar * Sistema de Controle Tático SICONTA * Sistema de Simulação Tática e Treinamento SSTT * Elementos Transdutores Piezoelétricos * Unidades de Varredura e Morse Automáticas UVA e UMA Instituto de Pesquisas da Marinha Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador CEP 21931-090 – Rio de Janeiro – RJ – Brasil Fone: (021) 3396-2004 – Fax: (021) 3396-2240 E-mail: [email protected] - Telex: (021) 53113/4/5 XXII Capítulo COMPLEMENTANDO DEA COM O CÁLCULO PROBABILÍSTICO DE PRODUTIVIDADES GLOBAIS NA COMPARAÇÃO DE DESEMPENHOS EM UM SEGMENTO DO SETOR PÚBLICO CC CLEBER ALMEIDA DE OLIVEIRA Centro de Apoio a Sistemas Operativos – CASOP e-mail: [email protected] ou [email protected] ANNIBAL PARRACHO SANT’ANNA Universidade Federal Fluminense Tel: 5521-27291803 Fax: 5521-2748731 e-mail: [email protected] 1. RESUMO Neste trabalho, se analisa a estrutura de avaliação do desempenho em um segmento do setor público, o Sistema de Saúde da Marinha, no que diz respeito aos serviços odontológicos. A Análise Envoltória de Dados (DEA) e o cálculo probabilístico de produtividades globais são propostos como formas de introduzir os aspectos da produtividade na avaliação. A comparação das duas abordagens é interessante neste contexto, pela grande variabilidade das unidades de prestação de serviços analisadas. Palavras-chave: Análise Envoltória de Dados – Cálculo de Probabilidades Produtividades Globais ABSTRACT Efficiency in the public sector, frequently, rather involves applying every available resource and reasonably serving all kind of demand than optimizing specific output production or specific input consumption. From this point of view, Data 278 Pesquisa Naval Nº 16, Outubro de 2003 Envelopment Analysis (DEA) is here compared to the probabilistic calculation of global productivity, as a tool for evaluation of dentists services in units of very different dimensions. The results obtained show the potential of the techniques applied to detect heterogeneity in the set of evaluated units and stochastic errors in the registers. Keywords: Data Envelopment Analysis – Probability – Productivity 2. INTRODUÇÃO DEA pode ser complementada com o cálculo probabilístico de produtividades globais, como ferramenta para avaliação de unidades prestadoras de serviços. Isto é feito neste trabalho para avaliar a produtividade em serviços odontológicos em unidades de dimensões muito diferentes. Os dados utilizados se referem a apenas três variáveis: número de dentistas, número de consultórios e consultas realizadas e são extraídos de relatórios do Sistema de Saúde da Marinha Brasileira dos anos de 1996 a 2000. Na Seção 3, são apresentados os conceitos e os modelos básicos da DEA, são desenvolvidos os princípios do cálculo probabilístico de produtividades globais, e descrevem-se os aspectos do Sistema de Saúde da Marinha, relevantes para a análise de produtividade do setor odontológico; na Seção 4, aplicam-se a metodologia da DEA e o cálculo probabilístico das produtividades globais aos dados disponíveis; na Seção 5, são apresentados comentários finais. 3. METODOLOGIA 3.1 ANÁLISE ENVOLTÓRIA DE DADOS 3.1.1 Introdução No caso de um único produto de um único insumo, a avaliação da produtividade de cada unidade de produção pode ser feita comparando com a produtividade média. Isto corresponde a tomar como medida de eficiência a distância ou magnitude do desvio da unidade à reta de regressão linear simples. Em vez disto, DEA usa programação matemática para medir a eficiência em termos de distância a uma fronteira de eficiência. No caso de mais de um produto ou mais de um recurso, a idéia da DEA é a mesma. DEA pode ser usada sempre que houver interesse em avaliar a produtividade relativa de unidades comparáveis que utilizem um mesmo tipo de entradas (insumos), com o propósito de produzir um mesmo tipo de saídas (produção efetiva), ou seja, quando se possa partir do pressuposto de que é possível medir o desempenho de unidades que, possuindo diferentes gerenciamentos, almejam objetivos semelhantes e operam sob as mesmas condições. O foco da DEA está nas observações individuais. A busca da fronteira de melhores práticas onde se identificam as referências de desempenho para cada unidade tomadora de decisão (DMU), individualmente, fornece novas formas de organizar e Pesquisa Naval Nº 16, Outubro de 2003 279 analisar dados, podendo revelar relações não captadas por outras técnicas. As unidades produtivas na fronteira de eficiência constituem benchmarks para as demais unidades. As principais características da DEA são: os modelos podem ter múltiplos insumos e múltiplos produtos; outliers não são vistos como desvios acidentais, mas como possíveis benchmarks a serem tomados como referência pelas demais DMUs; para cada observação individual se resolve um problema de programação linear com o objetivo de determinar uma fronteira linear por partes que compreende o conjunto das DMUs eficientes. 3.1.2. Modelos Básicos de DEA A Análise Envoltória de Dados possui três modelos básicos: o modelo de retornos constantes de escala (CRS), de Charnes, Cooper e Rhodes (1978), o modelo de retornos variáveis de escala (VRS), de Banker, Charnes e Cooper (1984) e o modelo aditivo, de Charnes et alii (1985). Os dois primeiros modelos podem ser orientados para a redução das quantidades empregadas de insumos (e inputs) ou para o aumento das quantidades resultantes de produtos (outputs). Na sua essência, os vários modelos de DEA determinam o subconjunto das DMUs que compõem a superfície envolvente ou fronteira de eficiência dos dados observáveis. Como será visto posteriormente, a forma geométrica desta superfície envolvente é determinada pelo modelo de DEA utilizado. Uma DMU é considerada eficiente se pertencer a essa fronteira extrema. As DMUs que não pertencem a essa envolvente são ditas ineficientes e recebem uma medida de eficiência relativa. Podemos imaginar os modelos DEA como mecanismos de projeção, assim a solução do problema de programação linear de uma determinada DMUk, representada pelo seu par de vetores de inputs e outputs, (xk ,y k ) , fornecerá um ponto projetado ( xˆ K , yˆ K ) na fronteira de eficiência. Quando (xk ,y k ) = ( xˆ K , yˆ K ) , a DMUk é eficiente. Caso contrário, pode, teoricamente, ser substituída por combinação linear de DMUs eficientes. Modelos diferentes obtêm pontos de projeção distintos para as unidades ineficientes. 3.1.3. Modelo CRS O modelo CRS, proposto por Charnes, Cooper e Rhodes (1978), é o que deu origem às técnicas de DEA. Neste modelo, a eficiência é o quociente de uma soma ponderada dos outputs por uma soma ponderada dos inputs. Na orientação para a minimização do input, a projeção na fronteira se movimenta para a superfície da envoltória para, fixos os outputs, minimizar os inputs, enquanto, na orientação para a maximização do output, objetiva, fixos os inputs, maximizar os outputs. Apresentamos abaixo o problema de programação linear utilizado para determinar a eficiência no modelo CRS orientado para a mimização do input. 280 Pesquisa Naval Nº 16, Outubro de 2003 s Max Pk = ∑ u rk y rk r =1 Sujeito a : m ∑v i =1 ik xik = 1 s m r =1 i =1 ∑ u rk y rj − ∑ vik xij ≤ 0 j = 1, K , n u r , vi ≥ 0 ∀ r , onde j, variando de 1 a n, representa DMU do conjunto observado, r, variando de 1 a s, representa saída, i, variando de 1 a m, representa entrada, Y rj representa quantidade observada da saída r produzida pela unidade j e X ij representa quantidade observada da entrada i usada pela unidade j. 2Os pesos achados, ur e vi são próprios da DMU em análise. Este processo é repetido para cada uma das n DMUs, obtendo-se diferentes valores para ur e vi. 3.1.4. Modelo CRS para Minimização dos Inputs (CRS-MI) Na formulação CRS-MI, a eficiência da uma DMU qualquer é calculada determinando os vetores de multiplicadores ur e vi para os quais esta unidade aparece mais próxima da fronteira determinada pelos quocientes de inputs e outputs agregados. O problema consiste em achar os valores das variáveis ur e vi que maximizam a soma ponderada das saídas (saída virtual) dividida pela soma ponderada das entradas (entrada virtual) da DMU em estudo, sujeito à restrição de que esse quociente seja menor ou igual a 1 para todas as DMU’s. Deste modo as DMU’s eficientes serão as que obtiverem o valor 1. O problema de programação linear abaixo representa a versão dual, conhecido como modelo do Envelope, do problema dos multiplicadores. Embora ambos cheguem ao mesmo resultado no que diz respeito à produtividade relativa, P k no problema dos multiplicadores e Tk no problema do envelope (Pk=Tk), a versão primal enfatiza os multiplicadores virtuais u e v, enquanto a versão dual enfatiza as folgas e a relação entre a unidade que está sendo avaliada com as outras unidades. Pesquisa Naval Nº 16, Outubro de 2003 Min Tk = hk − ε m ∑ Fik− − ε i =1 281 s ∑F r =1 + rk Sujeito a : n ∑λ j =1 jk y rj − Frk+ = y rk jk xij + Fik− = hk xik n ∑λ j =1 r = 1, K, s i = 1, K, m λ jk ≥ 0, j = 1,K, n Fik− ≥ 0 i = 1,K, m + rk F ≥0 r = 1, K, s Aqui, hk representa a redução proporcional dos inputs, λjk representa o peso + da j-ésima unidade de referência, Frk representa a folga para a restrição do r-ésimo output e Fik− representa a folga para a restrição do i-ésimo input. 3.1.5. Modelo VRS A distinção essencial do modelo VRS, em relação ao modelo CRS, é a proibição de produzir unidades de referência apenas expandindo ou apenas encolhendo unidades observadas. Isto é obtido através da inclusão da restrição de convexidade nos coeficientes das unidades de produção de referência. Enquanto no modelo CRS estes coeficientes podem ser números positivos λjk quaisquer, no modelo VRS devem n satisfazer a restrição ∑λ j =1 jk =1 . 3.1.6. Modelo Aditivo No modelo aditivo se maximiza a soma das diferenças entre as coordenadas (X k ,Yk ) da unidade avaliada e do ponto projetado ( Xˆ K , YˆK ) na fronteira de eficiência. Nos modelos orientados, são reduzidos ou aumentados na mesma proporção todos os fatores até à superfície envolvente. O modelo aditivo só mede o excesso dos inputs e o déficit dos outputs em que uma determinada DMU opera. Se o ponto projetado 282 Pesquisa Naval Nº 16, Outubro de 2003 ( Xˆ K , YˆK ) e o ponto em análise (X k ,Yk ) forem coincidentes, então este ponto pertence à fronteira de eficiência. Neste caso, as folgas serão nulas e, por conseguinte, o valor ótimo encontrado para o problema de programação linear será nulo. Uma DMU será eficiente no modelo aditivo se e somente se for eficiente nos modelos VRS. 3.2 CÁLCULO PROBABILÍSTICO DE PRODUTIVIDADES GLOBAIS e:3.2.1 Introdução A DEA não leva em conta a possibilidade de erros aleatórios nas medidas dos recursos e produtos. As medidas de eficiência apresentadas nesta seção preenchem esta lacuna. São constituídas, basicamente, na orientação da maximização do output, pela probabilidade de a unidade de produção apresentar o volume máximo em algum produto e não apresentar o volume mínimo em nenhum insumo e, na orientação para a minimização do input, a probabilidade de a unidade de produção apresentar o menor volume em algum insumo e não apresentar o maior volume em nenhum produto. Variantes destas medidas que se afastam mais do critério básico da DEA se aplicam melhor aos casos em que não se lida com variáveis associadas entre si como recursos e produtos. Uma delas é a probabilidade de apresentar o melhor desempenho em algum critério, seja através da maximização do volume de algum output ou da minimização do volume de algum input, e aplica-se melhor ao caso de uma coleção de critérios independentes. Outra alternativa é mais bem aplicável ao caso em que se deseja otimizar o desempenho em cada um de dois ou mais blocos de critérios, sejam estes blocos constituídos um de recursos e outro de produtos ou constituídos de outra forma qualquer. Neste caso, a medida global seria dada pelo produto das probabilidades de apresentar o melhor desempenho em algum dos critérios de cada bloco. Finalmente, a alternativa mais adequada à maior parte das situações do setor público considera importante evitar o desperdício de todo recurso incluído no modelo assim como evitar a insatisfação da demanda por qualquer produto. Neste caso, a preocupação em exibir o desempenho ótimo é substituída pela de maximizar o afastamento da fronteira dos desempenhos a evitar, quais sejam, os de maiores valores de inputs e de menores valores de outputs. Dependendo do critério e do número de unidades de decisão consideradas, estas probabilidades podem ficar todas longe de 1. Para evitar isto, utilizamos medidas padronizadas, dividindo pela medida de eficiência da unidade mais eficiente. 3.2.2. Maximização dos Outputs O critério de maximização dos outputs se aplica às situações freqüentes na administração pública em que dotações orçamentárias são estabelecidas antecipadamente em montantes reduzidos para o atendimento de toda a demanda de serviços enfrentada pela unidade de decisão. O gerenciamento do consumo de recursos consiste simplesmente em evitar ultrapassar os limites estabelecidos pelas dotações Pesquisa Naval Nº 16, Outubro de 2003 283 orçamentárias recebidas, em torno das quais a margem de manobra é muito estreita. A eficiência na administração dos recursos está, neste caso, em elevar a produtividade de modo a atender o máximo das solicitações recebidas. Se desejamos, como na DEA, assegurar ao tomador de decisão plena flexibilidade na escolha da mistura de produtos que prefere oferecer, a abordagem probabilística combinará as condições aqui descritas na exigência, de um lado, de elevar a probabilidade de atingir a fronteira de produção em algum produto e, de outro, de reduzir a probabilidade de ultrapassar os tetos de utilização de todos os recursos. Formalmente a medida de produtividade global orientada para a maximização do output é, então, dada, para a unidade j-ésima, por Π(1-Qkj) * [1- Π(1-Plj)], onde k, indicando um insumo genérico, é o índice dos fatores do primeiro produtório, l indica um produto genérico e é o índice dos fatores do segundo produtório, Qkj representa a probabilidade de o volume do k-ésimo input na j-ésima unidade ser o maior de todos e Plj representa a probabilidade de o volume do l-ésimo output na j-ésima unidade ser o maior de todos. 3.2.3. Minimização dos Inputs Ao contrário do critério de maximização dos outputs, o de minimização dos inputs se aplica às situações que ocorrem em outras áreas do setor público nas quais é a demanda que precisa ser atendida que é fixada antecipadamente, variando em uma faixa de valores sobre a qual o administrador não tem controle. Neste caso, é o gerenciamento dos resultados que não admite preocupação de ordem quantitativa com a eficiência. A produtividade se eleva, neste caso, reduzindo o consumo de recursos. Neste caso, se desejamos assegurar ao tomador de decisão plena flexibilidade na composição dos volumes de recursos que prefere oferecer, a abordagem probabilística combinará as condições aqui descritas na exigência, de um lado, de elevar a probabilidade de atingir a fronteira de eficiência em algum recurso e, de outro, de reduzir a probabilidade de ficar abaixo dos patamares de produção relativamente a todos os produtos. Formalmente a medida de produtividade global orientada para a minimização dos inputs é, então, dada, para a unidade j-ésima, por [1- Π(1-Pkj)] * Π(1-Qlj), onde k e l são como no caso anterior, Pkj representa a probabilidade de o volume do k-ésimo input utilizado pela j-ésima unidade ser o menor de todos e Qlj representa a probabilidade de o volume do l-ésimo output produzido pela j-ésima unidade ser o menor de todos. 3.2.4. Maximização dos Outputs e Minimização dos Inputs Para combinar os objetivos de maximizar os outputs e minimizar os inputs, a abordagem probabilística oferece duas alternativas. A primeira, a ser aplicada quando há também interesse em cada um dos objetivos isolados de maximização dos outputs e de minimização dos inputs, consiste em calcular uma média da produtividade global orientada para a maximização dos outputs com a produtividade global orientada para a minimização dos inputs. 284 Pesquisa Naval Nº 16, Outubro de 2003 A segunda é mais simples e é naturalmente aplicada quando, não podendo ocorrer as situações de limitada margem de manobra na utilização dos recursos nem na produção de resultados, os índices anteriores não terão sido calculados. Consiste em maximizar simultaneamente a probabilidade de atingir a fronteira de máxima produção de saídas e a fronteira de mínima utilização de entradas. Formalmente, esta medida será dada [1- Π(1-Pkj)] * [1- Π(1-Plj)], onde, no primeiro produtório, temos um fator para cada recurso, representado pelo índice k, e, no segundo produtório, um fator para cada produto, representado pelo índice l, Pkj e Plj como acima. 3.2.5. Maximização em algum Critério Podemos considerar, ainda, o caso em que se deseja oferecer ao administrador plena liberdade na escolha da estratégia de elevação da produtividade, podendo fixarse tanto na simples minimização de um input quanto na maximização de um output. A medida probabilística de produtividade global para este caso será dada pela probabilidade de atingir o valor mais alto em algum output ou atingir o valor mais baixo em algum input. Formalmente, esta medida será dada por Π(1-Pij), onde i é o índice do produtório e varia ao longo de todo o conjunto de variáveis representativas tanto de insumos quanto de produtos considerados e Pij indica a probabilidade de atingir o valor mais alto observado para a variável i-ésima se esta representar um produto ou o valor mais baixo se esta representar um insumo. 3.2.6. Afastamento da Fronteira de Ineficiência A última situação, mais distante da perspectiva da DEA, é mais comum quando se trata de administrar os recursos disponibilizados pelo setor público, nenhum dos quais pode ser empregado acima dos limites orçamentários, para atender uma demanda que não pode ser negligenciada quanto a nenhum produto. Nestes casos, nas variáveis mais difíceis de administrar eficientemente, deverá aparecer assimetria, com concentração e valores próximo ao patamar de eficiência mínima permitida. Com a rarefação da distribuição no lado eficiente, torna-se mais seguro medir o desempenho pelo afastamento da fronteira de eficiência que pela proximidade da fronteira de eficiência. Por exemplo, um único valor, equivocadamente registrado na vizinhança de um valor para a mesma variável em uma unidade de fato muito eficiente, afetará fortemente a probabilidade desta atingir a fronteira de eficiência, enquanto afetará muito pouco sua probabilidade de ocupar a fronteira de ineficiência. Um critério adequado a esta situação deve, então, basear-se nas probabilidades de se afastar da fronteira de ineficiência em vez de nas probabilidades de atingir a fronteira de excelência. A medida global será, então, o produto das probabilidades de não apresentar o pior desempenho, isto é, a probabilidade de não atingir o valor mais alto em nenhum input e não atingir o valor mais baixo em nenhum output. Formalmente, esta medida será dada por Π(1-Pij), onde i é o índice do produtório e varia ao longo de todo o conjunto de variáveis representativas tanto de inputs quanto de outputs considerados e Pij indica a probabilidade de atingir o valor mais alto Pesquisa Naval Nº 16, Outubro de 2003 285 observado para a variável i-ésima se esta representar um input ou o valor mais baixo se esta representar um output. 3.3. SISTEMA DE SAÚDE DA MARINHA – SSM 3.3.1. Introdução O avanço mais recente das organizações estatais em direção à qualidade tem características próprias, discutidas, no que afeta os sistemas de saúde, em Anderson (1997) ou Pauley (1998), por exemplo. Esse movimento esbarra, principalmente, na falta do referencial de lucratividade e no caráter abstrato e de longo prazo dos resultados a serem alcançados. Procura-se suprir tal falta com indicadores parciais de desempenho. Exemplos de tais indicadores, atualmente calculados na Diretoria de Saúde da Marinha são taxas de ocupação, mortalidade, infecção hospitalar, nº procedimentos médicos e odontológicos, etc, e indicadores de custo das unidades. A avaliação dos setores odontológicos das unidades hospitalares leva em conta, no momento, apenas, a evolução do número de consultas. Neste contexto, indicadores de produtividade global oferecem subsídios para análises mais completas. 3.3.2. Dados Utilizados Para tentar evitar que particularidades operacionais comprometessem a homogeneidade do conjunto de DMUs, este estudo se restringe às unidades que assistem os militares e seus dependentes. Isto reduz o conjunto analisado a nove unidades, 3 unidades ambulatoriais no Rio de Janeiro: HCM, OCM, PNNSG e 6 hospitais fora do Rio de Janeiro: HNSA, HNRE, HNNA, HNBE, HNLA, HNBR. 3.3.3. Variáveis Consideradas Há um total de 26 indicadores disponíveis, relativamente ao período analisado, de 1996 a 2000.Estas variáveis, embora estivessem disponíveis, não foram usados na análise de produtividade do setor odontológico naqueles anos. Segue a relação dos mesmos: Média mensal do número de cirurgiões dentistas; Média mensal do número de cirurgiões dentistas efetuando atendimento; Total de dias úteis de efetivo atendimento; Média mensal do número de consultórios odontológicos operantes; Média mensal do número de aparelhos de raios-X odontológicos operantes; Prazo médio mensal de marcação de consultas; Percentual médio mensal de absenteísmo; Média mensal de cirurgiões-dentistas pertencentes ao Corpo de Saúde da Marinha; Número médio mensal de cirurgiões-dentista da reserva não-remunerada; Média mensal do efetivo de cirurgiões-dentista civis; Número médio mensal de cirurgiões-dentista com tempo certo de contrato; Média mensal do efetivo de técnicos dentais; Total de recursos financeiros, em reais, alocados para a unidade; Total de altas gerais de pacientes; Total de altas das clínicas; Total de procedimentos efetivamente realizados; Total de consultas realizadas; Número de perícias odontológicas realizadas; Número de procedimentos radiológicos realizados; Total de pacientes atendidos; Total de pacientes militares da ativa atendidos; Total de pacientes militares da inativa atendidos; Total de pacientes dependentes de militares atendidos; Total de pacientes civis 286 Pesquisa Naval Nº 16, Outubro de 2003 atendidos; Total de pacientes pensionistas atendidos; Total de pacientes não cadastrados atendidos. 4. EFICIÊNCIA DOS SETORES ODONTOLÓGICOS 4.1. Introdução A modelagem aqui desenvolvida permite preencher algumas lacunas na análise dos desempenhos das unidades prestadoras de serviço, contribuindo na gerência de processos do Sistema de Saúde da Marinha. Com a introdução do conceito de produtividade relativa, fornece novos subsídios para o planejamento. A metodologia proposta segue as seguintes etapas: 1) elaboração de um quadro resumo das DMUs analisadas, com seus insumos e produtos considerados, formando um conjunto de entradas e de saídas; 2) identificação da orientação a ser dada ao modelo: minimização dos inputs ou maximização dos outputs; 3) determinação da produtividade relativa de cada unidade em cada ano. 4.2. Entradas e Saídas Consideramos aqui que, quanto maior o valor dos outputs de uma determinada unidade, melhor será a sua performance. Da mesma forma, foram consideradas insumos todas as variáveis cujos valores devem ser os menores possíveis para que a performance seja melhor. Com esse raciocínio, as treze primeiras variáveis foram consideradas como insumos, e as treze últimas como produtos. A relevância e a confiabilidade dos dados disponíveis determinam a seleção das variáveis. Examinando os dados e ouvindo especialistas, chegamos às seguintes conclusões: i) Os efetivos médios de dentistas militares e civis em determinada unidade só seriam úteis se fossem disponíveis os números de horas trabalhadas. Algumas unidades trabalham com profissionais vinculados a cooperativas e com tempo certo de contrato dificultando a análise dos indicadores representados pelos números de cirurgiões dentistas de cada classe. A média de dentistas atendendo envolve a contagem dos profissionais nos turnos da manhã, tarde e noite, mas, alguns profissionais trabalham em um único turno enquanto outros em dois. Alguns hospitais trabalham com cooperativas onde teoricamente não ocorrem folgas ou faltas. ii) A variável Total de Procedimentos engloba os procedimentos radiológicos, tornando esta última variável dispensável, e o fator Total de Aparelhos de Raios-X Odontológico Operantes é irrelevante, porque, na maioria dos hospitais, ocorre um rodízio no funcionamento desses aparelhos. Total de Pacientes Atendidos é a soma dos atendimentos dos militares da ativa e inativa, dependentes, civis, pensionistas e outros não cadastrados; visto que não importa a composição da população atendida, mas apenas o volume do atendimento, estas últimas variáveis também são dispensáveis. Por seu turno, o total de recursos alocados só pode ser medido globalmente, sem discriminar o montante aplicado somente no setor odontológico, não sendo, por isto, elucidativo para o nosso estudo. Pesquisa Naval Nº 16, Outubro de 2003 287 iii) Algumas variáveis julgadas importantes para o estudo, tais como efetivo de técnicos, total de perícias odontológicas e totais de altas, não podem ser incluídas na análise devido à não padronização da coleta dos dados pelas unidades avaliadas ou a particularidades dos hospitais. iv) O prazo médio de marcação de consultas não deve ser considerado na avaliação da produtividade porque só depende da demanda. Onde haja grande número de usuários, certamente haverá necessidade de marcação de consultas para organizar o atendimento. O absenteísmo só ocorrerá se houver marcação de consultas e será alto quando o prazo de marcação de consultas for longo. v) Os dados coletados referentes a número de dias úteis de alguns meses são nulos em várias unidades, embora conste atendimento de dentista nestes meses. Em outros meses, os dados relativos a dentistas atendendo são nulos, indicando omissão do registro. Alguns dados de procedimentos ora são nulos, ora muito elevados. Além disto, os dados relativos ao total de consultas no ano e total de pacientes no ano são iguais, sendo necessário uma melhor operacionalização desta última variável. Após a eliminação em decorrência desses fatores, da lista inicial permanecemos com apenas duas variáveis de entrada, o efetivo médio de cirurgiões dentistas e o número de consultórios odontológicos operantes, e uma de saída, o total de consultas no ano. A tabela 4.1, a seguir, apresenta as correlações entre as variáveis. As correlações entre as duas variáveis de entrada são elevadas, indicando que recursos humanos especializados e instalações são utilizados em proporções semelhantes. Observam-se, também, correlações elevadas entre as variáveis de entrada e a variável de saída. Tabela 4.1 – Análise de Correlação entre Variáveis Nº Dentistas Nº Dentistas Nº Consultórios Nº Consultas 1 0,97 0,98 Nº Consultórios Nº C 1 0,97 As figuras 4.1 e 4.2 apresentam as eficiências parciais no modelo DEA VRS, em relação a cada um dos inputs, considerando-se os dados coletados, anualmente, de cada unidade hospitalar avaliada. Ao calcularmos a eficiência parcial em relação ao número de dentistas, Figura 4.1, verificamos que as DMUs HCM-96, OCM-00, HNRE00 e HNLA-96 pertencem à fronteira de eficiência. No cálculo da eficiência parcial em relação ao número de consultórios, Figura 4.2, verificamos que as DMUs HNRE-00 e OCM-00 pertencem à fronteira de eficiência. 288 Pesquisa Naval Nº 16, Outubro de 2003 Figura 4.1 - Eficiência Parcial em Relação ao Nº de Dentistas Figura 4.2 - Eficiência Parcial em Relação ao Nº de Consultórios 4.3. Orientação dos Modelos e Determinação das Eficiências Estabelecemos nossos objetivos em termos de maximização dos outputs que poderão ser obtidos com um dado nível dos inputs. Isto se justifica porque, para as unidades analisadas, alterações nos insumos não são fáceis, dependendo de ações fora do controle das unidades. Pesquisa Naval Nº 16, Outubro de 2003 289 Todos os cálculos foram feitos empregando o ‘software’ Efficiency Measurement System (EMS) versão 1.3, que utiliza o algoritmo de pontos interiores. O EMS está disponível para download no site http://www.wiso.uni-dortmund.de/lsfg/ or/schell/ems/. Como o mecanismo de projeção escolhido tem por objetivo a maximização dos outputs, o aplicativo empregado segue a norma de apresentar os resultados das ineficiências em valores superiores a 1, com a eficiência crescendo à medida que nos aproximamos de 1. Esses resultados são aqui apresentados invertidos para facilitar a sua comparação com os obtidos através da abordagem probabilística. 4.4. Resultados dos Modelos CRS e VRS A tabela abaixo resume os valores de eficiência relativa obtidos nas análises dos modelos CRS para as 9 unidades hospitalares, nos anos de 1996 a 2000. Tabela 4.2 – Eficiências no Modelo CRS ANO 1996 1997 1998 1999 2000 HCM 100% 100% 96,9% 89,0% 57,6% HNBE 69,7% 46,6% 33,5% 64,3% 55,0% HNBR 100% 91,1% 42,8% 50,9% 39,6% HNLA HNNA 95,9% 100% 86,1% 69,6% 100% 69,9% 100% 76,7% 67,4% 66,8% HNS 93,2% 94,0% 56,7% 71,6% 62,2% Quando o aumento de produção é proporcional ao dos inputs, há rendimentos constantes à escala (CRS). Se o aumento dos outputs for superior ao aumento proporcional, há rendimentos crescentes à escala (IRS) e, se o aumento for inferior, há rendimentos decrescentes à escala (DRS). O tipo de rendimento à escala fica determinado no modelo CRS pelo somatório dos pesos das unidades de referência (Banker e Thrall, 1992): se a soma dos λ for maior que 1 para todas as soluções ótimas alternativas, então prevalecem rendimentos decrescentes à escala (DRS) no ponto projetado da DMUk; se for menor que 1 para todas as soluções ótimas alternativas, então prevalecem rendimentos crescentes à escala (IRS) no ponto projetado da DMU k; se for igual a 1 para alguma dessas soluções, então prevalecem rendimentos constantes à escala (CRS) no ponto projetado da DMUk. No modelo VRS, o rendimento à escala é determinado pelo coeficiente linear do hiperplano suporte da unidade avaliada (Banker et alii, 1984). Banker e Thrall (1992) mostraram que o sinal de µ ok* é igual ao sinal de 1 − medida pelo modelo CRS for menor que 1. ∑ n j =1 λ jk , quando a eficiência 290 Pesquisa Naval Nº 16, Outubro de 2003 Tabela 4.3 – Somatório dos Lambdas DMU HCM HNBE HNBR HNLA HNNA HNSA HNRE PNNSG OCM 1996 1 1,5 1 0,5 1 1,25 0,82 2,25 8 1997 1 1,61 1,33 0,67 1,01 1,41 1 2,49 7,73 1998 0,89 2 2 1 1,11 1,78 1,22 2,67 9,67 1999 1,1 1,8 2 1 1,1 1,5 1 3,5 9,7 A Tabela 4.3 sugere que algumas unidades operam em faixa de rendimentos decrescentes de escala, sobretudo as duas unidades de maiores dimensões. Rendimentos decrescentes de escala podem ocorrer devido às unidades maiores realizarem procedimentos de maior complexidade ou possuírem mais funções de administração geral, a serem exercidas por cirurgiões-dentistas. A análise dos resultados da DEA, isoladamente, não permite, entretanto, avaliar estes possíveis fatores. O caso extremo é o de OCM, que, com dimensões muito maiores que as dos demais hospitais, pode ter sua ineficiência atribuída a rendimentos decrescentes de escala. É o que se verifica, ao aplicar o modelo VRS, que, conforme explicado acima, atribui eficiência 1 a todas as unidades com valores extremos. As eficiências segundo o modelo VRS são mostradas na Tabela 4.4. Tabela 4.4 – Eficiências no Modelo VRS ANO HCM HNBE HNBR HNLA HNNA HNSA HNR 1996 100% 74,0% 100% 100% 100% 95,1% 53,7% 1997 100% 48,0% 99,9% 100% 69,7% 96,1% 1998 100% 38,8% 61,9% 100% 70,2% 63,1% 91,7% 1999 90,8% 71,3% 65,6% 100% 78,3% 77,4% 100% 2000 64,1% 65,3% 58,7% 67,4% 72,8% 77,2% 100% 100% 4.5. Comparação dos Resultados Comparando-se os resultados obtidos, verifica-se variação expressiva de um ano para o outro em determinadas unidades hospitalares. Isto pode ter ocorrido por mudança na administração ou forte variação no número de militares destacados em outras organizações militares, em licenças especiais ou em funções administrativas. Pesquisa Naval Nº 16, Outubro de 2003 291 Pode, também, ser atribuído aos erros de registro. O que mais chama a atenção, entretanto, são as mudanças nos resultados quando se passa da abordagem CRS para a abordagem VRS, principalmente nas unidades que apresentam os dados dos inputs bem acima da média das outras unidades tais como PNNSG e OCM. A Tabela 4.5. aprofunda a análise dessas diferenças. Refere-se ao ano de 2000, mas a análise dos anos anteriores produz resultados similares. Tabela 4.5 – Pontos projetados e Percentuais das Folgas nos modelos CRS e VRS em 2000 MODELO CRS Dent. Cons.o Cons.as 1 14 17 17,127 14 5,6 29,750 0,0% - 67,1% 73,7% 2 HNBE 55,0 18 12 21,025 18 7,2 38,244 0,0% - 40,0% 81,9% 3 HNBR 39,6 24 8 16,819 20 8 42,502 0,0% 152,7% 4 HNLA 67,4 10 5 14,332 10 4 21,254 0,0% - 20,0% 48,3% 5 HNNA 66,8 13 8 18,448 13 5,2 27,635 0,0% - 35,0% 49,8% 6 HNSA 62,2 20 11 26,420 20 8 42,510 0,0% - 27,3% 60,9% 7 HNRE 100% 10 4 21,250 10 4 21,250 0,0% 0,0% 0,0% 8 PNNSG 61,8 38 27 49,907 38 15,2 80,749 0,0% - 43,7% 61,8% 9 OCM 68,1 94 66 135,964 94 37,6 199,731 0,0% - 43,0% 46,9% DMU HCM Efic. 57,6 MODE Efic. Dent. 64,1% 14 14 0,0% 65,4% 18 18 0,0% 58,7% 24 15,4 67,4% 10 10 0,0% 72,5% 13 13 0,0% 77,2% 20 19,5 -2,5% 100% 10 10 0,0% 83,9% 38 38 0,0% 100% 94 94 0,0% Na análise da eficiência parcial no modelo VRS em relação a cada input, apresentada nas figuras 4.1 e 4.2, verificou-se que as DMUs HNRE-00 e OCM-00 292 Pesquisa Naval Nº 16, Outubro de 2003 pertenciam à fronteira de eficiência em ambos os gráficos. Assim, a análise do modelo VRS nos conduz à conclusão de que HNRE deve ser considerada um benchmark para as demais unidades do mesmo porte, enquanto OCM deve ser considerada um benchmark dentre as unidades hospitalares de grande porte. O estudo dos resultados obtidos até aqui revela, também, que a produtividade calculada em termos de consultas realizadas relativamente ao número de dentistas efetivo da unidade ainda é uma medida sujeita a distorções. Verificamos que o número de consultórios disponíveis modifica substancialmente os resultados da comparação que fosse feita exclusivamente em termos de produtividade dos recursos humanos. Realmente, verifica-se, na Tabela 4.5, que é na eliminação das folgas na utilização dos consultórios disponíveis que a eficiência da maior parte das DMUs poderia ser aumentada. Logo, uma estratégia para elevar a eficiência envolveria, possivelmente, a elevação do número médio de dentistas nas unidades, ao contrário do que a análise em termos de produtividade simples indicaria. 4.6. Avaliações Probabilísticas A análise dos resultados da DEA e das suas possíveis causas já nos permitiu detectar os efeitos da inclusão no mesmo grupo de unidades de dimensões muito diferentes. Há também a possibilidade de que distorções sejam devidas a efeitos de erros nos registros. Esta última possibilidade sugere que se estenda a análise, incorporando a avaliação probabilística. Tal análise não poderá eliminar o efeito da estrutura, mas, reduzindo a influência das perturbações aleatórias, poderá atenuar ou acentuar as diferenças registradas, conforme estas possam ou não ser atribuídas a pequenas perturbações. Realizamos apenas o cálculo da avaliação probabilística da produtividade global do ponto de vista do afastamento da fronteira de ineficiência e do ponto de vista da maximização do output. Como consideramos no modelo um único produto, a primeira medida será calculada simplesmente multiplicando a probabilidade de não minimizar o output pelas probabilidades de não maximizar cada um dos dois inputs. Na segunda, no lugar da probabilidade de não minimizar o output entra a probabilidade de maximizálo. Para estimar o desvio-padrão das distribuições, dado o pequeno volume de dados disponíveis, assumimos idêntica distribuição para todas as perturbações da mesma variável. A estimativa do desvio-padrão foi então produzida pelas médias das estimativas para os desvios-padrão derivadas das séries de observações de cada unidade para a variável considerada. Para derivar estas estimativas de pequenas amostras utiliza-se a divisão das amplitudes amostrais pelo fator de conversão d2 = 2,326. As estimativas afinal obtidas são as da Tabela 4.6 abaixo. Tabela 4.6. Estimativas para os Desvios-Padrão Média de Dentistas Consultórios 7,6 1,4 Pesquisa Naval Nº 16, Outubro de 2003 293 A Tabela 4.7 apresenta as medidas probabilísticas de afastamento da fronteira de ineficiência e a Tabela 4.8 as de produtividade global do ponto de vista da maximização dos outputs. Nas Tabelas 4.7 e 4.8 aparecem mais claramente as fortes diferenças existentes entre as unidades comparadas. Ficam também acentuadas as diferenças entre anos consecutivos em algumas unidades. Isto remete a busca de explicação a duas possíveis causas: erros grosseiros nos registros ou mudanças radicais na atuação de unidades relativamente pequenas. Fica também clara a posição de OCM e PNNSG como unidades não comparáveis com as demais, pelas suas dimensões. A adição de outras informações objetivas e a revisão dos dados incorretos deverá deslocar a análise em outras direções. Tabela 4.7 - Afastamento Probabilístico da Fronteira de Ineficiência ANO HCM HNBE HNBR HNLA HNNA HNS 1996 100% 98,9% 100% 72,8% 100% 98, 1997 100% 82,2% 96,5% 49,5% 77,6% 84, 1998 83,5% 62,5% 83,2% 99,8% 76,9% 94, 1999 100% 90,6% 78,9% 77,7% 77,1% 86, 2000 78,8% 87,4% 100% 99,0% 82,5% 93, Tabela 4.8 – Probabilidades de Maximização dos Outputs ANO HCM HNBE HNBR HNLA HNNA HNS 1996 100% 1% 96% 0 61% 1997 100% 2% 5% 2% 2% 5 1998 1% 1% 1% 37% 1% 35 1999 97% 2% 1% 1% 1% 2000 0 1% 100% 27% 1% 2 5. CONCLUSÕES E DESENVOLVIMENTOS FUTUROS Este trabalho desenvolveu-se essencialmente no sentido de desenvolver uma metodologia de análise de eficiência relativa e fornecer subsídios para a gestão da qualidade. No setor público, freqüentemente, é mais importante evitar o desperdício de qualquer recurso disponível e o atendimento à mais ampla variedade de demandas possível que otimizar o emprego de particulares recursos na produção de produtos escolhidos. Neste contexto, uma estratégia de avaliação que obrigue a considerar, ainda que com limites sujeitos a certa margem de imprecisão estatística, todas as 294 Pesquisa Naval Nº 16, Outubro de 2003 variáveis consideradas relevantes pode ser mais adequada que a orientação para premiar os melhores desempenhos determinísticos de acordo com a estrutura de produção mais conveniente para a unidade cuja eficiência se deseje avaliar. Os novos enfoques aplicados demonstraram seu poder de facilitar a avaliação das decisões de planejamento e contribuir para a revisão das técnicas de coletas de dados e operacionalização das variáveis. Destaca-se entre os resultados, mais que a formulação de uma estrutura para a análise do desempenho do setor estudado, a demonstração do potencial de técnicas quantitativas de avaliação de detectar aspectos importantes para a gestão da qualidade, tais como a necessidade da classificação em grupos homogêneos e de tratamento estatístico dos dados. Os resultados obtidos poderão, ainda, ser utilizados pela Diretoria de Saúde da Marinha nas decisões de planejamento, por exemplo, priorizando a liberação de recursos para a manutenção dos consultórios das unidades na fronteira de eficiência. 6. REFERÊNCIAS BIBLIOGRÁFICAS [1] ANDERSON, G. F. (1997). In search of value: an international comparison of cost, access and outcomes, Health Affairs, vol. 16, pp. 163-171. [2] BANKER, R. D. E THRALL, R. M. (1992). Estimation of returns to scale using Data Envelopment Analysis, European Journal of Operational Research, vol. 62, pp.7484. [3] BANKER, R. D., CHARNES, A. E COOPER, W. W. (1984). Some models for estimating technical and scale inefficiencies in Data Envelopment Analysis, Management Science, vol. 30, pp.1078-1092. [4] CHARNES, A., COOPER, W. W. E RHODES E. (1978). Measuring the efficiency of Decision Making Units, European Journal of Operations Research, vol. 2, 429-444. [5] CHARNES, A. H., COOPER, W. W., GOLANY, B., SEIFORD, L. M., AND STUTZ, J. (1985). Foundations of data envelopment analysis for Pareto-Koopmans efficient empirical production functions, Journal of Econometrics, vol. 30, 91-107. [6] COOPER, W. et al. Data Envelopment Analysis: A Comprehensive Text with Models, Applications, References, and DEA-Solver Software, Kluwer Academic Publishers, 2000. [7] PAULEY, M. V. (1998). Managed care, market power and monopsony, Health Services Research, v. 37, 1439-1460. XXIII Capítulo DIMENSIONAMENTO DO NÚMERO ÓTIMO DE EQUIPAMENTOS “STAND BY” EM UMA REDE LOCAL DE MICROCOMPUTADORES Solange Fernandes Pinheiro – Universidade Federal Fluminense CF(IM) Antonio Carlos Bodini Junior –Diretoria de Finanças da Marinha Resumo O estudo pretende analisar a confiabilidade de um sistema de microcomputadores, estabelecendo a taxa de falhas e de manutenção do mesmo, visando dimensionar o número ótimo de equipamentos que deverão ficar em reserva para substituir aqueles que falharem, de forma a prover continuidade aos serviços. Abstract This essay intends to analyse the reliability of a computer system, stablishing rates for either fails and repairs, with proposal of reveal the ideal amount of equipament that should be kept stand by for replacement in case of failure, in order to mantain system services disponibility. 1. Introdução O uso de microcomputador em uma Organização é imprescindível para o desempenho das mais variadas funções. A popularização da informática fez surgir uma ferramenta de grande aplicação em todos os aspectos das lides humanas. Atualmente, não se admite a existência de equipamento desconectado de outros, nem que o compartilhamento e transmissão dos dados sejam feitos através da gravação e cópia de disquetes. Há que se trabalhar em rede, cobrindo uma área geográfica grande com comunicação remota de dados, envolvendo neste mister uma gama de equipamentos e sistemas com os mais diversos propósitos. A paralisação da rede deve ser evitada e uma solução é a contratação de terceiros para fazer a manutenção preventiva, que pretende se antecipar à falha, mas não consegue eliminá-la. Outra possibilidade é a manutenção corretiva, impondo à 296 Pesquisa Naval Nº 16, Outubro de 2003 empresa contratada a obrigação de colocar um equipamento semelhante, que substituísse aquele danificado, enquanto efetua-se o reparo. Isto minimiza o problema, pois haverá um lapso de tempo entre o diagnóstico e a solução. Este ínterim conduzirá o usuário a procurar um equipamento ocioso ou solicitar o compartilhamento a fim de prosseguir suas atividades. Estas alternativas são inadequadas, já que não evitam soluções de continuidade. Isto posto, pode-se afirmar que o problema é como prover maior eficiência a uma rede de modo a evitar que o funcionário com o equipamento em pane fique procurando outro para trabalhar e repasse ou compartilhe a situação. 2. Metodologia Observe-se que o sistema é uma rede de microcomputadores, onde se define que o sistema está em pane quando um de seus componentes falha, caracterizando um sistema com componentes conectados em série. Este é tolerante a falha, pois sua função não é totalmente comprometida, mas sua eficiência diminui a cada pane de um dos componentes. Uma alternativa contra a espera do diagnóstico e reparo é se estabelecer um número ideal de microcomputadores a serem colocados “na prateleira” ou “stand by”, de forma que na ocorrência da pane em um computador, possa-se, imediatamente, substituí-lo por um existente “na prateleira” e possibilitar, desta maneira, a continuidade das lides dos funcionários. Estes equipamentos em “stand by” deverão ser em número suficiente de modo a garantir uma confiabilidade do sistema com um custo suportável. § § § § § Para dimensionar este número deve-se : levantar a função de probabilidade de falha e de reparo do sistema; estabelecer suas taxas de falha e reparo; criar os diagramas de transição de estado (falho ou operando); obter a confiabilidade do sistema para cada situação (de acordo com o número de equipamentos em “stand by”); e comparar custos. Dois conceitos permeiam esta análise, confiabilidade e disponibilidade do sistema. Por confiabilidade entende-se a probabilidade de que o sistema opere perfeitamente durante um período de tempo determinado, tornando uma medida apropriada para sistemas que não podem tolerar paradas para reparos. A disponibilidade visa estabelecer a probabilidade que um sistema esteja operando satisfatoriamente em um determinado momento no tempo, sendo uma medida apropriada para sistemas que operam continuamente e podem suportar alguns momentos de inoperância. O sistema em tela permanece entre os dois conceitos, pois ele suporta tempos sem operação, o que levar-se-ia a buscar sua disponibilidade, mas o que se pretende é Pesquisa Naval Nº 16, Outubro de 2003 297 evitar sua parada, aumentando o seu período de operação, o que força uma busca de medida de confiabilidade. Desta forma, opta-se pelo estabelecimento dos parâmetros da confiabilidade, uma vez que se busca maximizar o período de utilização do sistema. O grau de confiança no sistema existente deverá, então, ser levantado, e propostas medidas que elevem este patamar para um valor superior a 95%, medida de qualidade proposta pela maioria dos teóricos neste mister. Assim, função de confiabilidade é determinada através da probabilidade de um componente funcionar durante um tempo especificado t, adequando-se, assim, à função de densidade exponencial e, desta forma, temos R(t ) = e − λ .t Neste sistema, a possibilidade de cada um equipamento estar funcionando constitui um conjunto de eventos independentes e, desta forma, a confiabilidade resultante será o produto das confiabilidades individuais de cada componente: RTOTAL = Ra .Rs .Rc ..Rn Depreende-se disto, que ao aumento da complexidade do sistema corresponde uma diminuição de sua confiabilidade, se não houver nenhuma ação que a compense, neste caso, dispor-se de equipamento em reserva. Neste caso, a confiabilidade total evolui para R TOTAL = 2 R A1 − R A 1 2 ∏n R i= 2 aumentado seu resultado, conforme se disponha de maior redundância . Para estabelecer a confiabilidade do sistema tem-se, primeiramente, obter os parâmetros que configuram seu comportamento, que são : λ) - representa a probabilidade de um item funcionando em um § a taxa de falhas (λ momento T venha a falhar entre o momento T e o T + dt; e § taxa de manutenção (γγ ) - representa a probabilidade do componente estar inoperante em um momento e vir a ser reparado em um momento seguinte. Para estabelecer os estimadores da taxa de falha e da taxa de manutenção, utilizarse-á a igualdade entre os momentos amostrais da população ao da amostra, ou seja : primeiro momento da população : primeiro momento da amostra : m1 = E (X ) n ∑ X i i = 1 =x M = 1 n 298 Pesquisa Naval Nº 16, Outubro de 2003 Após isto, valida-se a estimativa utilizando o teste de aderência CHI – QUADRADO com o software BEST-FIT. Normalmente, parte-se de uma suposição de que a pane em um equipamento e seu reparo são eventos mutuamente independentes. Neste estudo, há uma dependência entre a pane e o reparo, pois o equipamento substituto deverá ficar operando até que o item falho seja reparado e posto, novamente, em operação. Neste mister, a análise através do diagrama de Markov é de grande ajuda para verificar-se o relacionamento entre os dois eventos. Para possibilitar seu uso, duas condições devem ser satisfeitas : § sistema deve ser estacionário; e § seus estados têm de ser perfeitamente identificáveis, isto é, as condições que levam o sistema estar operando ou falho. Satisfeitos estes itens, pode-se projetar o diagrama de transição de estados, onde serão representados os estados discretos do sistema e suas probabilidades de transição e seus sentidos. Assim, considere-se um sistema com um único componente, onde sua taxa de falha e de reparo sejam constantes, caracterizadas por distribuição exponencial. O componente só pode estar em um dos dois estados possíveis, operando ou falho. No instante t = 0, o sistema está funcionando e que este passe do estado “operando” para o estado “falho” à uma taxa constante λ, a probalidade de que o item falhe no instante ( ) ∆t é : P 0 < t ≤ ∆t = ∫ λdt = λ∆t Ao contrário, a probabilidade de que, em t = 0, o componente esteja ( ) funcionando e continua operando no instante ∆t, é : P 0 < t ≤ ∆t = 1 − λ∆t De igual forma, para análise da fase de manutenção tem-se a probabilidade de que o componente esteja sendo reparado em t = 0 e volta a operar no instante ∆t ( ) igual a : P 0 < t ≤ ∆t = γ .∆t E a probabilidade de esteja em reparo no instante t = 0 e continue em ∆t é : P (0 < t ≤ ∆t ) = 1 − γ∆t Assim, convencionando x(t) como a função que representa o estado do componente, teremos: 1 onde, x(t) igual a 1 significa o componente no x (t ) = operando. 0 estado falho e igual a 0 , Pesquisa Naval Nº 16, Outubro de 2003 299 Assim, estabelecemos o diagrama da forma abaixo : λ∆t 1-λ∆t 0 operando 1 falho γ∆t A probabilidade, então, estar indisponível, isto é, falho no instante ∆t dependerá do seu estado presente : P[ x(t+∆t) = 1 ] = P [componente estar operando em t e falhar em ∆t ou estar falho em t e permanecer falho em ∆t] [ ] [ ] [ ] [ ] [ P [x (t + ∆t ) = 1] = P [x (t ) = 0]λ∆t + P [x (t ) = 1](1 − γ∆t ) P x (t + ∆t ) = 1 = P x (t ) = 0 .P x (∆t ) = 1 + P x (t ) = 1 .P x (∆t ) Para facilitar, denotemos Po(t), a probabilidade do componente estar operando no instante t e Pf(t), a probabilidade do componente estar danificado no mesmo instante, chegando ao seguinte resultado : Pf (t + ∆t ) = Po (t )λ∆t + Pf (t )(1 − γ .∆t ) Po(t + ∆t ) = (1 − λ∆t )Po(t ) + γ .∆tPf (t ) Pf (t + ∆t ) − Pf (t ) = λPo (t ) − γ .Pf (t ) ∆t Po(t + ∆t ) − Po(t ) = −λ∆tPo (t ) + γ .∆tPf (t ) Pf (t + ∆t ) = Po (t )λ∆t + Pf (t ) − Pf (t )γ .∆t ∆t → 0 dPf (t ) = λPo (t ) − γ .Pf (t ) dt Po(t + ∆t ) = Po(t ) − λ∆tPo (t ) + γ .∆tPf (t ) Po(t + ∆t ) − Po (t ) = −λPo(t ) + γ .Pf (t ) ∆t ∆t → 0 dPo(t ) = −λPo (t ) + γ .Pf (t ) dt 300 Pesquisa Naval Nº 16, Outubro de 2003 Assim, podemos representar tais probabilidades em notação matricial : dPo (t ) dPf (t ) − λ λ = Po (t ) Pf (t ) γ − γ dt dt [0 0] = Po (t ) Pf (t ) −γλ −λγ [ [ ] ] A matriz acima pode ser construída diretamente do diagrama de transição de estado, tendo-se o cuidado de observar as seguintes regras : • A dimensão da matriz é igual ao número de estados do modelo; • A soma das linhas é igual a zero; • O elemento (i,j) representa a taxa de transição do estado i para o estado j; • Os elementos da diagonal principal representam as taxas de permanência no estado. Entretanto, o sistema de equações é indeterminado, mas sabendo-se que somatório das probabilidades é igual a 1 : A possibilidade de pane pode ser minimizada através da redundância, onde mais um estado é estabelecido, ficando, então, com três fases : “stand by” (S), falho (F) e operação(O). A inclusão do componente “stand by” leva a uma associação em paralelo, aumentando a confiabilidade do sistema, através da substituição daquele danificado pelo “stand by”. Os estados do sistema, neste caso, serão representados por um bigrama, conforme abaixo : Estado AO B S AO B F A F BF Significado O sistema está em operação e o equipam by” está parado, aguardando a ocorrên pane, quando substituirá o equipamento fim de manter a operação do sistema. O sistema está em operação, mas o e “stand by” foi colocado em linha para s componente danificado. Assim, o sistema operando, não tem nenhum equipamento e O sistema entra em colapso, pois houve sem que se tivesse um equipamento “sta atender esta demanda Pesquisa Naval Nº 16, Outubro de 2003 301 Assim, das conclusões anteriores e considerando que os componentes em reserva não falham quando chamados a operar, tem-se o seguinte diagrama de transição, com as taxas de λ e γ : γ 1 A O BS λ 2γ λ 3 AF B F O sistema, no estado 1, está operando (AO) e o equipamento “stand by” aguardando (B S ). Em um determinado momento, um componente do sistema falha, mas o sistema continua a operar (AO), pois o equipamento reserva substitui o danificado, caracterizando, assim, o estado 2 (o equipamento falho aguardará o reparo). Não há diferença entre os equipamentos e, assim, tudo se passa como se o sistema continuasse a operar sem o componente de “stand by” (B F ). Se o sistema falhar (AF)e o equipamento “stand by “ não tiver sido reparado (BF) , o sistema entra no estado 3, que constitui a paralisação do mesmo, portanto a condição indesejável. Entretanto, o equipamento falho (BF) pode ser reparado ou um equipamento falho em linha (AF) pode vir a ser reparado, retornando, assim, ao estado 2. Neste estado, sistema paralisado por duas panes, ter-se-á ambos os equipamentos falhos sendo submetidos a manutenção. O sistema voltará a funcionar quando qualquer um dos dois componentes voltar a ser operacional, como a manutenção de um não interfere na do outro (eventos independentes, com taxa γ de manutenção) conclui-se que a taxa de transição para o estado 2 é 2γ. Eventualmente, o equipamento em reserva danificado pode ser reparado e voltar do estado 2 ao estado 1. Po (t ) + Pf (t ) = 1 ⇒ − λPo (t ) + γ .Pf (t ) = 0 Po (t ) = γ γ +λ λ Pf (t ) = γ +λ 302 Pesquisa Naval Nº 16, Outubro de 2003 Assim, entendido os estados e suas transições, chega-se à seguinte matriz de transição de estado : − λ [P1 P2 P3 ] γ 0 λ − (γ + λ ) 2γ P1 + P2 + P3 = 1 como , − λP1 + γP2 = λP1 − (γ + λ ) λP2 − 2γP3 = P1 + P2 + P3 λP1 − (γ + λ ) λP2 − 2γP3 = λ =0⇔ − 2γ 0 ⇒ Resolvendo Resolvendo o sistema acima, obter-se-á o valor de P3 , a probabilidade do sistema falhar. Pode-se afirmar que o sistema adquire uma confiabilidade alta com a existência dos equipamentos em “stand by”, mas há a possibilidade do item redundante falhar quando iniciar sua operação, cuja influência deve ser analisada. Desta forma, considere-se como p a probabilidade do componente iniciar sua operação quando solicitado e, portanto, (1-p), a probabilidade de falhar no início de sua operação. Assim, teríamos : Situação Prob sistema falhar e o equipamento “stand by” operar sistema falhar, o 1º equipamento “stand by” falhar e o 2º operar sistema falhar e os equipamentos “stand by”não operarem O diagrama de transição de estados com um equipamento em “stand by” ficaria : γ 1 A O B p λ S 2γ (1-p).λ λ 3 AF B F Pesquisa Naval Nº 16, Outubro de 2003 303 Analogamente à análise anterior, tem-se a seguinte matriz das transições de estado : P1 + P2 + P3 = λp (1 − p )λ − λ [P1 P2 P3 ] γ − (γ + λ ) λ = 0 ⇒ λpP1 − (γ + λ ) − 2γ 2γ 0 λ (1 − p )P1 + λ Neste caso, o estado a evitar é o estado 3, colapso do sistema. Da mesma forma, com dois equipamentos em reserva, tem-se o diagrama de transição de estados : γ AO 1 BSBS pλ (1-p)pλ (1-p)λ (1-p)(1-p)λ 2 4 A F BS BS λ 3γ A Analogamente, tem-se a seguinte matriz das transições de estado: − λ (1 − p )pλ (1 − p )2 λ pλ (1 − p )λ = 0 ⇒ [P1P2P3P4 ] γ − (γ + λ ) pλ − (2γ + λ ) λ 2γ 0 0 − 3γ 0 3γ P1 + P2 + P3 + P4 = 1 pλP1 − (γ + λ )P2 + 2γP3 = 0 ⇒ (1 − p )pλP1 + pλP2 − (2γ + λ )P3 + 3γP4 = 0 2 (1 − p ) λP1 + (1 − p )λP2 + λP3 − 3γP4 = 0 304 Pesquisa Naval Nº 16, Outubro de 2003 Com 3 equipamentos em “stand by “, teremos o diagrama das transições de estado e sistema de equações abaixo: 2 − λ (1 − p ) pλ (1 − p ) pλ pλ (1 − p )pλ − (γ + λ ) γ pλ [P1 P2 P3 P4 P5 ] 0 2γ − (2γ + λ ) pλ 0 − (3γ + λ ) 0 3γ 0 0 4γ 0 P1 + P2 + P3 + P4 + P5 = 1 λpP − (γ + λ )P + 2γP = 0 1 2 3 ⇒ (1 − p ) pλP + pλP − (2γ + λ )P + 3γP = 0 2 3 4 2 (1 − p ) pλP1 + (1 − p )pλP2 + pλP3 − (3γ + λ )P4 + 4γP5 = (1 − p )3 λP1 + (1 − p )2 λP2 + (1 − p )λP3 + λP4 − 4γP5 = 0 γ A O 1 BSBS B pλ A O BF S (1-p)pλ (1-p)(1-p)(1-p)λ A F 5 BF BF B 2γ (1-p)(1-p)pλ 3 AO B F λ pλ 4γ 3γ A O 4 BF BF B F (1-p Pesquisa Naval Nº 16, Outubro de 2003 305 3. Resultados Para testar-se a solução teórica proposta, buscou-se dados de uma rede com 150 estações de trabalho, reafirmando a premissa de que este sistema tolera que alguns equipamentos fiquem inoperantes, mantendo sua funcionalidade. Assim, estabelece-se que : § o sistema está em operação com mais de 145 equipamentos funcionando, isto é, ele é tolerante até 5 equipamentos falhos em um mesmo momento, que representa uma tolerância menor de 4% em relação ao total de equipamentos. A partir do sexto microcomputador danificado, o sistema entra em colapso, caracterizando o estado de sistema inoperante; § nenhum componente do sistema é utilizado durante as 24 horas do dia, mas durante um expediente de 8 às 18 horas, média de trabalho de todos os equipamentos de dez horas diárias; § o parâmetro de qualidade (sua confiabilidade) para aferir a eficiência do sistema, será maior que 95%. Isto posto, considerando os dados obtidos, pode-se estabelecer os seguintes quadros de distribuição : FAIXA FAIXA INÍCIO FIM 1 12 22 33 44 54 65 75 11 21 32 43 53 64 74 85 Distribuição de freqüência do sistema operando SISTEMA PARADO SISTEMA OPERANDO FAIXA INÍCIO 9 2 1 0 1 0 1 1 1 10 20 30 40 50 60 70 10 8 6 4 2 0 FREQ. FIM 9 19 29 39 49 59 69 78 11 2 0 0 0 0 0 1 1 2 3 4 5 6 7 8 9 10 Distribuição de freqüência de pane do sistema 10 8 6 4 2 0 1 2 3 4 5 6 7 8 Vê-se que as curvas apresentam um comportamento exponencial e, assim, precisamos estabelecer o parâmetro característico de cada curva. Para isto utilizar-se a igualdade entre o momento amostra e o da população, conforme exposto anteriormente (para o estabelecimento da taxa de manutenção, descartar-se-á os 56 dias parados por ser apenas uma ocorrência e ter sido motivado por equipamento muito antigo e forçar uma tendência indevida): 1 λ = x = 188,67 ⇒ λ = 1 188,67 = 0,0053 1 γ = x = 29,231 ⇒ γ = 1 29,231 = 0,03421 306 Pesquisa Naval Nº 16, Outubro de 2003 Estes valores provaram ser aceitáveis, utilizando-se o "software BEST FIT". Assim, resolvendo-se os sistemas de equações, tem-se confiabilidade sistema sem redundância de 0,8659 e confiabilidade do sistema com redundância: . com c com um e sq u ip a m e n t o e m r e se r v a 0 ,9 8 8 5 6 3 d o is e sq u ip a m e n t os e m r e se r v a 0 ,9 9 8 9 4 0 0 ,9 8 8 5 4 4 0 ,9 9 8 9 4 0 0 ,9 8 6 9 7 1 0 ,9 9 8 9 3 8 0 ,9 8 6 9 7 1 0 ,9 9 8 9 3 8 0 ,9 8 5 3 9 0 0 ,9 9 8 9 3 7 0 ,9 8 5 3 9 0 0 ,9 9 8 9 3 7 0 ,9 8 5 4 3 7 0 ,9 9 8 9 3 8 0 ,9 8 5 4 3 7 0 ,9 9 8 9 3 4 0 ,9 8 3 8 7 1 0 ,9 9 8 9 3 6 0 ,9 8 3 8 7 1 0 ,9 9 6 8 0 9 0 ,9 8 2 3 1 6 0 ,9 9 6 8 0 9 0 ,9 7 9 3 3 3 0 ,9 9 5 7 4 1 0 ,9 7 0 5 4 3 0 ,9 9 2 5 6 2 tr ê s e sq u ip a m e e m r e se r ,9 9 ,9 8 ,9 7 ,9 6 ,9 5 ,9 4 ,9 3 ,9 2 ,9 1 ,9 0 ,8 9 ,8 3 0 ,9 ,7 0 § § § Pode-se observar, claramente, que a influência de p é diminuta. Considerando o exposto, deve-se, então, analisar a solução sob os critérios de: adequabilidade, isto é, solução proposta resolverá o problema, o que foi demonstrado, pois garantirá que o sistema esteja operando em mais de 95% das vezes em que for solicitado; exequibilidade, isto é, tem-se os meios para implementá-la. Quando há um parque de 150 equipamentos, a aquisição de mais um, dois ou três é perfeitamente factível;e aceitabilidade, que se refere ao custo-benefício da solução, se esta, além de resolver o problema, economizará recursos. Assim, considerando o custo de um equipamento, R$ 3.000,00, a menor taxa de juros existente , 0,5 % a.m., vê-se que se a despesa mensal maior ou igual a R$ 258,20 justificaria a aquisição de um equipamento1. 1 3 . 000 , 00 = 12 ∑ n =1 m 1 0 ,5 1 + 100 n ⇒ m = 258 , 20 Pesquisa Naval Nº 16, Outubro de 2003 307 4. Conclusão Confiabilidade é a expectativa de que um sistema estando em operação continue nesta situação por um tempo determinado. Para tal, o raciocínio foi reverso, obteve-se o valor da probabilidade da falha e ações que evitassem tal ocorrência, estabelecendose para tanto a quantidade ideal de componentes "stand by". Baseando-se nos diagramas de transição de estados e partindo de conceitos comprovados estabeleceu-se equações para se obter a confiabilidade do sistema, modelandose a situação atual (sem redundância) e três alternativas, com um, dois ou três equipamentos em reserva. Após estabelecer os parâmetros do sistema, pôde-se verificar que o sistema adquire uma grande confiabilidade com a disposição de equipamentos em reserva para substituir os danificados. Testou-se a modelagem, com dados de uma rede com 150 computadores, estabelecendo-se seus parâmetros e aferindo-se sua confiabilidade, superior a 95%. As alternativas provaram ser adequadas, exeqüíveis e aceitáveis, verificando-se que todas as alternativas levam a uma redução de custos. 5. Referências Bibliográficas 1. ANDREWS, J.D.; MOSS T.R, Reliability and Risk Assessment. Inglaterra : Longman Scientific & Technical, 1993. 2. ASCHER, H. E, Improving Computer Reliability by antecipating Failures. IEEE Transactions on Reliability 1992. Estados Unidos da América. 3. BILLINTON, Roy; ALLAN, Ronald N. Reliability Evaluation of Engineering Sistems, Concepts and Techniques. 2º Ed. Estados Unidos da América : Plenum Publishing corporation, 1992 4. CLARKE, Bruce A . e DISNEY, Ralph, Probabilidade e Processos Estocáticos. Rio de Janeiro : Livros Técnicos e Científicos Editora S.A., 1980 5. HOYLAND, Arnljot, RAUSAND, Marvin. System reliability theory models and statistical methods. Estados Unidos da América : John Wiley & Sons Inc, 1994. 6. LARSON, H.J. Introduction to Probability Theory and Statistical Inference. New York: John Wiley & Sons, 1982. 7. LEWIS, E. E. Introduction to Reliability Engeneering. Estados Unidos da América : John Wiley & Sons, Inc. 1987. 8. OLIVEIRA, Luiz Fernando Seixas, Introdução à Engenharia da Confiabilidade de Sistemas Notas de aula. UFF 1995. 308 Pesquisa Naval Nº 16, Outubro de 2003 TERMINAL TÁTICO INTELIGENTE - TTI O TTI 2900 é um sistema de controle tático, baseado em arquitetura PC, robustecida e de baixo custo, projetado e desenvolvido pelo Instituto de Pesquisas da Marinha - IPqM para ser empregado em plataformas de superfície e aéreas. Tem como finalidade o uso mais eficiente dos sistemas embarcados em tarefas como: compilação do cenário tático, avaliação de ameaças e resposta tática. O TTI pode operar tanto em modo "stand alone", quando todas as entradas de dados e comandos são processados por uma única CPU, quanto integrado em um sistema distribuído, com vários consoles TTI 2900 conectados entre si ou com outros sistemas através de uma rede local. CARACTERÍSTICAS PRINCIPAIS Processamento e apresentação de múltiplos sensores. Link automático de dados com outras plataformas e bases de terra. Exibição do cenário tático de ambientes aéreo, superfície e submarino. Solução de problemas táticos e de navegação. Compatibilidade com ARPA. Apresentação de movimento verdadeiro/relativo. Acompanhamento de alvos manuais/ automáticos. Interface com GPS, Giro, Odômetro, Anemômetro e sistemas de Guerra Eletrônica. Arquitetura aberta com projeto baseado em orientação a objetos. INTERFACE HOMEM-MÁQUINA Sua IHM foi projetada para reduzir a carga de operação através do uso de técnicas simples de gerenciamento de dados, tais como, estrutura de diálogo interativo e entrada por múltiplos dispositivos (como teclado dedicado, trackball, etc.). CARACTERÍSTICAS OPCIONAIS Acompanhamento automático de dados . Link de dados com capacidade de até 1200 bps, empregando equipamentos VHF/ UHF/ HF convencionais. Módulo de Carta Náutica Eletrônica. Integração total com sistema GPS/DGPS. Interface padrão Ethernet. Monitor LCD com resolução de 1280 x 1024. XXIV Capítulo MODELO DE PROGRAMAÇÃO LINEAR EM DOIS NÍVEIS PARA OTIMIZAÇÃO DE ESTOQUES DE SOBRESSALENTES CC (EN) Júlio César Silva Neves , DSc. Cap QEM Alexandre Laval Silva , M.C. Instituto Militar de Engenharia, praça Gal. Tibúrcio 80, Urca, Rio de Janeiro, RJ.Email [email protected] Resumo O objetivo principal da gestão de estoques de sobressalentes é conseguir um patamar satisfatório de nível de serviço com o mínimo custo. As cadeias de distribuição de sobressalentes normalmente estão escalonadas em níveis distintos. Cada nível tem objetivos próprios e controla algumas variáveis específicas, mas tem seu espaço de decisão total ou parcialmente determinado por outros níveis. Sendo assim, nem sempre as decisões ótimas de cada nível hierárquico conduzem ao ótimo global da cadeia de distribuição. Este trabalho propõe um Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes em uma cadeia de distribuição de sobressalentes. O primeiro nível de decisão (dos centros de manutenção) busca otimizar o número de pedidos atrasados e o desbalanceamento entre os níveis de serviço dos centros de manutenção e o segundo nível (o depósito central) busca minimizar os custos de transporte e de manutenção dos estoques na cadeia de distribuição. Abstract The mainly goal in the management of spare parts stock is to attain a good service level with minimum costs. The spare parts distribution is usually structured in different levels. Each one represents a level of decision, having its own goals and controlling specific variables. The decisions made in one level touch the boundaries imposed by the existence of the others and, even if each level make an optimal decision, there is no guarantees that the global optimal of the distribution chain will be attained. This works proposes a Model of Linear Bilevel Programming that 310 Pesquisa Naval Nº 16, Outubro de 2003 aims the spare parts store optimization in a chain of distribution. The first level of decision (maintenance centers) aims to optimize the number of delayed orders and balance its several levels of service. The second one (central store) search for minimizing the transportation and maintenance costs of storage in the spare parts distribution chain. 1 Introdução Segundo Ballou (1997), tem havido uma busca por melhorias no desempenho operacional das empresas, visando oferecer qualidade no atendimento ao cliente, aproveitando ao máximo os recursos disponíveis, de forma a minimizar os custos do processo logístico. Um aspecto fundamental da logística é a gestão de sobressalentes. Pois os elevados custos de aquisição, os longos tempos de resposta de fornecimento e os baixíssimos giros, característicos das peças de reposição, são armadilhas freqüentes encontradas na definição de políticas de estoques de sobressalentes. Segundo Huiskonen (2001), o principal objetivo do gerenciamento de estoques de sobressalentes é conseguir um patamar satisfatório de nível de serviço (confiabilidade e disponibilidade) com o mínimo custo. Modelos matemáticos são freqüentemente utilizados para otimização de estoques de sobressalentes, considerando os investimentos em estoques, custeio dos bens e serviços, níveis de serviço, classificação de itens, políticas de gerenciamento e utilizando sistemas com múltiplos escalões hierárquicos mantendo estoques (Sherbrooke,1992). Na prática¸ os estoques de sobressalentes têm sido gerenciados aplicando apenas os princípios gerais da administração de estoques, desconsiderando as diferenças específicas da gestão de sobressalentes e geralmente os estoques de sobressalentes são gerenciados localmente, não considerando a cadeia de distribuição de forma sistêmica. (Huiskonen,2001). Esta falta de enfoque sistêmico reduz a competitividade, pois cada elemento da cadeia de suprimentos age independentemente, buscando maximizar suas vantagens atuando sobre os seus custos de forma a aumentar sua margem no processo (Novaes,2001). Embora o problema de estoques de sobressalentes tenha sido estudado no contexto de múltiplos escalões em alguns modelos encontrados na revisão bibliográfica, em nenhum modelo foi considerada a participação dos diferentes níveis de tomada de decisão inseridos em uma estrutura hierárquica de poder ou influência. Na realidade, cada nível desta estrutura hierárquica tem objetivos próprios e controla algumas variáveis específicas, mas tem seu espaço de decisão total ou parcialmente determinado por outros níveis (Campêlo,1999). Sendo assim, nem sempre as decisões ótimas de cada nível hierárquico conduzem ao ótimo global da cadeia de distribuição. Este tipo de problema, envolvendo vários níveis de tomada de decisão, é tratado na Programação Multi-Nível que considera a interdependência e a integração Pesquisa Naval Nº 16, Outubro de 2003 311 dos níveis decisórios. A Programação Linear em Dois Níveis é um caso particular da Programação Multi-Nível, cujo objeto de estudo são exatamente problemas de otimização envolvendo dois níveis hierárquicos (Campêlo, 1999). Neste contexto, o Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes proposto visa calcular uma solução ótima global que compatibilize as decisões de cada nível hierárquico com os objetivos dos centros de manutenção (minimizar os atrasos e o desbalanceamento dos níveis de serviço dos centros de manutenção) e com o objetivo do depósito (minimizar os custos de transporte e os custos de manutenção do estoque da cadeia de distribuição). 2 Programação Linear em Dois Níveis (PLDN) Muitos processos decisórios envolvem a participação de agentes que estão inseridos em uma estrutura hierárquica de poder ou influência. Freqüentemente, cada nível nesta hierarquia tem objetivos próprios (conflitantes ou não) e controla algumas variáveis específicas, mas tem seu espaço de decisão total ou parcialmente determinado por outros níveis (Campêlo, 1999). A Programação Linear em Dois Níveis é uma área da programação matemática cujo objeto de estudo são exatamente problemas de otimização envolvendo dois níveis hierárquicos com as características acima descritas, sendo que o agente do segundo nível (o seguidor) está subordinado ao do primeiro nível (líder). Ao seguidor, que controla a variável y ,está associado o seguinte problema de otimização: R (x) max f2 (x , y ) s.a y Î W2 (x) (2.1) onde f2 : ‘n1´‘n2 ®‘ e W2 (x) é o conjunto viável parametrizado pelas variáveis x controladas pelo líder. O problema do primeiro nível é definido em função do conjunto de soluções Y(x) do problema paramétrico R (x) , do seguinte modo : max f1 (x , y ) s.a (x , y ) Î W1 , y Î U(x) Í Y(x) (2.2) onde f1 : ‘n1´‘n2 ®‘, W1 Í ‘n1´‘n2 é um conjunto fechado , e U(x) um subconjunto de soluções do problema do seguidor. A escolha da multifunção U leva em conta a expectativa do líder em relação à resposta do seguidor. As duas principais opções são: (2.3) U(x) = argmax {f1 (x , y ) : y Î Y(x)} U(x) = argmin {f1 (x , y ) : y Î Y(x)} (2.4) onde argmax é o conjunto dos pontos que realizam o máximo e argmin o conjunto de ponto que realizam o mínimo. Definindo respectivamente os problemas cooperativos e não cooperativo. No primeiro caso , supõe-se que o líder é capaz de induzir o seguidor a escolher dentre suas soluções aquela que seja mais conveniente ao primeiro nível . No segundo caso, adota-se a estratégia mais conservadora possível e se considera que o seguidor reage com a pior resposta para o líder. O caso cooperativo equivale a tornar equivalente U(x) º Y(x), gerando o problema: max f1 (x , y ) (2.5) 312 Pesquisa Naval Nº 16, Outubro de 2003 (2.6) s.a (x , y ) Î W1 (2.7) y Î arg max {f2 (x , y ) : y Î W2 (x)} Considerando a formulação acima, onde as funções f1 e f2 são lineares e os conjuntos W1 e W2 (x), poliedros, o problema de programação linear em dois níveis é definido da seguinte forma por Campêlo (1999): (2.8) (PLDN) max f1 (x , y ) = cT1 x + cT2 y s.a B1 x + B2 y d• b (2.9) x e• 0, y solução de (2.10) (2.11) max y f2 (x , y ) = dT y s.a A1 x + A2 y d• a (2.12) y e• 0 (2.13) onde x, c1 Î ‘n1, y, d, c2 Î ‘n2 , a Î ‘m2 , b Î ‘m1, A1 Î ‘m2 x n1, A2 Î ‘m2 x n2 , B1 Î ‘m1 x n1 e B2 Î ‘m1 x n2 . Por associação ao decisor do primeiro nível, diz-se que x é a variável do líder e as expressões (2.8) e (2.9) são respectivamente a função objetivo e as restrições explícitas. Analogamente, y é denominada a variável do seguidor e (2.11) e (2.12), sua função objetivo e suas restrições. O problema de programação linear em dois níveis (PLDN) tem sido estudado em diversos campos de aplicação, todavia, não foi identificado na literatura pesquisas referentes à aplicação da PLDN ao problema de controle de estoques. 3 O Modelo Proposto O modelo proposto neste trabalho visa otimizar os estoques e a distribuição de sobressalentes em sistemas com múltiplos escalões considerando a participação dos diferentes níveis de tomada de decisão. Estes níveis estão inseridos em uma estrutura hierárquica de poder ou influência, visando compatibilizar as decisões de otimização do nível de serviço e custo do sistema logístico de cada nível hierárquico. Neste sentido, o modelo desenvolvido deve calcular a quantidade ótima de sobressalentes em cada ponto da cadeia de distribuição (depósito e os centros de manutenção) em cada período do horizonte de tempo considerado. Convém observar que cada depósito é responsável pelo abastecimento de um conjunto de centros de manutenção e que, em princípio, não há transferência de sobressalentes entre depósitos ou entre centros de manutenção. A demanda em cada centro de manutenção é determinada pelo planejamento dos centros de manutenção que estimam as suas necessidades conforme o histórico de fornecimento e com base nas manutenções programadas para o horizonte de tempo em estudo. O nível de serviço é definido como sendo o número total de sobressalentes fornecidos pelo centro de manutenção dividido pelo total de demandas deste centro de manutenção no horizonte de tempo considerado (ver restrição f da seção 3.4). É desejável que os centros de manutenção não possuam níveis de serviço desbalanceados, ou seja, é desejável que os níveis de serviço dos centros de manutenção não sejam muito diferentes. O desbalanceamento é medido pelo índice de Pesquisa Naval Nº 16, Outubro de 2003 313 desbalanceamento dos níveis de serviço que está definido na seção 3.4 deste artigo como sendo o somatório das diferenças dos níveis de serviço dos centros de manutenção. Ou seja, quanto menor for este somatório, menor será a diferença entre os níveis de serviço dos centros de manutenção e menor será o índice de desbalanceamento. Sendo assim, este índice mede as diferenças entre os níveis de serviço dos centros de manutenção. Na otimização dos níveis de estoques devem ser considerados os custos de transporte do depósito para os centros de manutenção e o custo de manutenção de estoques no depósito e centros de manutenção, que é composto pelo custo de capital investido, pelos impostos e seguros, pelo custo de obsolescência e pelo custo de armazenagem dos sobressalentes na cadeia de distribuição. O “Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes” deve focar o atendimento ao cliente, considerando no primeiro nível de influência do problema o escalão dos centros de manutenção (CMnt) e definindo o escalão depósito como segundo nível de influência do problema existente. Neste contexto, o escalão dos centros de manutenção (primeiro nível) está objetivando minimizar os atrasos e minimizar o desbalanceamento dos níveis de serviço dos centros de manutenção. Sendo assim, o primeiro nível controla as variáveis relacionadas ao total de atrasos de sobressalentes nos centros de manutenção e o índice de desbalanceamento dos níveis de serviço dos centros de manutenção no horizonte de tempo considerado. Por outro lado, o escalão do depósito (segundo nível) está preocupado com os custos de transporte e manutenção de estoques do sistema logístico, ou seja, para o segundo nível é desejável que os custos sejam minimizados. Sendo que o segundo nível controla as demais variáveis de decisão. Em cada período do horizonte de tempo considerado, o depósito recebe um fornecimento de sobressalentes, de fabricantes e fornecedores de peças recuperadas. A capacidade de fornecimento dos fabricantes é definida no planejamento de fornecimento. Neste modelo, baseando em contratos com transportadoras existentes no mercado, definiu-se que os sobressalentes são expedidos do depósito num período e chegam nos centros de manutenção no período seguinte, caso seja utilizado o transporte normal ou no mesmo período, caso seja utilizado o transporte de emergência. O transporte tanto na modalidade normal como emergencial são aéreos, sendo que na modalidade emergencial os sobressalentes são transportados por uma pessoa que viaja acompanhando a bagagem. Os custos de transporte são definidos contratualmente e obviamente a modalidade emergencial possui um custo mais elevado que a modalidade normal. O depósito e os centros de manutenção possuem um estoque inicial e existem expedições de sobressalentes programadas para chegarem nos centros de manutenção no primeiro período do horizonte de tempo considerado. O Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes foi desenvolvido no software Mathematica 4.0, utilizando o algoritmo “Kth-Best” (Bialas,1984) implementado por Neves (2002). 314 Pesquisa Naval Nº 16, Outubro de 2003 3.1 Parâmetros Foram estabelecidos os seguintes parâmetros para realização desta modelagem: § Cj: Custo unitário (em reais) de transporte do Depósito para o CMnt j Centro de Manutenção j , para j = 1, 2, 3...J . Existem as modalidades de transporte normal (CNj) e de emergência (CEj). § Djt : Demanda de sobressalentes do CMnt j no período t , para j =1,2,3...I e t = 1, 2 ,3 ...T. § HD : Custo unitário por período (em reais) de manutenção do estoque no Depósito em cada período. § HCj : Custo unitário por período (em reais) de manutenção do estoque no CMnt j em cada período , para j = 1, 2, 3 ...J. § Wj0: Estoque existente no CMnt j no período 0, para j = 1, 2, 3...J. § X0: Estoque existente no Depósito no período 0 (inicialmente). § Yj0: Quantidade de sobressalentes expedida do Depósito para a CMnt j no período 0 , prevista para chegar no CMnt j no período 1, para j = 1, 2, 3...J . § Kt: Quantidade de sobressalentes prevista para ser fornecida ao Depósito no período t , para t = 1, 2, 3 ...T . § Vjt: Quantidade de sobressalentes que pode ser transportada do Depósito para o Centro de Manutenção j no período t, para j =1,2,3...I e t = 1, 2 ,3 ...T. 3.2 Variáveis Independentes Sejam as variáveis independentes descritas abaixo, que representam a quantidade de sobressalentes nas seguintes situações: § yjt : Quantidade de sobressalentes transportada do Depósito para o CMnt j no período t na modalidade de transporte normal , para j = 1, 2, 3...J e t = 1, 2, 3 ...T. § ejt : Quantidade de sobressalentes transportada do Depósito para o CMnt j no período t na modalidade de transporte de emergência , para j = 1, 2, 3...J e t = 1, 2, 3 ...T . § xt : Estoque no Depósito no período t , para t = 1, 2, 3 ...T . § fjt : Quantidade de sobressalentes fornecidos pelo CMnt j no período t, para j = 1, 2, 3...J e t = 1, 2, 3 ...T . § zjt : Atrasos de sobressalentes nos CMnt j no final do período t, para j = 1, 2, 3...J e t = 1, 2, 3 ...T . § a : Total de atrasos nos CMnt j no horizonte de tempo considerado. § sj : Nível de Serviço dos CMnt j no horizonte de tempo considerado, para 0 d•sj d•1 e j = 1, 2, 3...J. É definido pelo somatório dos fornecimentos do Centro de Manutenção j dividido pelo somatório das demandas do mesmo CMnt no horizonte de tempo, conforme definido na equação 3.10 na seção 3.4. § bj’j e bj j’: Diferença entre os níveis serviço de dois CMnt distintos., para j = 1, 2, ,...J e para j’ = 1, 2 ,...J’ conforme definido nas equações 3.3, 3.12 e 3.13 na seção 3.4 Pesquisa Naval Nº 16, Outubro de 2003 315 § b : Representa um índice de desbalanceamento dos níveis de serviço dos CMnt e é definido pelo somatório de todas diferenças entre os níveis de serviço dos CMnt no horizonte de tempo considerado, conforme definido nas equações 3.3, 3.12 e 3.13 na seção 3.4. Ou seja, quanto menor for o índice de desbalanceamento, menor será a diferença entre dos níveis de serviço dos centros de manutenção. Se b = 0, significa que os centros de manutenção possuem níveis de serviço iguais no horizonte de tempo considerado. 3.2 Funções Objetivo do Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes O “Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes” tem como funções-objetivo F1 e F2 , definidas nas equações abaixo: (3.1) e (3.2). Sendo que neste caso, as funções-objetivo estão inseridas no contexto do problema de programação linear em dois níveis, que pode ser definido da seguinte forma: Minimizar { F1 } do primeiro nível, tendo como variáveis a e b, submetida ao conjunto de restrições definidas em 3.4, sendo a função objetivo do segundo nível: Minimizar { F2 }, tendo como variáveis x, y, e, w, z, f e s , submetida ao conjunto de restrições definidos na seção 3.4. Onde : Seja F1 a variável dependente do primeiro nível que está relacionada com o total de atrasos nos centros de manutenção e com o desbalanceamento entre os níveis de serviço dos centros de manutenção. Desta forma: (3.1) F1 = a + b Minimizar { F1 } , tendo como variáveis a e b, considerando as restrições do tópico 4.4. Sendo a e b solução da função objetivo do segundo nível e são definidas da seguinte forma: T J a = ∑ ∑ zjt (3.2) t =1 j =1 J J' b = ∑ ∑ bj j ' j =1 j ' =1 (3.3) Sendo j e j’ definidos pela combinação de J dois a dois. Onde o primeiro termo da equação (3.1) representa o número total de atrasos - a - ocorridos nos Centros de Manutenção no horizonte de tempo considerado, sendo definido na equação (3.2) e o segundo termo – b – representa o índice de desbalanceamento entre os níveis de serviço dos centros de manutenção. A equação (3.3) representa matematicamente o índice de desbalanceamento como sendo o somatório das diferenças entre os níveis de serviço dos CMnt combinados dois a dois, ou seja, são contabilizadas todas as diferenças de níveis de serviço dos centros de manutenção. A implementação da equação (3.3) é apresentada novamente na restrição h) da seção 3.4. Sendo assim, a (atrasos nos centros de manutenção) tem domínio nos inteiros positivos e b (desbalanceamento de níveis de serviços) tem domínio entre zero e um. 316 Pesquisa Naval Nº 16, Outubro de 2003 Considerando-se a soma dessas variáveis está-se, na prática, dando um peso maior ao primeiro fator, que realmente é o mais importante. Seja F2 a variável dependente do segundo nível que está relacionada com os custos de transporte, com os custos de manutenção dos estoques no Depósito i e nos CMnt j. Desta forma: F 2 = ∑ HD (x t ) T t =1 + ∑ ∑ HC j ( w jt ) T J t =1 j =1 + ∑ ∑ [ C Nj ( y jt ) + C Ej ( e jt ) T J t =1 j =1 (3.4) ] Minimizar { F2 } , tendo como variáveis x, y, e, w, z, f e s . Sendo submetida ao conjunto de restrições definidas na seção 3.4. Onde : O primeiro termo da equação (3.4) representa o custo de manter o estoque no depósito ao longo do tempo, o segundo termo representa o custo de manter o estoque nos Centros de Manutenção ao longo do tempo e o terceiro termo representa o custo de transporte ao longo do tempo, supondo que os custos não mudam no horizonte de tempo considerado. 3.4 Restrições As funções objetivo apresentadas na seção 3.3 estão sujeitas às seguintes restrições: a) Estoques no Depósito: A quantidade de sobressalentes estocada no depósito em cada período t é igual ao estoque existente no período anterior (t - 1) mais o que foi recebido no período t menos o que foi expedido ( nas duas modalidades de transporte) para os Centros de Manutenção no período t : T J xt = x(t − 1) + kt − ∑∑( yjt + ejt) t =1 j =1 (3.5) Para t = 1,2,3..T e j = 1,2,3...J. Observa-se que o estoque do depósito, xt, não pode ser negativo, ou seja, não se pode enviar mais sobressalentes do que se tem em cada período t . b) Capacidade de transporte: A quantidade de sobressalentes transportada do depósito para cada Centro de Manutenção não pode ser maior que a capacidade de transporte para esse CMnt em cada período t : yjt ≤ Vjt Para t = 1,2,3..T e j = 1,2,3...J. (3.6) Pesquisa Naval Nº 16, Outubro de 2003 317 Esta restrição pode ser aplicada para as duas modalidades de transporte ( y t e/ou ejt), normal e de emergência, conforme o contexto de aplicação do modelo. c) Estoques nos Centros de Manutenção: O estoque em cada CMnt j no período t é igual ao estoque do CMnt j no período anterior mais a quantidade que foi expedida pelo depósito no período anterior (modalidade normal) e a quantidade que foi expedida pelo depósito no mesmo período (modalidade de emergência) menos o fornecimento do período t : wjt = wj ( t − 1) + yj ( t − 1) + ejt − fjt (3.7) Para t = 1,2,3..T e j = 1,2,3...J. d) Atrasos nos Centros de Manutenção: Os atrasos ocorridos no CMnt j no período t são definidos pela diferença entre a demanda existente no CMnt j no período t e o fornecimento realizado no CMnt j no período t , acrescentando os atrasos já existentes no período anterior (t – 1) : zjt = ( Djt − fjt ) + zj ( t − 1) (3.8) Para t = 1,2,3..T e j = 1,2,3...J. Esta restrição possibilita a contabilização dos atrasos de forma acumulativa, ou seja, caso haja um atraso no período t ,esse atraso será repassado para o período seguinte até que seja atendido. Convém destacar que esta restrição complementa a restrição c) , definindo também a quantidade fornecida fjt no CMnt j no período t . e) Fornecimentos nos Centros de Manutenção: A quantidade de sobressalentes fornecidos em cada CMnt j não pode ser maior que o somatório das demandas do CMnt j no horizonte de tempo considerado: T T ∑ f ≤ ∑d jt t =1 (3.9) jt t =1 Para j = 1, 2,3...J As restrições definidas a seguir [f) , g) e h)] são definições de algumas variáveis a serem otimizadas pelo modelo: f) Nível de Serviço: O nível de serviço de cada CMnt j é definido como sendo o somatório dos sobressalentes fornecidos no CMnt j dividido pelo somatório das demandas ocorridas no CMnt j no horizonte de tempo considerado: T sj = ∑ f jt t =1 Para j = 1, 2,3...J. T ∑d t =1 jt (3.10) 318 Pesquisa Naval Nº 16, Outubro de 2003 Analisando as restrições e) e f), observa-se que o nível de serviço pode variar entre os seguintes valores: (3.11) 0 ≤ sj ≤ 1 Multiplicando o sj por 100 obtém-se o nível de serviço percentual. g) Atrasos dos Centros de Manutenção: O total de atrasos de fornecimento dos Centros de Manutenção é definido como sendo o somatório dos atrasos ocorridos em todos CMnt j em todos períodos t: T J a = ∑ ∑ zjt t =1 j =1 (3.2) Convém observar que os atrasos são contabilizados de forma acumulativa. Sendo assim, a variável a representa o total de atrasos (saldos negativos de estoques) ocorridos em todos os CMnt j em todos os períodos t do horizonte de tempo considerado. h) Índice de Desbalanceamento do Nível de Serviço dos CMnt: O índice de desbalanceamento do nível de serviço dos centros de manutenção é definido como sendo o somatório das diferenças entre os níveis de serviço dos CMnt permutados dois a dois: J J' b = ∑ ∑ bj j ' j =1 j ' =1 (3.3) Sendo j e j’ definidos pela combinação de J dois a dois. Para implementar a equação (3.3) foi necessário desenvolver as seguintes equações: bj j ' ≥ sj − sj ' bj ' j ≥ s j ' − s j (3.12) (3.13) Sendo j e j’ definidos pela combinação de J dois a dois. As equações (3.3), (3.12) e (3.13) contabilizam as diferenças entre os níveis de serviço dos centros de manutenção combinados dois a dois. Somente será computada a diferença entre maior nível de serviço subtraído do menor nível de serviço. Pois, caso contrário, quando for subtraído o menor nível de serviço do maior nível de serviço, esta subtração seria negativa e o modelo atribuiria o valor zero para esta diferença, pois as variáveis ˜:bj’j e b j j’ são não negativas. Exemplificando: Considerando-se dois centros de manutenção com níveis de serviços distintos: s1 = 0,70 (70%) e s2 = 0,50 (50%). Neste caso, as equações (3.12) e (3.13) contabilizariam respectivamente as diferenças da seguinte forma: b12= 0,20 e•0,70 – 0,50 e b21 = 0 e•0,50 – 0,70. Sendo assim, a equação (3.3) atribuiria o seguinte valor para o índice de desbalanceamento: b = 0,20 + 0 = 0,20. Ou seja, calcularia o índice de desbalanceamento ( b = 0,20) desta distribuição de sobressalentes. Pesquisa Naval Nº 16, Outubro de 2003 319 i) Variáveis Não Negativas: As quantidades de sobressalentes são não negativas, conforme mostra o conjunto de equações (3.14) abaixo: (3.14) x j ≥ 0 ; y jt ≥ 0 ; w jt ≥ 0 z jt ≥ 0 ; b ≥ 0 ; f s j jt e ≥ 0 ; z ≥ 0 s j ' ≥ 0 ; b jj ' e b jj ' ≥ 0 Para t =1,2,3..T e j = 1, 2,3...J . Convém observar que na realidade na realidade as variáveis que tem como unidade de medida quantidades de sobressalentes são inteiras e não negativas. Todavia, esta condição foi simplificada neste modelo. Com o intuito de possibilitar a coerência dos dados obtidos e proporcionar o entendimento da otimização de cada função objetivo do modelo proposto, foram desenvolvidos outros dois modelos em programação linear que otimizam isoladamente cada função objetivo do modelo proposto: o “Modelo de Programação Linear para Minimizar Custos de Sobressalentes” e o “Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes”.Neste sentido, definiu-se que os parâmetros, as variáveis e as restrições descritas são aplicáveis aos três modelos apresentados, ou seja, apenas as funções objetivo são diferentes. 4 Aplicação do Modelo O modelo proposto foi aplicado, utilizando dados reais referentes ao sistema de gerenciamento de sobressalentes de reposição da IBM-Brasil, que possui um sistema com múltiplos escalões para atender às demandas de sobressalentes de reposição de informática para as suas filiais (Curitiba ,São Paulo, Rio de Janeiro, Porto Alegre, Recife, Salvador, Brasília, Fortaleza, Vitória, Belém e Manaus). Resumidamente, o fluxo de sobressalentes acontece da seguinte forma: as filiais informam semanalmente as necessidades de sobressalentes, estipulando as demandas diárias de acordo com o planejamento de atendimentos a clientes e históricos de fornecimento existentes. Recebendo os pedidos, o Depósito Central, com base nos estoques existentes e no planejamento de fornecimento de sobressalentes dos fabricantes (nacionais e internacionais) e dos fornecedores de reparo, providencia o transporte dos sobressalentes. Durante a visita técnica no cliente, os técnicos definem se as peças são recuperáveis ou não. Nas filiais as peças recuperáveis ou não, são reunidas e enviadas ao Depósito Central, que realiza uma triagem e providencia a destruição ou a recuperação das peças junto aos fornecedores de reparo. Após a recuperação, os sobressalentes recuperados retornam para a cadeia de distribuição. n:Nesse contexto, as filiais objetivam otimizar o atendimento ao cliente, buscando minimizar os atrasos de fornecimento e reduzindo o desbalanceamento dos seus níveis de serviço, enquanto que o Depósito Central está preocupado com a minimização dos custos de transporte e manutenção dos estoques. 320 Pesquisa Naval Nº 16, Outubro de 2003 Conforme ilustrado na Figura 4.1, a área tracejada delimita a aplicação do modelo proposto. Os fluxos eventuais entre as filiais não serão considerados. Foram escolhidas três filiais (Porto Alegre, Rio de Janeiro e Recife) com distâncias variadas em relação ao Depósito Central localizado em Hortolândia-SP e um sobressalente (placamãe para computador Pentium III) para aplicação do modelo proposto. FIG 4.1: Estrutura da Cadeia de Suprimentos de Sobressalentes IBM 4.1 Parâmetros do Problema São os seguintes os parâmetros da aplicação: i. Planejamento de Fornecimento ao Depósito (Número de placas-mãe): Período Quantidade 1 K1=65 2 K2=0 3 K3=0 Pesquisa Naval Nº 16, Outubro de 2003 321 ii. Demanda de Sobressalentes nas Filiais ( Número de placas-mãe): Período Filial POA 1 D11= 10 2 D12= 0 3 D13= 3 D Filial RIO D21= 9 D22=0 D23= 12 D Filial REC D31= 15 D32= 10 D33= 0 D iii.Custos de Manutenção do Estoque ( Reais/período ): Depósito Filial POA Filial RIO HD= 0,73 HC1= 1,05 HC2= 1,58 Neste cálculo foram considerados o custo do capital investido, seguros, impostos e os custos de armazenagem. iv.Custos de Transporte do Depósito para as Filiais ( Reais/placa-mãe ): Transporte Filial POA Filial RIO Normal CN1= 5,58 CN 2= 4,09 Emergência CE 1= 52,50 CE 2= 31,40 Os custos de transporte foram calculados considerando os custos médios unitários em cada modalidade de transporte para as filiais (normal e de emergência). O tempo para o transporte normal é de um dia e na modalidade emergencial o sobressalente chega no mesmo dia, sendo definido contratualmente que a empresa contratada para o transporte deve levar uma hora e meia para pegar o primeiro vôo, mais o tempo da viagem de avião, mais uma hora para entregar os sobressalentes no local de destino, ou seja, totalizando duas horas e trinta minutos mais o tempo de viagem aérea para a entrega no local de destino na modalidade de emergência. v. Estoques Iniciais Existentes (Número de placas-mãe) : Depósito X0=3 Filial POA W10= 3 Filial RIO W20= 9 vi. Expedições Iniciais para as Filiais (Número de placas-mãe) : Filial POA Filial RIO Filial RE Y10= 0 Y20= 0 Y30= 10 322 Pesquisa Naval Nº 16, Outubro de 2003 vii. Restrições Capacidade de Transporte de Sobressalentes do Depósito para as Filiais: Não podem ser transportados mais do que 20 placas-mãe na modalidade de emergência ( ejt d•20, para j = 1,2 e 3 e t = 1,2,3,4 e 5). 4.2 Resultados Obtidos A Tabela 4.1 mostra os principais resultados obtidos pelo modelo na aplicação: TAB 4.1: Resultados Obtidos MIN CUSTOS F1 ( a + b) 211,32 ATRASOS (a) 211 NS POA 0,09 NS RIO 0,23 PLDN 22,16 22 0,78 0,86 MIN ( a + b) 22 22 0,80 0,80 MODELO Onde PLDN refere-se ao Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes (proposto), MIN CUSTOS refere-se ao Modelo de Programação Linear para Minimizar Custos e MIN (a + b) refere-se ao Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes. Sendo que os dois modelos em Programação Linear foram desenvolvidos para aprimorar a análise de resultados do modelo proposto, utilizando-se isoladamente as funções objetivo do modelo proposto e as mesmas restrições da seção 3.4. 5. Análise de Resultados O custo calculado pelo Modelo de Programação Linear para Minimizar Custos de Sobressalentes apresentou a solução com o menor custo (c = 198,56), mas não otimizou os atrasos da distribuição (a = 211). Os valores encontrados para os atrasos foram iguais para o Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes e para o Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes (a = 22). Todavia, observou-se que o custo encontrado pelo Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes (c = 1.210,92) foi menor do que o valor encontrado pelo Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes (c = 1.957,85). Ou seja, o Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes apresentou uma solução otimizada para o atraso (a = 22), mas não otimizou os custos envolvidos na distribuição (c = 1.957,85), enquanto que o Modelo de Programação Linear em Dois Níveis para Pesquisa Naval Nº 16, Outubro de 2003 323 Otimização de Estoques de Sobressalentes apresentou o menor atraso (a = 22) e otimizou também os custos (c = 1.210,92), apresentando distribuição de sobressalentes com índice de desbalanceamento (b = 0,16) maior do que o Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes (b = 0) e menor do que o Modelo de Programação Linear para Minimizar Custos (b = 0,32) . Quanto aos níveis de serviço, o Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes apresentou uma solução com níveis de serviço iguais ( s1 = s2 = s3 = 0, 80 ), optando por simplesmente proporcionar o mesmo nível de serviço as filiais, todavia, não otimizou o custo. Enquanto que o Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes apresentou uma solução com níveis de serviço iguais para as Filiais de Porto Alegre e Recife ( s1 = s3 = 0,78 ) e optou por aumentar o nível de serviço da Filial do Rio de Janeiro (s2 = 0,86), tendo em vista a minimização dos custos. Sendo assim, verificou-se nesta aplicação que o Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes otimizou o atraso e o balanceamento dos níveis de serviço das filiais e otimiza os custos de transporte e de manutenção de estoques, ou seja, foi evidenciada a minimização dos atrasos e do desbalanceamento da função objetivo do primeiro nível F1 e a otimização dos custos da função objetivo do segundo nível F2. Observando que os resultados apresentados pelo Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes (O Modelo Proposto) apresenta desempenho eficaz na solução do problema e que os resultados apresentados são coerentes com a contextualização do problema. 6. Conclusões Neste trabalho demonstrou-se que a Programação Linear em Dois Níveis é uma ferramenta poderosa na otimização de estoques de sobressalentes em cadeias com múltiplos níveis. Conforme verificado nos resultados apresentados na aplicação do modelo proposto conclui-se que a Programação Linear em Dois Níveis é uma ferramenta aplicável com sucesso ao gerenciamento de estoques, evidenciando um desempenho eficaz na solução do problema apresentado Na aplicação verificou-se que o Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes otimizou os atrasos e o balanceamento dos níveis de serviço dos centros de manutenção obtendo o menor atraso possível e um índice de desbalanceamento baixo, por outro lado, otimizou também os custos de transporte e de manutenção de estoques. Ou seja, os resultados apresentados pelo modelo proposto evidenciam um desempenho eficaz na solução do problema apresentado. Sendo assim, a proposta deste trabalho de desenvolver um modelo para otimizar os estoques de sobressalentes utilizando a Programação Linear em Dois Níveis 324 Pesquisa Naval Nº 16, Outubro de 2003 foi atingida com sucesso, possibilitando a consideração da participação dos níveis de tomada de decisão inseridos em uma estrutura hierárquica, contribuindo com o aprimoramento das soluções referentes ao problema do gerenciamento de estoques. Uma outra colaboração expressiva do trabalho foi o desenvolvimento de um modelo que permita uma nova abordagem para o cálculo do nível de serviço, pois na implementação do modelo proposto não foi necessário utilizar métodos tradicionais, tais como determinação prévia de um nível mínimo de serviço ou aplicação de multas contratuais por atrasos. Bibliografia Ballou, R. H., Business Logistics-Importance and Some Research Oportunites, Revista Gestão e Produção - G&P, v.4, n.2,p.117-129, ago.1997. Bialas, W. F. E Karwan, M. H.. Two-Level Linear Programming. Management Science, vol.30, n.8, 1984. Bowersox, D. J. E Closs, D. J.. Logística Empresarial: o Processo de Integração da Cadeia de Suprimento, Editora Atlas, 2001. Campêlo, Manuel Bezerra Neto, Programação Linear em Dois Níveis: Uma Abordagem Teórica e Computacional, Tese de Doutorado – COPPE- Universidade Federal do Rio de Janeiro,1999. Huiskonen, Janne, Maintenance Spare Parts Logistcs: Special Characteristics and Strategic Choices, International Journal of Production Economics, 2001. Kennedy, J.Wayne Patterson, Lawrence D. Fredendall, An Overview of Recent Literature on Spare Parts Inventories, International Journal of Production Economics, 2001. Neves, Júlio César S.. Modelo de Programação Linear Binível para Alocação Dinâmica de Veículos. Tese de Doutorado, Universidade Federal do Rio de Janeiro, 2002. Novaes, A. Galvão. Logística e Gerenciamento da Cadeia de Distribuição. Editora Campos, 2001. Sherbrooke, Craig C.. Optimal Inventory Modeling of Systems: Multi-Echelon Techniques. John wiley&Sons,1992. Pesquisa Naval Nº 16, Outubro de 2003 325 PUBLICAÇÃO DE TRABALHOS A “Revista Pesquisa Naval”, Suplemento Especial da Revista Marítima Brasileira, é editorada pela Divisão de Ciência e Tecnologia do Estado-Maior da Armada, e tem como propósitos divulgar resultados científicos e tecnológicos de interesse da Marinha do Brasil e servir de veículo para intercâmbio com instituições que desenvolvem pesquisas de interesse naval. Possui tiragem anual e publica, neste ano, sua 16a edição. É distribuída para Bibliotecas, Universidades, pesquisadores e órgãos com interesse nos assuntos de natureza científica. A “Revista Pesquisa Naval” possui reconhecimento internacional, constituindo veículo indexado de C&T. REQUISITOS 1Qualquer pessoa, pertencente ou não à Marinha do Brasil, poderá submeter trabalhos para publicação. 2Não há limite para o número de artigos por autor. 3Os trabalhos deverão ser de interesse científico, não podendo já ter sido publicados em quaisquer revistas ou periódicos (exceção feita a anais de Congressos). Os artigos deverão ser endereçados à Coordenação da “Revista Pesquisa Naval” até 30 de junho de cada ano, acompanhados de carta declarando não terem sido publicados em nenhuma revista ou periódico, autorizando sua veiculação no Suplemento, e fornecendo endereço para correspondência. 4Os trabalhos enviados serão apreciados, sendo rejeitados aqueles que, de acordo com o julgamento da Coordenação da Revista, e após apreciação por especialistas da comunidade científica, não possuírem interesse científico e não obedecerem aos padrões de apresentação especificados adiante. Se a discrepância for pequena, e houver tempo hábil, poderá ser solicitado ao autor que efetue modificações. 5No caso de haver maior número de trabalhos que um único exemplar do Suplemento possa comportar, os artigos aceitos serão distribuídos por diversos números. 6Os trabalhos, mesmo se rejeitados, não serão devolvidos, exceto para satisfazer a demanda de alterações, se este for o caso. 7Os trabalhos, mesmo publicados, não serão remunerados. 8A apresentação dos originais deverá obedecer às seguintes regras: a) O trabalho deverá ser enviado através de texto escrito, e em arquivo gravado em meio magnético, podendo ser utilizado o meio eletrônico; deverá ser digitado em PageMaker 7.0 ou Word 97, em espaço simples, e apresentado em 02 (duas) vias, em folhas tamanho A4, em um só lado, e uma mancha de 18cmX12 cm. Configuração da página: marg. sup. 6,3 cm, marg. inf. 5,5 cm, marg. esq. e dir. 4,5 cm, cabeçalho 4,6 cm e rodapé 1,25, tamanho de fonte 10, formato Times New Roman, inclusive para quadros, fotografias, etc, inclusos no texto; 326 Pesquisa Naval Nº 16, Outubro de 2003 b) Os originais não deverão exceder 12 páginas A4, incluindo anexos; c) O nome do autor deverá vir seguido do título profissional e do nome da instituição onde exerce atividade científica; d) Figuras e gráficos deverão ser encaminhados em disquete à parte, em software gráfico, com indicação de localização no texto e respectivas legendas; e) Os trabalhos deverão conter as Seguintes seções: (1) Resumo (Português) e “Abstract” (Inglês) com no máximo 150 palavras cada; (2) Introdução; (3) Metodologia; (4) Resultados; (5) Discussão; (6) Conclusões e (7) Referências Bibliográficas. Permite-se a omissão da Seção (3) e a fusão das Seções (4) e (5), quando a natureza do trabalho assim o recomendar; e f) Para aspectos gerais de apresentação, referências bibliográficas, notas e demais detalhes, seguir as Normas da ABNT sobre Documentação; especificamente as Normas NB-62, NB-66 e NB-88. 9 - Para encaminhamento dos trabalhos e quaisquer informações adicionais, contatar a Coordenação da “Revista Pesquisa Naval” no seguinte endereço: Coordenação da “Revista Pesquisa Naval” Divisão de Ciência e Tecnologia Subchefia de Logistica e Mobilização Estado-Maior da Armada Esplanada dos Ministerios, Bloco N, Plano Piloto CEP: 70055-900 - Brasília, DF – Brasil Tel: (61) 429-1086 Fax: (61) 429-1121 e-mail: [email protected] ou [email protected] ESTADO-MAIOR DA ARMADA Departamento Industrial Gráfico Base de Hidrografia da Marinha em Niterói Rua Barão de Jaceguay, s/nº – 24.048-900 Niterói – RJ – Brasil – 2003 SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA Nº 16 OUT 2003 PESQUISA NAVAL