ESTADO-MAIOR DA ARMADA ISSN 1414-8595 REVISTA PESQUISA NAVAL PATROCÍNIO ESTADO-MAIOR DA ARMADA (EMA) EDITOR-CHEFE Alte Esq JULIO SABOYA DE ARAUJO JORGE Chefe do Estado-Maior da Armada EDITORES ADJUNTOS C Alte (EN) EDUARDO MACULAN VICENTINI Instituto de Pesquisas da Marinha – IPqM C Alte (EN) CARLOS PASSOS BEZERRIL Centro Tecnológico da Marinha em São Paulo – CTMSP C Alte BERNARDO JOSÉ PIERANTONI GAMBÔA Centro de Análises de Sistemas Navais – CASNAV C Alte SERGIO ROBERTO FERNANDES DOS SANTOS Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM C Alte MARCOS JOSÉ DE CARVALHO FERREIRA Subchefe de Logística e Mobilização do EMA COMITÊ EDITORIAL Alexandre David Caldeira, DSc – CTA/IEAv Edmo José Dias Campos – USP Karl Heinz Kienitz, DSc – ITA Leonam dos Santos Guimarães, PhD - ELETRONUCLEAR Luiz Flávio Autran Monteiro Gomes, PhD – UFF/IBMEC Maria Augusta Soares Machado, DSc – IBMEC Rajendra Saxena – IPEN Reinaldo Castro Souza – PUC –Rio COORDENAÇÃO CMG LUIZ FERNANDO PEREIRA DA CRUZ CF (EN) NELSON LUIZ DE PAULA MENEZES MONNERAT CF JOSÉ FERNANDO DE NEGRI SO AD-PD MARIA ISABEL ARAUJO SILVA DOS SANTOS 1º SG-ES HILÁRIO JOSÉ BISPO DA GRAÇA Divisão de Ciência e Tecnologia do EMA EDIÇÃO Estado-Maior da Armada (EMA) CAPA Selo comemorativo do bicentenário de nascimento do Almirante Tamandaré. 4º Ano Polar Internacional (API) – Homenagem aos 25 anos do Programa Antártico Brasileiro (PROANTAR), criado em 1982, com o objetivo de promover a realização de pesquisas científicas e tecnológicas na Antártica. Revista Pesquisa Naval Brasília A Revista Pesquisa Naval se destina a divulgar os resultados científicos e tecnológicos obtidos sob a égide da Marinha do Brasil, bem como servir de veículo para intercâmbio com instituições de pesquisa. Os artigos aqui publicados não refletem a posição ou a doutrina da Marinha e são de responsabilidade de seus autores. Revista Pesquisa Naval / Serviço de Documentação da Marinha v. 1, n. 1, 1988 – Rio de Janeiro – RJ – Brasil – Marinha do Brasil Anual Título Abreviado: Pesq. Nav. ISSN 1414-8595 1. Marinha – Periódico – Pesquisa Científica. Serviço de Documentação da Marinha CDU 001.891.623/.9 CDD 623.807.2 Revista Pesquisa Naval SUMÁRIO Apresentação Almirante-de-Esquadra JULIO SABOYA DE ARAUJO JORGE Chefe do Estado-Maior da Armada ................................................................................................................................................... 7 SISTEMAS DE ARMAS E MUNIÇÕES Projeto e simulação de controladores de posição para um motor elétrico suportado por mancais magnéticos Primeiro-Tenente(QC-FN) Aderlan Ricardo Lima Rodrigues, José Andrés Santisteban ............................................................ 9 Análise da variação da tensão gerada e do estado de magnetização em um gerador com ímãs permanentes André Camargo Mathiazi, Ivan Eduardo Chabu ........................................................................................................................... 16 O desenvolvimento na área inercial – um projeto conjunto da Marinha, Exército e Aeronáutica Capitão-de-Fragata (EN) Nelson Luiz de Paula Menezes Monnerat, Nelson F. F. Ebecken .................................................... 23 Atuadores magnéticos na redução da vibração para um Rotor de Jeffcot/Laval durante a passagem pela velocidade crítica Capitão-Tenente (EN) Paulo Henrique da Rocha, Michael Cláudio Porsch, Roberto Moura Sales ......................................... 28 AMBIENTE OPERACIONAL Análise de métodos para a classificação de sinais acústicos submarinos utilizando tons característicos Cleide Vital da Silva Rodrigues, William Soares Filho .................................................................................................................... 36 Possibilidade de catástrofe no arquipélago de São Pedro e São Paulo e suas implicações sobre a soberania do mar brasileiro Capitão-de-Corveta (T) David Canabarro Savi, Susanna Eleonora Sichel ................................................................................... 43 Sistema de Inferência Neuro-Fuzzy Hierárquico: uma solução para a compressão de dados batimétricos Capitão-de-Corveta Frederico C. Muthz M. Barros ........................................................................................................................ 50 Análise da velocidade e atenuação do som no fundo marinho e sua contribuição para a previsão do alcance Sonar Capitão-de-Corveta Helber Carvalho Macedo, Alberto Garcia de Figueiredo Jr., João Carlos Machado ............................... 64 Caixa atenuadora de campos eletromagnéticos para avaliação de sensores magnetométricos Hercules de Souza ............................................................................................................................................................................... 72 PROCESSOS DECISÓRIOS Ferramenta de simulação de Monte Carlo para solução de problemas de logística José Corrêa Paes Filho, Ronaldo Cesar E. dos Santos ................................................................................................................... 78 A onda de projeto por meio da análise estatística de extremos a partir de dados medidos por satélite Flávio Costa Piccinini .......................................................................................................................................................................... 84 Sistema de apoio a decisão com informações georreferenciadas: uma aplicação em software livre Marcelo Felipe Moreira Persegona, Suboficial (AD-PD) Maria Isabel Araújo Silva dos Santos, Isabel Teresa Gama Alves ................................................................................................................................................................... 91 O uso da simulação na avaliação operacional da defesa antiaérea de um navio de guerra Mauricio José Machado Guedes ........................................................................................................................................................ 96 Um sistema de inferência nebuloso para apoio a tomada de decisão do analista de crédito de empresas de crédito pessoal Paulo Soares Barreto Filho, Maria Augusta Soares Machado ...................................................................................................... 103 Gerenciamento da mudança organizacional Capitão-de-Fragata (T) Sérgio Luís Dutra de Lamare, Maria Lucia Novaes Simões .................................................................110 SENSORES E GUERRA ELETRÔNICA Estratégias de detecção multiusuário para minimizar a interferência em sistemas de comunicação sem fio DS-CDMA Deolinda Fontes Cardoso, Tiago Travassos Vieira Vinhoza ....................................................................................................... 117 Morfologia matemática como ferramenta de análise de imagens infravermelhas Sergio Rodrigues Neves ....................................................................................................................................................................123 MATERIAIS ESPECIAIS Efeito da concentração de Co e Ti nas propriedades absorvedoras de microondas de compósitos de M-hexaferritas de bário com policloropreno Magali Silveira Pinho, Roberto da Costa Lima, Bluma Guenther Soares, Regina Celi Reis Nunes ........................................ 133 Efeito da temperatura na obtenção de Zn-hexaferritas de bário do tipo Y Roberto da Costa Lima, Magali Silveira Pinho, Tsuneharu Ogasawara ......................................................................................137 Avaliação da atividade antiincrustante de glicerofosfolipídios isolados de organismos marinhos da região de Arraial do Cabo – RJ Capitão-Tenente (EN) William Romão Batista, Maria Helena Campos Baeta Neves, André Luiz Mazzei Albert, Rosangela Sabbatini Cerqueira Lopes, Jarí Nóbrega Cardoso, Cláudio Cerqueira Lopes ......... 140 ENERGIA Utilização de um modelo homogêneo para estudo de escoamento bifásico em núcleos de reatores nucleares PWRs Francisco A. Braz Filho, Alexandre D. Caldeira, Eduardo M. Borges ........................................................................................ 147 TECNOLOGIA DA INFORMAÇÃO Identificação, desenvolvimento e manutenção do conhecimento num órgão da administração direta federal: estudo de caso em uma Organização da Marinha do Brasil Carlos Miguel Cordeiro dos Santos, Denise Mesquita de Barros, Renato Porthun, Victor Ramos Caruso ......................... 157 Critérios para seleção e coleta de informações comparativas em um órgão da administração direta federal: estudo de caso em uma Organização da Marinha do Brasil Denise Mesquita de Barros, Renato Porthun, Victor Ramos Caruso, Carlos Miguel Cordeiro dos Santos ..........................163 Redes neurais recorrentes aplicadas na detecção multiusuário em sistemas de comunicação sem fio DS-CDMA Deolinda Fontes Cardoso, Tiago Travassos Vieira Vinhoza ....................................................................................................... 170 Gerenciamento pró-ativo distribuído com garantias fim-a-fim de QoS e tolerância a falhas em serviços multimídia Capitão-de-Corveta (EN) Marcio Elkind, Jorge Lopes de Souza Leão ..................................................................................... 178 CONTRIBUIÇÕES ESPECIAIS A análise de registros de maré extremamente longos Alberto dos Santos Franco, Björn Kjerfve, Claudio Freitas Neves ............................................................................................. 187 Ciência, tecnologia e inovação para a defesa nacional – revisão de alguns conceitos Capitão-de-Mar-e-Guerra Arthur Lobo da Costa RUIZ ..............................................................................................................197 A Antártica e o Brasil Contra-Almirante José Eduardo Borges de Souza ...................................................................................................................... 204 Normas para publicação na Revista Pesquisa Naval ...............................................................................................................................214 Apresentação REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 7 7 Centro de Análises de Sistemas Navais Sistema simulador de guerra naval - SSGN O SSGN foi desenvolvido para apoiar a condução e a avaliação de Jogos de Guerra, sendo capaz de simular os diferentes tipos de ações de guerra naval envolvendo Forças Navais e Aeronavais. Empregando uma interface essencialmente gráfica, o SSGN retrata eficazmente diversos aspectos do cenário tático real, a capacidade logística empregada, os resultados dos engajamentos entre unidades, detecção dos meios, informações geográficas e condições climáticas. Esta funcionalidade permite aos jogadores coletar rapidamente um grande número de informações para apoio à decisão, possibilitando o aprimoramento profissional dos partícipes. O sistema está estruturado para cumprir as diversas fases de um jogo de guerra, ou seja, preparação, execução e análise. Sua arquitetura contempla subsistemas que atenderão a essas fases, o que confere ao sistema larga flexibilidade, na medida que possibilita uma configuração customizada para necessidades específicas do usuário, sem prejuízo do efetivo controle do jogo. Tal estrutura também apresenta a vantagem de possibilitar a evolução escalonada de funcionalidades, reduzindo consideravelmente os custos de atualização e manutenção. Em todos os subsistemas, a interface com o usuário é amigável, com procedimentos em janelas, menus, ícones etc, de forma bastante intuitiva para o usuário. Centro de Análises de Sistemas Navais Praça Barão de Ladário S/N - Ilha das Cobras, AMRJ Edifício 8, 3o andar, Centro, Rio de Janeiro, RJ - Brasil - CEP: 20091-000 Tel.: (021)2178-6369 Fax: (021)2178-6332 e-mail:[email protected] internet: www.casnav.mar.mil.br 8 SISTEMAS DE ARMAS E MUNIÇÕES Projeto e simulação de controladores de posição para um motor elétrico suportado por mancais magnéticos Primeiro-Tenente (QC-FN) Aderlan Ricardo Lima Rodrigues Batalhão de Comando e Controle – BtlCmdoCt Engenheiro-Eletricista – Mestrando em Engenharia Mecânica – Universidade Federal Fluminense E-mail: [email protected] José Andrés Santisteban Universidade Federal Fluminense – Departamento de Engenharia Elétrica. Programa de Pós-graduação em Engenharia Mecânica E-mail: [email protected] Resumo O desenvolvimento de pesquisas abordando o tema Mancais Magnéticos pode ser constatado em diversos lugares do mundo. Uma das principais vantagens destes dispositivos é a sua capacidade de reduzir drasticamente as perdas por atrito ao utilizar o princípio de levitação magnética. Entre outras aplicações, estes podem ser encontrados em máquinas rotativas nas industrias médicas, alimentícias e militares. Ao serem utilizados eletroímãs, torna-se necessário o projeto de controladores que visem manter a parte móvel ou rotor, numa posição de equilíbrio sem contato com o estator. Neste trabalho serão apresentados alguns resultados de simulação de controladores de posição nas estruturas do tipo descentralizada e centralizada, projetados a partir da modelagem de um protótipo experimental que consiste de um motor de indução, disposto na posição horizontal, suportado totalmente por mancais magnéticos ativos. Palavras-chave Mancais eletromagnéticos. Controladores. Levitação magnética. Displacement controllers for an electric motor that uses magnetic bearings – designs and simulation Abstract Magnetic Bearings research can be found in several places around the world. The use of magnetic levitation principles explains the strong reduction of friction losses in high speeds, one of the main advantages of these devices. Among other applications, in rotating machines, these can be found in the medical, food and military industries. When electromagnets are used, active magnetic bearing, it is necessary the design of appropriated controllers that allow the rotor to stay in an equilibrium position without contact with the stator. In this work some simulation results of position controllers will be shown. Two kinds of control strategies are tested: decentralized and centralized. These were designed based on the modeling of an experimental prototype which consists on an induction motor, operating in the horizontal position, totally supported for active magnetic bearings. Keywords Electromagnetic bearings. Controllers. Magnetic levitation REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15 INTRODUÇÃO O desenvolvimento de meios eficientes de sustentação de rotores tem sido uma preocupação sempre presente desde a Revolução Industrial. Os dispositivos normalmente empregados para este fim são os mancais de rolamento e os mancais hidrodinâmicos, tendo como característica comum a grande quantidade de energia dissipada devido a diferentes formas de atritos existentes. Com a evolução nesta área de pesquisa, houve o desenvolvimento dos chamados mancais magnéticos, que tendem a substituir, com vantagens, os atuais mancais em algumas áreas de aplicação específicas. Estes dispositivos, através de forças magnéticas, são capazes de manter o eixo de uma máquina levitando, ou seja, completamente livre de qualquer contato mecânico com componentes estáticos, reduzindo drasticamente as excessivas perdas causadas pela ação do atrito. Quando comparados a outras modalidades de sustentação, os mancais magnéticos apresentam vantagens em vários aspectos, tais como: a obtenção de altas velocidades de rotação, a ausência de lubrificação permanente, autobalanceamento, controle de vibração, alta confiabilidade e manutenção reduzida. Por estas razões, estes se mostram particularmente promissores em diversos segmentos industriais, tais como Indústrias Alimentícias, Médicas e Militares. METODOLOGIA Descrição do protótipo Para facilitar a aplicação prática em escala comercial e a transferência de tecnologia para a indústria nacional, foi utilizado um motor assíncrono nacional para servir como instrumento de referência. Durante o desenvolvimento do projeto, foram mantidas as características elétricas e magnéticas do motor, mantendo-o simples e robusto, fazendo com que 9 PRIMEIRO-TENENTE(QC-FN) ADERLAN RICARDO LIMA RODRIGUES, JOSÉ ANDRÉS SANTISTEBAN, D.SC. todos os componentes utilizados sejam encontrados no mercado brasileiro para aquisição. Assim, em cada lado do rotor do motor elétrico, foi previsto um mancal axial e um mancal radial, os quais, apesar de fisicamente integrados em um mesmo rotor, possuem funcionamento independente (Figura 1). Como medida de segurança, foram usados mancais de rolamento. Esses mancais são necessários para evitar o contato direto do eixo com os componentes estáticos do motor e dos mancais magnéticos quando se desliga o sistema de sustentação ou quando há perdas ou falhas do controle sobre os mancais (SANTISTEBAN et al, 2004). Princípio de funcionamento Os estatores dos mancais radiais possuem oito bobinas (quatro pares) uniformemente distribuídas de forma circular em torno do eixo do motor. Cada par de bobinas, conectado em série, forma um par norte-sul de pólos magnéticos, conforme representado na Figura 3. Os pólos projetam o fluxo magnético no sentido radial, alinhado com os quadrantes vertical e horizontal do referido eixo, e os estatores dos mancais axiais projetam o fluxo magnético no sentido axial do rotor do motor. Estes são basicamente compostos cada um por uma única bobina perpendicular ao eixo. Para cada rotor do mancal existem dois pares de sensores de indução dispostos radialmente que ocupam os quadrantes horizontal e vertical, onde são capazes de captar pequenas variações no posicionamento radial do rotor e retornar ao controlador uma tensão proporcional a esses deslocamentos. Estes sensores podem ser substituídos por observadores de estados, VELANDIA (2005), proporcionando uma economia final no projeto do controlador. Em função deste sinal de entrada, o controlador enviará sinais às fontes de corrente, as quais alimentarão as bobinas com a corrente elétrica necessária para fazer com que o rotor retorne à posição de equilíbrio. Modelagem do sistema A modelagem proposta do eixo do motor foi efetuada de acordo com SCHWEITZER et al 1994, onde o comportamento dinâmico do sistema é descrito na Figura 4. 10 FIGURA 1 Componentes do rotor completo. (a) (b) FIGURA 2 a) Acessórios do Motor; b) Protótipo Construído montado em Bancada. FIGURA 3 Representação das linhas de Fluxo Magnético dos mancais magnéticos radiais. (1) FIGURA 4 Sistema de Coordenadas. Onde ZB e fB representam os vetores de coordenadas e forças radiais atinentes a cada extremidade. Neste trabalho não serão contemplados os mancais magnéticos axiais, os quais podem ser modelados como sistemas simples do tipo duplo integrador, desacoplados dos eixos radiais aqui estudados (SANTISTEBAN e MENDES 2000; SANTISTEBAN, MENDES e SACRAMENTO REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15 SISTEMAS DE ARMAS E MUNIÇÕES 2003). Na equação (1) observam-se as matrizes MB e GB, que são obtidas da modelagem mecânica do eixo e assumem os seguintes valores: T M B = TB MTB (2) T (3) GB = TB GTB ém 0 ê0 I y M =ê ê0 0 ê ë0 0 0 0 m 0 0ù é0 0 ú ê0 0 0ú G=ê ê0 0 0ú ê ú ë0 - 1 Ix û 0 0ù 0 1ú úI Z W 0 0ú ú 0 0û æ(ibias + ictrlx ) 2 (ibias - icrtlx ) 2 ö f x = f 4 - f 3 = k ×ç ç (h - x) 2 - (h + x) 2 ÷ ÷ e 0 0 è ø éxa ù éf ax ù éb - a 0 0 ù êf ú êx ú ê- 1 1 0 0 ú 1 ê ê b ú f B = ê bx ú Z = ú B TB = êf ay ú êya ú b - a ê 0 0 b - aú ê ú ê ú ê ú êf by û ú ë ëyb û ë0 0 - 1 1 û De acordo com VELANDIA et al (2005), a equação (1) pode ser reescrita da seguinte forma: '' B -1 B B -1 B Z = M f - M GB Z ' B (4) para simplificação adotaremos a seguinte simbologia: (5) M B- 1 = M Bi e MG = M B- 1GB . Assim, temos a seguinte matriz: M BI é(ma 2 + I y ) ê ê mI y ê(mab + I y ) ê = ê mI y ê 0 ê ê ê 0 ê ë (mab + I y ) mI y (mb 2 + I y ) mI y 0 0 0 0 (ma 2 + I x ) mI x (mab + I x ) mI x ù ú ú ú 0 ú ú (mab + I x ) ú ú mI x ú (mb 2 + I x ) ú ú mI x û 0 A Figura 5 representa o diagrama de blocos do sistema, constituído por quatro entradas e quatro saídas. As quatro forças geradas para a sustentação do mancal magnético possuem características não lineares. Desta forma, torna-se necessário a linearização destas forças no ponto de operação desejado, para que se torne possível o projeto de controladores lineares. Assim, temos: æ(i peso + ibias + ictrly ) 2 (ibias - icrtly ) 2 f y = f1 - f 2 = k ×ç ç (h0 - y ) 2 (h0 + y ) 2 è ö ÷ ÷ ø O valor de h0 nas expressões acima corresponde ao entreferro desejado na posição de equilíbrio; x e y aos deslocamentos no equilíbrio; ibias à corrente nominal de referência; icrtlx e icrtly às componentes de correntes 1 fornecidas pelos controladores; k = 4 m0 N ACos a; e ipeso é uma componente de corrente aplicado em uma das bobinas que controla o eixo vertical para compensar o peso do eixo. 2 Linearizando as expressões de fx e fy, observa-se que estas apresentam uma relação direta para os valores de corrente e deslocamentos apresentados no sistema da seguinte forma: fx(ictrlx,x) = Kix.ictrlx +Ksx.x e fy(ictrly,y) = Kiy.ictrly + Ksy.y sendo Ksx, Ksy , Kix e Kiy obtidos a partir da condição de equilíbrio. FIGURA 5 Modelo Completo através do Simulink®. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15 11 PRIMEIRO-TENENTE(QC-FN) ADERLAN RICARDO LIMA RODRIGUES, JOSÉ ANDRÉS SANTISTEBAN, D.SC. Sistema de controle Para o sistema MIMO (Multiple Input Multiple Output) proposto, é possível o desenvolvimento de métodos de controle distintos. Desta forma, para o sistema apresentado, utilizou-se o projeto de controladores PID (Proporcional Integral Derivativo) e a técnica de realimentação de estados, onde o correto dimensionamento da matriz K de realimentação torna possível o posicionamento dos pólos do sistema no Semi Plano Esquerdo de Laplace (SPE), fazendo com que o sistema passe a ter características estáveis. outras palavras, o projeto de controladores descentralizados para sistemas multi-variável, como é o caso do sistema em estudo, consiste numa técnica onde são projetados controladores correspondentes ao número de saídas, sendo necessário o correto levantamento e emprego dos parâmetros do modelo adotado. Para o sistema considerado, a equação (1) pode ser transformada em equações de estado, considerando os deslocamentos nodais transversais e rotacionais, e suas primeiras derivadas como variáveis de estado, formando então o vetor s , conforme mostrado abaixo. s’ = As+Bu y = Cs+Du (6) A entrada u é formada pelas quatro correntes de controle, ictrx e ictry , nos mancais A e B, e o vetor y de saída é formado pelos deslocamentos transversais dos nós correspondentes aos sensores de posição. Desta for ma, as matrizes A e B podem ser representadas conforme a equação (7). é . ù é [0] [I ] ùéX A ù é [0] ù (7) êX. A ú = ê ú.[u ] ú.ê ú+ ê êX ú ë[M bi .K s ] [- M bi .GB ]ûëX B û ë[M bi .K i ]û ë Bû onde: . s = [ XA, XB]; X A = Z B ; X B = Z B e [u] =[ictrxA, ictrxB, ictryA , ictryB ]. (8) RESULTADOS Sistema de controle descentralizado A técnica de controle descentralizado consiste, segundo BLEULER (1984), em subdividir o sistema MIMO, por outros subsistemas menores, que possam ser controlados localmente, reduzindo assim o esforço total a ser realizado pelo sistema de controle. Em 12 FIGURA 6 Representação de um sistema Centralizado x Descentralizado. Controlador PID Verificando-se cuidadosamente a modelagem proposta pela Figura 5, observa-se que a matriz Mbi apresenta em sua diagonal principal as funções de transferências diretas. A entrada deste sistema é a corrente e a sua saída é a posição, para as quatro direções desejadas. Para o projeto de controladores descentralizados, adotou-se a velocidade do rotor como sendo nula ou suficientemente baixa para considerar que o efeito de GB, na equação (4), tenha influência quase desprezível. Uma escolha apropriada de ibias e ipeso permite que o lugar das raízes das funções de transferência diretas sejam idênticas, permitindo o projeto de um único controlador para todas as direções consideradas. A Figura 7 representa a modelagem do sistema de controle para o grau de liberdade x e, na Figura 8, é mostrada a sua resposta ao degrau de posição, utilizando um controlador PID. O resultado apresentado pela Figura 8b consiste na resposta ao degrau de posição de valor 0,1 mm. Escala horizontal 0,1 s/div. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15 SISTEMAS DE ARMAS E MUNIÇÕES FIGURA 7 Representação do Controlador para a Direção x. Sistema de controle centralizado A técnica de controle centralizado consiste no projeto de um único bloco controlador, cujo objetivo é manter todas as saídas do sistema em uma posição de equilíbrio. Para isto, é tomada como base a equação (4) e logo transformada em uma representação de estados, como na forma da equação (6). Na seqüência, uma matriz de realimentação de estados K deverá ser encontrada de tal forma que todos os deslocamentos convirjam para o ponto de equilíbrio. (a) FIGURA 9 Representação do Controle Centralizado. (b) FIGURA 8 a) Sinal de entrada na direção x(m); e b) Resposta na direção x(m). Para o tipo de controle centralizado, a matriz K de realimentação de estados pode ser obtida através do método LQR, pelo qual se deseja minimizar a função de custo: ¥ J = ò xT Qx + u T Ru dx ( ) (9) 0 O resultado apresentado pela Figura (8b) consiste na resposta ao degrau de posição de valor 0,1 mm. Escala horizontal 0,1 s/div. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15 onde Q representa a matriz de ponderação dos estados, e R a matriz de ponderação da entrada. 13 PRIMEIRO-TENENTE(QC-FN) ADERLAN RICARDO LIMA RODRIGUES, JOSÉ ANDRÉS SANTISTEBAN, D.SC. O Sistema de controle LQR, tanto pode ser utilizado para sistemas contínuos quanto para discretos no tempo. Uma vantagem de utilização desta técnica consiste em que o sistema será sempre estável, exceto em casos muito especiais, onde os índices de minimização quadráticos de desempenho serão obtidos através da solução das equações de Riccati (10). (10) (b) Para esta situação, serão apresentados valores diferentes de K , pois as simulações serão realizadas para o protótipo operando em baixas e altas velocidades. Assim, o valor da matriz ótima encontrada para a velocidade de w = 5.600 rpm foi: FIGURA 10 a) Resposta do sistema descentralizado; e b) resposta do sistema centralizado (direção x(m)). Estas respostas apresentadas são análogas para as demais direções existentes dos mancais magnéticos. Escala horizontal 0,05 s/div. Sistema em altas velocidades (5.600 RPM) (11) e para a velocidade nula foi: (12) Respostas controle descentralizado centralizado versus (a) Sistema com velocidade nula (b) (a) 14 FIGURA 11 a) Resposta do sistema descentralizado; e b) Resposta do sistema centralizado (direção x(m)). REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15 SISTEMAS DE ARMAS E MUNIÇÕES Estas respostas apresentadas são análogas para as demais direções existentes dos mancais magnéticos. CONCLUSÕES • A modelagem mecânica do rotor do protótipo em estudo foi realizada com sucesso. Com a verificação da controlabilidade do conjunto de equações que descrevem a dinâmica do sistema, tornou-se possível o projeto de controladores de posição. REFERÊNCIAS BLEULER, Hannes, Decentralized Control of Magnetic Rotor Bearing Systems.Zurich, 93f. A dissertation for the degree fo Doctor of Technical Sciencess, submitted to the Swiss Federal Institute of Techonology, Zurich, 1984. CHAPETTA, R. A.; SANTISTEBAN, José Andrés; e NORONHA, Roberto Firmento. Mancais Eletromagnéticos – Uma metodologia de projeto. Anais do CONEM 2002. João Pessoa, PB, Brasil: Paper CPB 0890. DAVID, Domingos de Farias Brito. Levitação de rotor por mancais-motores radiais magnéticos e mancal axial supercondutor estável. Rio de Janeiro, 105f. Tese de Doutorado em Engenharia Mecânica, COPPE/Universidade Federal do Rio de Janeiro, Rio de Janeiro. 2000. OGATA, Katsuhiro., Engenharia de Controle Moderno, 4ª Ed. PrenticeHall do Brasil Ltda, Rio de Janeiro.2003, 788p. • Com uma escolha apropriada das correntes de polarização ibias e ipeso foi possível projetar um único controlador do tipo PID. SANTISTEBAN, José Andrés; MENDES, Sérgio R. Alves. Fuzzy Control of an Axial Magnetic Bearing. Proceedings of the MAGLEV‘2000. The 16 th International Conference on Magnetically Levitaded Systems and Linear Drives. Rio de Janeiro, RJ, Brasil, 2000. • Os resultados para ambos tipos de estratégias de controle, descentralizado e centralizado, mostraram-se satisfatórios. Contudo foi observado que a resposta dos controladores no modo descentralizado se mostrou mais rápida, o que pode ser explicado pelo menor número de cálculos envolvidos na implementação dos controladores descentralizados. SANTISTEBAN, José Andrés; MENDES, Sérgio R. Alves ; SACRAMENTO, Daniel S. A Fuzzy Controlled Electromagnetic Axial Bearing. Proceedings of COBEM 2003. 17th International Congress of Mechanical Engineering. São Paulo, SP, Brasil, 2003. • A divisão do sistema em subsistemas, caso descentralizado, apresenta grande vantagem aos projetistas, proporcionando maior rapidez das operações e facilidade de implementação. • Os resultados aqui mostrados servirão para comparação com outras estratégias de controle. SANTISTEBAN José Andrés; NORONHA, Roberto Firmento; DAVID, Domingos; PEDROSA, José Francisco. Dimensionamento Mecânico, Fabricação e Montagem de um Protótipo de Motor Elétrico Suportado por Mancais Magnéticos. In: III Congresso Nacional de Engenharia Mecânica. CONEM 2004, 2004, Belém, Pará. SCHWEITZER G.; BLEULER H.; TRAXLER A. Active Magnetic Bearings, v/d|f Hochschulverlag AG an der ETH Zürich, 1994. VELANDIA, Elkin Ferney Rodriguez; SANTISTEBAN José Andrés; NORONHA, Roberto Firmento; SILVA, Victor A. Paiva. Development of a Magnetically Borne Electrical Motor Prototype. Proceedings of COBEM 2005. 18th International Congress of Mechanical Engineering. Ouro Preto, Minas Gerais, Brasil, 2005. VELANDIA, Elkin Ferney Rodriguez. Observador de Estado para a Estimação de Posição em Mancais Magnéticos. Niterói, 137f. Dissertação de Mestrado em Engenharia Mecânica, Universidade Federal Fluminense, PGMEC, Niterói, 2005. AGRADECIMENTOS Ao CNPq pelo suporte financeiro a este trabalho. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15 15 ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU Análise da variação da tensão gerada e do estado de magnetização em um gerador com ímãs permanentes André Camargo Mathiazzi Engenheiro Eletricista – Centro Tecnológico da Marinha em São Paulo. E-mail: [email protected] Ivan Eduardo Chabu Professor da Escola Politécnica da Universidade São Paulo Resumo Visando analisar o comportamento de um gerador de ímãs permanentes operando sob carga variável e quantificando o correspondente estado de seus ímãs, desenvolveu-se um protótipo com desenho propício à adaptação para aerogeradores. Como o objetivo é o estudo do comportamento da magnetização dos ímãs permanentes nos vários pontos de carga, optou-se pela utilização de ímãs de ferrite, com valor médio da indução magnética remanente (Br) igual a 0,39 T, facilitando a avaliação de possível desmagnetização parcial dos ímãs instalados. É apresentada uma abordagem analítica de estudo da desmagnetização dos ímãs permanentes do gerador, bem como um levantamento experimental do mesmo. Palavras-chave Gerador elétrico, ímãs permanentes. Analysis of generated voltage variation and magnetization condition in a permanent magnetics generator Abstract Aiming to analyze the performance of a permanent magnet generator, operating under changeable charge and quantifying the corresponding condition of its magnets, we have developed a prototype adaptable to air generators. As one of the purposes of this work is to study the magnetic performance of the permanent magnets in several points of charge, we have chosen ferrite magnets with average density of permanent magnetic field (Br) of 0.39 T, which eases the rating of total or partial demagnetization of the installed magnets. An analytic approach of demagnetization of the generator’s permanent magnets is presented, as well as an experimental survey of it. Keywords Electrical generator, permanent magnet. 16 INTRODUÇÃO A utilização de geradores contendo ímãs permanentes torna-se interessante nas aplicações onde a simplicidade e robustez, tanto da máquina como dos circuitos associados, é um fator importante e determinante do baixo custo. Notadamente em pequenos aerogeradores, para uso em locais remotos e sem assistência técnica, tal configuração se mostra atrativa, bastando um agente externo para impor movimento ao sistema. Dentro desse contexto, os ímãs permanentes enquanto fontes de campo magnético do gerador são os objetos de maior cuidado e preocupação, especialmente no tocante à possibilidade de desmagnetização, que é um fator que degrada a capacidade de geração da máquina. Com as atuais tecnologias de fabricação de ímãs permanentes, obtémse compostos (terras-raras) cuja indução magnética atinge valores bem significativos, acima de 1,0 T [5] [7]. Neste trabalho, no entanto, optou-se por utilizar ímãs de ferrite, mais especificamente com estrôncio em sua formulação, com indução magnética da ordem de 0,39 T. A opção por ímãs de ferrite tem base no aspecto custo e também na disponibilidade de fornecimento, especialmente no Brasil. Embora máquinas com ímãs mais nobres tornem-se mais compactas e com maior disponibilidade de potência, o custo elevado e também as dificuldades de manuseio durante a montagem limitam seu emprego nessa aplicação. Logo, a limitação imposta pela reação de armadura na desmagnetização [3] dos ímãs é um ponto que merece atenção no projeto e utilização de máquinas com esse meio de excitação. Este aspecto deve ser levado em consideração no projeto da máquina, visando determinar o ponto de operação [4] [5] limite até onde o risco de desmagnetização irreversível dos ímãs passe a ser considerável. Neste trabalho é apresentada uma metodologia de resolução do circuito magnético com valores referidos aos ímãs REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22 SISTEMAS DE ARMAS E MUNIÇÕES permanentes, onde o efeito da reação de armadura sobre a tensão gerada é considerado, bem como o efeito desmagnetizante da mesma sobre o estado dos ímãs. OBJETIVO Estabelecer metodologia de análise e cálculo da variação de tensão gerada com a carga acoplada a partir de um protótipo de gerador constituído de ímãs permanentes, observando concomitantemente os efeitos causados sobre a magnetização dos ímãs, confrontando dados obtidos a partir do ensaio do protótipo e cálculos analíticos desenvolvidos. FIGURA 1 Ilustração do gerador desenvolvido METODOLOGIA Originalmente concebido para uso como aerogerador, com potência nominal de 400 W com rotação de 1000 RPM. A sua potência máxima é de 800 W com rotação de 1300 RPM (Figura 1). A partir da escolha das lâminas do estator interno ao rotor, disponíveis comercialmente e amplamente utilizadas em ventiladores de teto, desenvolveu-se as demais especificações deste protótipo. Possuindo estas lâminas 32 ranhuras, utilizou-se 16 bobinas (Figura1), optando-se por realizar uma ligação quadrifásica, sendo, portanto, 04 bobinas por fase com ligação em série e cada bobina constituída por 140 espiras em fio de cobre esmaltado com condutor duplo em paralelo, bitolas iguais 24AWG (2x24AWG). Existem 08 pólos constituídos por ímãs permanentes de ferrite de estrôncio, sendo cada um formado por 05 ímãs unidos entre si e com mesmo sentido de magnetização, alternando este sentido entre os pólos. Este gerador possui saída retificada (Figura 2). Dados referentes à operação em condições normais (regime): P = 400W ; ù = 1000 RPM ; V = 350 Vdc ; n° de fases – 04 ; n° de pólos – 08; FIGURA 2 Diagrama de ligações do gerador quadrifásico Considerando o diâmetro do estator interno ao rotor com o valor de 161,2 mm, a partir das lâminas mencionadas, adota-se a utilização de ímãs de ferrite de estrôncio com indução magnética remanente (Br) da ordem de 0,39T. A partir dos dados acima, admite-se como referência: Bg H” 0,25 T q H” 15000 Acond/m onde: Bg = densidade de campo magnético no entreferro (gap) q = densidade linear de corrente Dados referentes à operação em condições de pico: Calculando o conjugado a partir dos valores de referência: P = 800W ; ù = 1300 RPM ; n° de fases – 04 ; n° de pólos – 08; C = (2 π ).Bg.(D/ 2).L.i médio.Zc REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22 (1) 17 ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU onde: D = diâmetro das chapas do estator; Zc= quantidade de condutores dispostos na direção do eixo z; gerador estudado, os quais serão obtidos graficamente (Figura 5), e da curva a ser obtida entre pontos discretos de fluxo magnético (Figura 6). L = comprimento do pacote de lâminas do estator; imédio = corrente média de um semi-ciclo Apresentando em função da densidade de corrente linear (q) , obtém-se: P = C.ù =, onde: (2) Ù = velocidade angular (RPM); n = rotação (Hz). Então, definindo o valor do produto D2.L a partir dos dados admitidos, tem-se: P = (4. 2 . B g .q ).D2 L.n = C 0 . D2 L.n FIGURA 3 Vista explodida e em corte longitudinal do gerador (3) Então: C0=4. 2 .0,25.15000 = 21213 ùs Portanto: P = C 0 .D2 L.n Þ D2 .L = P C 0 . ωs Admitindo o pico de carga adotada, tem-se: D 2 .L = P 800 = C 0 . ω s 21213.(1300 60) Fixando o valor de D = 161,2mm, obtém-se o comprimento do pacote de lâminas: Passo da Ranhura=15,90mm FIGURA 4 Apresentação de corte setorial de chapa de ferro silício (SAE-1006) L ≈ 70 mm. Portanto, tendo especificado um gerador com rotor externo, sendo o diâmetro interno do rotor de 184,40mm, já considerando entreferro de 1,5mm e a altura de 10mm dos ímãs, a vista explodida do conjunto é apresentada a seguir (Figura 3), para melhor visualização. Adotou-se a lâmina (Figura 4) estampada em aço SAE1006, tendo outros dados nesta indicados. Com o auxílio de um equipamento apropriado, (permeâmetro) desenvolveu-se ensaio para caracterização de uma amostra dos ímãs montados no protótipo desenvolvido [6]. Esta necessidade justifica-se para obtenção dos pontos de operação do 18 FIGURA 5 Ciclo de Histerese do ímã estudado, ferrite de estrôncio REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22 SISTEMAS DE ARMAS E MUNIÇÕES Para obtenção do ponto de operação do gerador, conforme circuito magnético apresentado (Figura 4), calcula-se simultaneamente, para dois valores aleatórios de fluxo magnético, a curva de operação do gerador estudado em vazio que apresentará o Ponto de Operação em vazio. A partir desta, pode-se obter outros pontos de operação relacionados à carga, ou seja, pode-se obter a interseção entre a curva de operação dos ímãs e do gerador, com o objetivo de observar o comportamento dos ímãs citado em relação à carga alimentada. ainda: Adotando-se Φp = 0,56mWb como primeiro valor escolhido de fluxo por pólo para cálculo da indução magnética do entreferro(Bg) [2], tem-se: Para o cálculo do Fator de Carter, tem-se: Bg= Φp τp.L.Kf δ= (bs lg )2 5 + bs / lg ou seja: bs = 2,5.10-3 m = abertura da ranhura então: δ = 0,42 τs = passo de ranhuras (Figura 2), que pode ser calculado como demonstrado abaixo: 2πR (4) (7) τs = n°ranhuras (8) onde o número de ranhuras é 32, tem-se: onde: R = raio da lâmina = 80,60 .10-3 m τp = passo polar no entreferro = π.D/2.p , sendo: τs = 15,90 mm D = diâmetro e p = número de pares de pólos Finalmente, tem-se: = 63,90.10 m Kg = 1,04 Kf = B médio / B pico ~2/ π = fator de forma de distribuição do campo no entreferro Kf = 0,637 Com os dados acima, pode-se calcular a Força Magneto Motriz no entreferro para o valor de indução calculado (Bg): L = comprimento dos ímãs do pólo Fg = 248,30 A L = 75.10-3 m Analogamente ao desenvolvimento analítico demonstrado, procedem-se os cálculos para os outros componentes do circuito magnético (Figura 4), ou seja, força magnetomotriz nos dentes do estator (Fds), na coroa do estator (Fcs) e na coroa do rotor (Fc). Em posse desses valores, tem-se que a força magnetomotriz total solicitada do ímã, através da soma dos valores obtidos de forças magneto motrizes nos componentes do gerador estudado é: -3 Portanto: Bg = 0,20 T Com os dados acima, pode-se calcular o valor da força magnetomotriz no entreferro: Bg Fg = µ0 . lg .Kg (5) Ftotal = Fc+Fcs+Fds+Fg onde: Ftotal = 277,30 A lg = comprimento do entreferro Referindo-se ao ímã, tem-se: lg = 1,5.10-3 m Ftotal = Fímã Kg = Fator de Carter[1] Kg = τs τs - lg.δ REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22 Portanto: (6) Hímã = 27,73 kA/m Bímã ≅ 0,18T 19 ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU Adotando-se agora Φp = 1,12 mWb como segundo valor escolhido de fluxo por pólo, desenvolve-se analogamente ao primeiro ponto adotado com o valor de fluxo por pólo magnético, obtendo-se ao final o valor referido aos ímãs: Hímã = 60,80 KA/m Conforme (12), calcula-se o valor da densidade de campo magnético (Bímã), Bímã0,38T Com estes dois pontos, pode-se traçar a curva de operação em vazio da máquina estudada (Figura 6). Agora, a partir da curva de carga obtida e do respectivo ponto de operação, pode-se calcular a variação deste ponto de interseção, que é formalmente conhecido como reação de armadura (FA) [1]: FA = 2.q.N.I.k π.P FIGURA 6 Ponto de operação do gerador em vazio. (13) onde: q = número de bobinas por fase = 04 N = número de espiras por fase (em série) = 560 K = fator de enrolamento = 0,894 (já considerando a inclinação das ranhuras) I = corrente elétrica a ser definida pela carga aplicada P = pares de pólos do gerador = 04 Considerando os valores de corrente elétrica para operação em carga nominal e em pico, pode-se obter a intensidade da reação de armadura para cada um destes: I1= 0,91 Afase (valor de corrente nominal do gerador estudado) FA1 = 28,90 kA/m I2= 1,79 Afase (valor de corrente de pico do gerador estudado) FIGURA 7 Pontos de estudo de operação do gerador Adotando-se a equação (14) e com as considerações iniciais de projeto, obtém-se o número de espiras por bobina por fase: V = 350 Vdc = tensão retificada Vf = tensão por fase = 138 V Considerando a potência de operação de pico de 800W, tem-se: FA2 = 57,00 kA/m Idc = 2,30 A ∴ Iac = 1,79 A Conforme circuito apresentado (Figura 4), podem-se obter os valores da densidade de campo magnético graficamente (Figura 7). E= 2 .π.f .N f K e Φ p (14) onde: f = freqüência = 66,6 Hz Nf = número de espiras/fase 20 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22 SISTEMAS DE ARMAS E MUNIÇÕES k = fator de enrolamento = 0,894 (já considerando a inclinação das ranhuras) A tensão gerada por pólo em cada ponto estudado pode ser apresentada utilizando a equação (3.16): Φp = fluxo magnético por pólo = 0,924.10-3 Wb E0 = tensão em vazio = 136,70 V/fase Portanto: N=565 560 espiras/fase 140 espiras/bobina, sendo o total de 4 bobinas por fase, com fechamento em série. Considerando o gerador sem ventilação forçada e a corrente de pico, adotou-se o condutor com 0,40mm² de seção transversal, formado pelo conjunto de 02 condutores de 24AWG, bobinados em paralelo. Considerou-se aceitável o valor de 2,27A/mm² como densidade de corrente para potência nominal e 4,48 A/mm² para potência de pico. ≈ O valor de E0 é menor que o original de projeto, pois o valor de espiras por fase foi escolhido pouco menor que o calculado, visando obter valor inteiro para distribuição entre 04 fases. Considerando os valores de reatância de dispersão e resistência de fase apresentados abaixo e, ainda, fator de potência unitário devido ao retificador, pode-se calcular as perdas referentes aos diferentes pontos de operação, conforme corrente solicitada. Xd = reatância de dispersão = 27,39 Ω/fase Rf = resistência por fase = 6,86 Ω/fase Referindo-se ao ímã e sobrepondo conforme circuito magnético adotado (Figura 4), pode-se calcular a tensão gerada por fase: A partir da equação (15), pode-se calcular a variação no fluxo magnético devido às variações do ponto de operação. A partir disto é possível obter a tensão gerada. B1ímã = 0,31 T ∆φ = [( Bvazio − Bc arg a ) Bc arg a ].φp (15) TABELA 1 Valores calculados Corrente (Adc) 0 1,30 2,53 Reação Armadura (kA/m) 0 28,90 57,00 Campo magnético no ponto de operação (kA/m) 52,00 72,60 95,48 Indução magnética no ponto de operação (T) 0,31 0,29 0,25 Tensão Gerada (Vdc) 348,10 321,11 259,23 RESULTADOS E DISCUSSÕES Confrontação de dados obtidos e calculados: TABELA 2 Valores obtidos e calculados Dados obtidos Corrente Tensão Gerada (Adc) (Vdc) 0 355,68 1,30 246,38 2,53 186,38 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22 Dados calculados Corrente Tensão Gerada (Adc) (Vdc) 0 348,10 1,30 321,11 2,53 259,23 Razão (%) (obtido/calculado) 102,18 76,74 71,90 21 ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU Conforme dados apresentados (Tabela 2), verifica-se a diferença do valor de tensão calculada sem carga (Idc=0A), sendo o valor obtido através de ensaio 2,18% superior ao calculado. Referente aos valores em carga, verifica-se a razão entre as tensões mensuradas e calculadas entre 20 e 30%, indicando necessidade de aprimoramento dos cálculos para adequação do modelo analítico desenvolvido. CONCLUSÕES Verificou-se desenvolvimento de modelo analítico, através do estudo de circuito magnético apresentado a partir de projeto de um gerador utilizando pólos com ímãs permanentes. Através dos dados obtidos nos ensaios, o modelo analítico desenvolvido apresentou valor satisfatório de tensão gerada em relação ao valor obtido, com discrepância de 2,18%. Já nos valores em carga, os dados obtidos são inferiores ao calculado (Tabela 2), indicando a necessidade de melhorar o modelo analítico do enrolamento do gerador estudado. Isto porque a carga imposta era retirada após a obtenção de cada um dos valores ensaiados. E observou-se que o valor da tensão em vazio apresentou-se idêntico ao obtido antes do início da alimentação da carga, comprovando que em vazio o modelo analítico desenvolvido é satisfatório. 22 FIGURA 8 Apresentação do protótipo REFERÊNCIAS 1. LIWSCHITZ, M. – “Calcolo e determinazione delle dimensioni delle macchine elettriche”. 2. ALGER, Philip L. – The nature of polyphase induction machines. 3. SAY, M.G. – Alternating current machines. 4. IRELAND, James R. – Ceramic permanent-magnet motors. 5. NASAR, S.A., BOLDEA,I., UNNEWEHR, L.E. – Pemanent magnet, relutance and self-synchronous motors. 6. LANDGRAF, Fernando J.G., TEIXEIRA, Júlio C., RODRIGUES, Daniel – Apostila de curso de ímãs – aplicações, processos e propriedades. 7. SÖDERLUND, L., ERIKSSON, J.T., SALONEN, J., VIHRIÄLÄ, H., PERÄLÄ,R.. 8. A permanent-magnet generator for wind power applications – IEEE – Transactions on magnetics, Vol.32, Nº4, pp.2389-2392, July 1996. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22 SISTEMAS DE ARMAS E MUNIÇÕES O desenvolvimento na área inercial – um projeto conjunto da Marinha, Exército e Aeronáutica Capitão-de-Fragata (EN) Nelson Luiz de Paula Menezes Monnerat Estado-Maior da Armada – Subchefia de Logística e Mobilização – Divisão de Ciência e Tecnologia E-mail: [email protected] Nelson F. F. Ebecken Núcleo de Transferência de Tecnologia (NTT) – Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia (COPPE) – Universidade Federal do Rio de Janeiro (UFRJ) E-mail: [email protected] Resumo A navegação teve um papel fundamental para o desenvolvimento da humanidade, contribuindo para o florescimento de civilizações. A navegação, como um meio para se chegar de um ponto conhecido a outro ponto também conhecido, intensificou-se no mundo moderno saindo do âmbito das embarcações marítimas e entrando nas aeronaves, nos veículos terrestres e nos armamentos, tais como mísseis e munições inteligentes. O Brasil tem envidado esforços para o desenvolvimento de uma central inercial nacional de precisão há cerca de 20 anos. Neste trabalho, será apresentado o que é Tecnologia Inercial e suas aplicações, bem como o esforço para o desenvolvimento conjunto entres as três Forças Singulares (Marinha, Exército e Aeronáutica), na visão do autor, de produtos na área de engenharia inercial através de um projeto conjunto. São apresentados, também, os esforços na busca por fontes de financiamento e a tentativa de criação de uma rede de cooperação entre os diversos Institutos de Ciência e Tecnologia das três Forças Singulares. Palavras-chave Tecnologia inercial. Navegação. Sensores inerciais. The development in the inertial technology area – a joint project of the Navy, Army and Air Force Abstract The navigation has played a major role for the humanity, allowing the civilization to grow through commercial lines overseas. Nowadays this importance has grown with applications that surpace the maritime use reaching the aerospace, land vehicles and weapons, such as missiles and intelligent ammunition. Brazil has spent a great effort to develop an inertial measurement unit in the past 20 years. This work will present what is Inertial Technology, its application and the work developed by the Navy, Army and Air Force, as seen by the author, in this technology field. We will also present the work done in order to find alternative resource sources and the attempt to create a cooperative network involving the Militar Science and Technology Institutes. INTRODUÇÃO A navegação, devido a sua importância para o transporte, foi parte fundamental para o desenvolvimento da humanidade. O homem aprendeu que as viagens pelos mares, rios e lagos eram um meio conveniente para o transporte de mercadorias, contribuindo para o florescimento de civilizações. A navegação, como um meio para se chegar de um ponto conhecido a outro ponto também conhecido, intensificou-se no mundo moderno saindo do âmbito das embarcações marítimas e entrando nas aeronaves, nos veículos terrestres e nos armamentos, tais como mísseis e munições inteligentes. A navegação marítima, sem o auxílio de marcos terrestres, teve grandes avanços ao longo da história, valendo ressaltar o emprego de agulhas magnéticas a partir do século XI, a navegação astronômica para o cálculo da latitude no século XIV e o desenvolvimento de instrumentos como o sextante, no século XVIII, para a medição da altura dos astros. A determinação da longitude era um problema de mais difícil solução, uma vez que é dependente da hora da leitura da altura dos astros. A invenção do cronômetro, em meados do século XVIII, permitiu a determinação com precisão do tempo decorrido a partir do marco zero em Greenwitch e com isso a sua correta determinação. Em 1908, os “g yrocompasses”, ou “as agulhas giroscópicas”, como são denominados na Marinha, passaram a ser empregados no lugar das agulhas magnéticas. Ao longo do século XX, foram desenvolvidos diversos sistemas para navegação, seja com o emprego de estações terrestres como o DECA e o LORAN, ou de satélites em órbitas baixas como o “Global Positioning System” (GPS). Inertial technology, navigation, inertial sensors. Os armamentos também passaram a exigir cada vez mais informações para seu controle e aumento de sua precisão e alcance. Na Segunda Guerra Mundial, as bombas V-1 e V-2 empregaram as primeiras centrais inerciais, marcando o início dos ar mamentos inteligentes. A Guerra do Golfo e, mais recentemente, REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27 23 Keywords CAPITÃO DE FRAGATA (EN) NELSON LUIZ DE PAULA MENEZES MONNERAT, NELSON F. F. EBECKEN a Guerra dos Estados Unidos contra o Iraque mostraram o emprego em larga escala de armas com capacidade de execução de trajetórias configuráveis e o uso de aeronaves não tripuláveis. Estes avanços só foram possíveis com o emprego de sistemas de posicionamento precisos, como o GPS, e de sistemas de controle de atitude para correção e alteração das trajetórias. O século XX e o início do século XXI têm demonstrado uma crescente necessidade de meios de navegação automáticos e independentes de informações externas. A guerra moderna confirma esta necessidade por meio do emprego de armamentos inteligentes, sejam eles mísseis, torpedos ou projetis assistidos, bem como de plataformas capazes de lançá-los. Torna-se imperativo o emprego de sistemas para navegação e controle de atitude automáticos e independentes, cenário no qual a central inercial é uma ferramenta fundamental. A tecnologia inercial, devido ao seu aspecto vital para os armamentos modernos, é controlada por tratados internacionais, valendo ressaltar o “Missile Technology Control Regime” (MTCR). Este acordo estabelece políticas que restringem aos países que não possuem determinadas tecnologias, consideradas sensíveis, adquiri-las e quem as detêm de vendê-las livremente. A tecnologia inercial é considerada sensível e, por esta razão, os giroscópios com precisão superior a 0,5 grau por hora e acelerômetros com precisão superior a 1250 micro g são controlados [11] e países como o Brasil, que ainda não detêm completamente esta tecnologia, estão sujeitos a necessidades burocráticas que podem dificultar em muito a aquisição destes sensores ou equipamentos que os empregue. O QUE É A TECNOLOGIA INERCIAL Uma plataforma, seja ela um navio, um carro de combate ou uma aeronave necessita de três ângulos para identificar como está orientada no espaço. Estes três ângulos são o balanço, o caturro e a guinada (em inglês “roll”, “pitch” e “yaw”), denominados parâmetros de atitude. A determinação destes parâmetros é uma das principais aplicações de uma central inercial. Para obter os parâmetros de atitude, uma central inercial emprega giroscópios e acelerômetros integrados por meio de algoritmos de controle e de atitude. Os giroscópios são os sensores responsáveis 24 por medir as velocidades angulares e os acelerômetros os responsáveis por medir as acelerações lineares às quais a plataforma está sendo submetida. Os seres humanos têm uma central inercial natural, o labirinto, que informa constantemente se estão deitados, de pé ou inclinados. No caso particular do ser humano, não há interesse nos valores exatos desses ângulos, uma vez que o cérebro controla o equilíbrio e usa os outros sentidos para controlar ou apontar algum objeto de interesse, como, por exemplo, uma arma e o alvo. No caso de uma plataforma, estes valores devem ser fornecidos para serem empregados em sistemas de direção de tiro ou sistemas de estabilização de armamentos e de sensores, como, por exemplo, radares. As centrais inerciais, quanto ao seu arranjo mecânico, podem ser classificadas em centrais solidárias ao veículo, mais comumente conhecidas como “strapdown”, ou em centrais “gimbal”, suspensas num cardã que isola os sensores dos movimentos do veículo. Nas centrais “gimbal” os sinais dos giroscópios são usados para estabilizar os acelerômetros em uma atitude fixa no espaço. Os ângulos de atitude são então lidos diretamente nos anéis do cardã e a posição pode ser integrada a partir dos sinais dos acelerômetros. A partir do desenvolvimento da capacidade de processamento de dados, as centrais “strapdown” passaram a ter um número maior de aplicações e trabalhos de pesquisa, dado ao seu menor custo e à sua menor complexidade de montagem, fabricação e teste. Nestas centrais, por meio de algoritmos computacionais, é mantido um sistema de referência virtual fixo no espaço, a partir do qual são feitos os cálculos para a determinação da posição e atitude do veículo. Com o desenvolvimento de sensores Micro-usinados (“Microeletromechanical Systems”- MEMS), que possuem um custo reduzido e uma precisão da ordem de dezenas de graus por segundo, houve a proliferação de aplicações não militares da tecnologia inercial, como, por exemplo, os sistemas de controle de suspensões ativas presentes em carros de Fórmula I e em alguns modelos de luxo e esportivos, bem como aplicações em aeromodelismo, como a estabilização de helicópteros controlados remotamente. Em aplicações militares, os MEMS possibilitaram o surgimento de projetis assistidos, aumentando assim a sua probabilidade de acerto. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27 SISTEMAS DE ARMAS E MUNIÇÕES PROJETO CONJUNTO DAS FORÇAS ARMADAS experiências e conhecimentos. Isto permite que não haja concorrência entre os partícipes e permite o sinergismo entre as instituições. O Brasil tem envidado esforços para o desenvolvimento de uma central inercial nacional de precisão há cerca de 20 anos. Este trabalho iniciou-se isoladamente em cada uma das Forças Singulares, convergindo para um projeto conjunto entre a Marinha, o Exército e a Aeronáutica a partir de 1994, quando foi elaborado o Plano de Ciência e Tecnologia das Forças Armadas (PCT/FA). Os órgãos de cada Força Singular envolvidos neste esforço conjunto foram: o Instituto de Pesquisas da Marinha (IPqM), o Centro Tecnológico da Marinha em São Paulo (CTMSP), o Instituto de Estudos Avançados do Centro Tecnológico da Aeronáutica (IEAv) e o Instituto de Pesquisa e Desenvolvimento do Centro Tecnológico do Exército (IPD). Como fruto deste trabalho conjunto, foram desenvolvidos sensores nacionais, protótipos de centrais inerciais, bem como a realização de simpósios para a discussão e apresentação dos diversos trabalhos em andamento nas universidades e institutos de pesquisa. Dentre estes institutos e universidades vale ressaltar o Instituto Nacional de Pesquisas Espaciais (INPE), o Instituto Militar de Engenharia (IME), o Instituto Tecnológico da Aeronáutica (ITA), a Universidade Estadual de Campinas (UNICAMP) e a Escola Politécnica da Universidade de São Paulo (EPUSP). O PCT/FA, além da área inercial, contribuiu para estimular a conquista de tecnologias sensíveis, não disponíveis no mercado, atendendo aos interesses das Forças Armadas e promovendo a adequação de conhecimentos existentes em instituições de ensino e pesquisa, principalmente, por meio da formação de recursos humanos nas áreas consideradas essenciais para a estrutura de defesa do País. A criação do Ministério da Defesa levou, em 2002, à extinção do PCT/FA e à criação do Plano Gerencial de Pesquisa e Desenvolvimento (PGPD), de modo a abranger as ações das Forças Singulares na área de ciência e tecnologia. O PGPD teve como propósitos principais: consolidar projetos de interesse do Ministério da Defesa em ciência e tecnologia, integrar os esforços das Forças Armadas, órgãos do governo e instituições civis e fortalecer a base de ciência e tecnologia nacional. O projeto conjunto na área da tecnologia inercial, parte integrante do PGPD, constitui-se de três subprojetos conduzidos de forma relativamente autônoma, mas irmanados pelo objetivo e pela certeza de que todos os partícipes procurariam obter o melhor resultado possível. Ele incentiva a fabricação de sensores inerciais no país e o desenvolvimento, com capacitação técnica nacional, do sistema como um todo. Com a realização de simpósios e palestras, os órgãos militares que participam do desenvolvimento na área de tecnologia inercial, apresentam os seus resultados, acompanham as atividades desenvolvidas e trocam REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27 ESTÁGIO ATUAL O Brasil, por intermédio do esforço conjunto das três Forças Armadas, está desenvolvendo sensores inerciais e centrais inerciais para emprego nas suas diversas plataformas, bem como para aplicações civis, como, por exemplo, em plataformas de prospecção de petróleo, o Veículo Lançador de Satélites (VLS) e Veículos Aéreos Não-Tripulados (VANT). Os giroscópios atualmente em desenvolvimento no Brasil são o giroscópio mecânico sintonizado seco (“Dry Tuned Gyro” – DTG) e o giroscópio a fibra ótica (“Fiber Optic Gyro” – FOG). O giroscópio DTG em uma determinada freqüência, denominada freqüência de sintonia, cancela o momento do rotor com as forças elásticas das juntas flexíveis, fazendo com que o rotor comporte-se como um corpo livre no espaço, por este motivo ele também é denominado “Dynamic Tuned Gyro”. Esta propriedade lhe permite medir as velocidades angulares aplicadas aos dois eixos perpendiculares ao eixo de rotação. Estes tipos de sensores estão em desenvolvimento no Instituto Nacional de Pesquisas Espaciais (INPE) e no CTMSP. O giroscópio FOG, em desenvolvimento no IEAv, tem por princípio de funcionamento o efeito Sagnac, onde dois feixes de luz percorrem uma bobina de fibra ótica em direções opostas. Quando uma velocidade angular é aplicada na direção do eixo da bobina, os percursos são diferenciados, causando assim uma diferença de fase entre os feixes. Este efeito 25 CAPITÃO DE FRAGATA (EN) NELSON LUIZ DE PAULA MENEZES MONNERAT, NELSON F. F. EBECKEN confere ao FOG a capacidade para medir velocidades angulares aplicadas no eixo da bobina de fibra ótica. FONTES ALTERNATIVAS DE RECURSOS Os acelerômetros para emprego em centrais inerciais em desenvolvimento no Brasil, são os Acelerômetros Pendulares Ser vo-Controlados (APSC), cujos trabalhos estão sendo realizados no CTMSP, e acelerômetros baseados em fibras óticas em desenvolvimento no IEAv. Estes sensores são capazes de medir acelerações lineares em uma única direção. Com o intuito de serem fontes complementares de recursos para financiar o desenvolvimento de setores estratégicos para o País, foram criados em 1999 os Fundos Setoriais de Ciência e Tecnologia como instrumentos de financiamento de projetos de pesquisa, desenvolvimento e inovação no País. Os recursos destes Fundos são alocados no Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT) e administrados pela Financiadora de Estudos e Projetos (FINEP), empresa pública vinculada ao Ministério da Ciência e Tecnologia (MCT), nos termos do Decreto nº 1.361, de 1º de janeiro de 1995. O Fundo para o Desenvolvimento Tecnológico das Telecomunicações (FUNTTEL) é a única exceção, sendo gerido pelo Ministério das Comunicações [3]. Os ensaios de caracterização dos giroscópios e acelerômetros, em desenvolvimento e importados, foram realizados no IPqM, valendo ressaltar os ensaios de caracterização de acelerômetros para emprego em ambientes de microgravidade, de giroscópios DTG e FOG em desenvolvimento no CTMSP e no IEAv, respectivamente, e de APSC desenvolvidos no CTMSP. Estes ensaios contribuíram para o aprimoramento dos sensores e permitiram o trabalho conjunto do IPqM e do CTMSP no desenvolvimento de uma nova eletrônica de controle para emprego nos DTG e nos APSC. A integração dos sensores em uma central inercial, incluindo para isso o desenvolvimento de circuitos eletrônicos específicos e a implementação de algoritmos de navegação e controle, é uma atividade desenvolvida no IPqM, no IPD e no Instituto de Aeronáutica e Espaço (IAE). Como realizações neste campo, podemos citar o protótipo da Unidade de Referência de Rumo e Atitude, realizado pelo IPqM em parceria com as empresas NavCon e INFAX. Com o emprego dos protótipos FOG, o IPqM integrou o primeiro protótipo da Central Inercial com Sensores Óticos (CISO), cuja proposta de implementação foi apresentada no III Simpósio Brasileiro de Engenharia Inercial (III SBEIN), em 2001, no IME. A Petrobras, para a solução do problema de posicionamento dinâmico de suas plataformas de prospecção de petróleo, tem apresentado um crescente interesse na área inercial como um possível desenvolvimento futuro. Atualmente, para a monitoração de bóias de linhas de dutos, a Petrobras está empregando sensores FOG comerciais em centrais de posicionamento. A monitoração destas bóias permitirá que acidentes com derramamento de óleo no mar possam ser evitados. 26 O modelo de gestão dos Fundos Setoriais é baseado em Comitês Gestores, um para cada Fundo. Cada Comitê Gestor é presidido por um representante do MCT e integrado por representantes dos ministérios afins, agências reguladoras, setores acadêmicos e empresariais, além das agências do MCT, a FINEP e o CNPq. Os Comitês Gestores têm a prerrogativa legal de definir as diretrizes, ações e planos de investimentos dos Fundos. A partir de 2004 foi estabelecido o Comitê de Coordenação dos Fundos Setoriais, com o objetivo de integrar suas ações. O Comitê é formado pelos presidentes dos Comitês Gestores, pelos presidentes da FINEP e do CNPq, sendo presidido pelo Ministro da Ciência e Tecnologia. Dentre as novas medidas implementadas, cabe salientar a implantação das Ações Transversais, orientadas para os programas estratégicos do MCT, que utilizam recursos de diversos Fundos Setoriais para uma mesma ação [3]. Devido às suas aplicações em projetos não militares e à sua característica multidisciplinar, foi apresentada uma proposta à FINEP para a modernização do Laboratório de Sistemas Inerciais do IPqM, através do Fundo de Apoio ao Desenvolvimento Científico e Tecnológico (CT-INFRA). A proposta do IPqM foi adjudicada, tendo sido realizada a modernização da mesa de posicionamento Contraves, ferramenta fundamental para a caracterização de sensores inerciais, além da instalação de um cluster de PC para emprego em cálculos e simulações de sistemas. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27 SISTEMAS DE ARMAS E MUNIÇÕES O projeto Sistemas Inerciais para Aplicação Aeroespacial foi aprovado pelos comitês, recebeu R$ 7,69 milhões e está sendo executado em uma parceria do CTA com o INPE. Pretende-se envolver nesta parceria a indústria e contribuir para a capacitação de recursos humanos, com a formação de mestres e doutores nessa área [6]. Outro projeto com recursos da FINEP é o desenvolvimento de um sistema de navegação e controle para veículos aéreos não tripulados (VANT). O projeto conta com cerca de R$ 10 milhões e envolve o IPqM, o Exército (IPD) e o CTA. Serão realizados testes em vôo das versões preliminares desses sistemas, utilizando duas plataformas ou aeronaves já existentes – o Acauã, veículo desenvolvido pelo CTA na década de 80 e o Harpia, da Marinha, ambos com três metros de envergadura [7]. CONCLUSÃO A tecnologia inercial é uma ferramenta primordial para os ar mamentos modernos e suas plataformas lançadoras. Esta característica faz com que seu emprego e aquisição sejam controlados por parte dos países detentores desta tecnologia. Os efeitos destes controles se fazem sentir em projetos militares e civis. O projeto conjunto das Forças Armadas tem se mostrado como uma ferramenta eficiente, favorecendo as aptidões de cada instituição, propiciando a disseminação da informação com a realização de encontros e simpósios e a não redundância de esforços. Como frutos desse esforço conjunto, foram produzidos os primeiros giroscópios nacionais, os mecânicos, os DTG do CTMSP, e os óticos, os FOG do IEAv. Além disso, foi possível a integração desses sensores pelo IPqM. Há uma demanda grande de empresas nacionais, como a Petrobras, pela tecnologia inercial, motivando, assim, o financiamento parcial do desenvolvimento nesta área tecnológica com recursos do MCT, por meio da agência FINEP, como os projetos do VANT e do SAI. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27 O esforço de envolvimento de empresas nacionais e órgãos civis de pesquisa e desenvolvimento visa a uma maior diversificação das fontes de recurso, desonerando o Ministério da Defesa e permitindo a difusão da tecnologia e a formação de recursos humanos. Em pesquisa e desenvolvimento não são dados “saltos” tecnológicos, mas sim “passos” consecutivos na direção esperada e estes “passos” podem atender às necessidades de outros órgãos ou empresas, per mitindo o aporte de recursos para o seu financiamento, a difusão do conhecimento e a cooperação. REFERÊNCIAS 1. BARBOURS, Neil e SCHMIDT, George. “Inertial Sensors Technology Trends”. IEEE SENSORS JOURNAL, Vol.1, No.4, USA. 2001. 2. BRASIL. Comissão Assessora de Ciência e Tecnologia para a Defesa – COMASSE. Disponível em: <https://www.defesa.gov.br/ ciencia_tecnologia/index.php?page= comissao>. 3. BRASIL. MCT – Temas em C&T – Fundos Setoriais. Disponível em: <http://www.finep.gov.br/fundos_setoriais/fundos_setoriais_ ini.asp?codSessaoFundos=1>. 4. BRASIL. Agencia CT do Ministério de Ciência e Tecnologia. Programa Espacial – Navegação espacial receberá investimentos dos fundos setoriais. Disponível em: <http://agenciact.mct.gov.br/ index.php/content/view/24172.html>. 5. ______. CTA estimula veículos não tripulados. Disponível em: <http://agenciact.mct.gov.br/index.php/content/view/31256.html. 6. BRASIL. Simpósio Brasileiro de Engenharia Inercial, III, 2001, Anais, Rio de Janeiro: Instituto de Pesquisas e Desenvolvimento, 2001. 7. BRITTING, Kenneth. “Inertial Navigation Systems Analysis”. Massachusetts, USA: Wiley Interscience, 1971. 8. “Military Critical Technologies List – Section 16 – Positioning, Navigation and Time Technology”. Disponível em: < http:// www.dtic.mil/mctl/MCTL/Sec16MCTLg.pdf>. 9. LAWRENCE, A.: “Modern Inertial Technology: Navigation, Guidance, and Control”. New York, USA: Springer-Verlag, 1993. 10. “Missile Technology Control Regime – MTCR”. Disponível em: <http://www.mtcr.info>. 27 CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES Atuadores magnéticos na redução da vibração para um Rotor de Jeffcot/Laval durante a passagem pela velocidade crítica Capitão-Tenente (EN) Paulo Henrique da Rocha Centro Tecnológico da Marinha em São Paulo – CTMSP Divisão de Projetos Eletro-Eletrônicos Av. Prof. Lineu Preste, 2468 – Cidade Universitária CEP 05508-000, São Paulo, SP, Brasil. E-mail: [email protected] Michael Cláudio Porsch Centro Tecnológico da Marinha em São Paulo – CTMSP Divisão de Projetos Eletro-Eletrônicos Av. Prof. Lineu Preste, 2468 – Cidade Universitária CEP 05508-000, São Paulo, SP, Brasil E-mail: [email protected] Roberto Moura Sales Escola Politécnica da Universidade de São Paulo – Poli/USP Laboratório de Automação e Controle – LAC Cidade Universitária – USP CEP 05508-900, São Paulo, SP, Brasil. E-mail: [email protected] Resumo INTRODUÇÃO Sistemas de controle para atenuar a passagem pela velocidade crítica de máquinas rotativas têm sido largamente utilizados [2][7][6]. Em especial, os atuadores magnéticos possuem algumas vantagens em relação a outros tipos de atuadores, uma vez que realizam a atuação sem a necessidade de contato físico com o rotor, evitando assim possíveis desgastes mecânicos. Para realização desse trabalho, cada eixo é considerado como um sistema independente de uma entrada e uma saída. Na Figura 1, está ilustrada a idéia básica desse trabalho, que consiste em dois atuadores por eixo. Através de sistemas eletrônicos, que não serão abordados neste trabalho, os atuadores do mesmo eixo trabalham com sinais opostos, a partir da leitura de um sensor de posição. Este trabalho apresenta um modelo de projeto, baseado em atuadores magnéticos, para a redução da vibração de um Rotor de Jeffcot/Laval apoiado em mancais mecânicos, durante a sua passagem pela velocidade crítica. Foi realizada uma modelagem matemática do rotor de Jeffcot/ Laval em conjunto com os atuadores magnéticos, com a linearização em torno de um ponto de operação, para posterior cálculo de um compensador série de avanço de fase. Palavras-chave Mancais magnéticos. Atuador magnético. Rotor de Jeffcot/ Laval. Magnetic actuators for vibration reduction of a Rotor of Jeffcot/Laval during its critical speed Abstract This work presents a design model based on magnetic actuators for the vibration reduction of a Rotor of Jeffcot/ Laval supported by mechanical bearings during its critical speed. A mathematical model of the Rotor of Jeffcot/Laval, including the magnetic actuators and linearized around an operation point, is developed and a series lead phase compensator is then designed. Keywords Magnetic bearing. Magnetic actuator. Rotor of Jeffcot/Laval. 28 FIGURA 1 Idéia básica do atuador magnético. MODELAGEM MATEMÁTICA DO ROTOR DE JEFFCOT/LAVAL Nesta seção, será realizada a modelagem matemática de um Rotor de Jeffcot/Laval. Para isso, será tomado como base o Rotor de Jeffcot/Laval [1][3][4], mostrado na Figura 2, apoiado em mancais mecânicos. Será suposto que esse rotor tem massa M, eixo flexível com constante de flexão do eixo K e constante de amortecimento C. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34 SISTEMAS DE ARMAS E MUNIÇÕES a) Rotor de Jeffcot/Laval A resposta r, em função da rotação w, é conhecida como resposta ao desbalanço. Essa resposta ao desbalanço será utilizada futuramente para calcular a corrente DC que será aplicada ao atuador magnético. Visando uma otimização do projeto, algumas simulações da resposta ao desbalanço foram realizadas através do programa Matlab e estão apresentadas na seção VI desse trabalho. b) Vista de frente Função de Transferência: FIGURA 2 Rotor de Jeffcot/Laval [1]. Baseado na Figura 2, é possível escrever as equações ìSFRz í îSFRy ìd2 (z + a. cos w .t )+ C. dz + K .z = 0 =0 ï ï dt 2 dt Þí Þ = 0 ïd 2 dy (y + a. cos w .t )+ C. + K . y = 0 ïdt 2 dt î ì .. . ï ï M . z + C. z + K .x = M .w 2 .a. cos(w .t ) í ï .. . 2 ï îM . y + C. y + K . y = M .w .a. sen(w .t ) .. (1) + y (0) + C.Y ( s).s + y (0) + K .Y ( s) = F ( s) Ry Considerando as condições iniciais nulas, a função de transferência será dada por [5] G (s) = ï ï w 2 .a . cos(w .t - f) ïz = 2 2 ï æ w ö æK 2ö ç - w ÷ + çC. ÷ ï M è Mø è ø ï 2 ï w .a ï . sen(w .t - f) Þ íy = 2 2 ï æ w ö æK 2ö ç - w ÷ + çC. ÷ ï M ø è Mø è ï ï æ ö ç ÷ ï . w C ÷ ïf = tg - 1 ç ç æK ÷ ï 2ö ç M .ç - w ÷÷ ï ç ÷ ï øø è èM î Y (s) 1 = F ( s ) M .s 2 + C.s + K (3) MODELAGEM MATEMÁTICA DO ROTOR DE JEFFCOT/LAVAL COM O ATUADOR MAGNÉTICO (2) REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34 . M . y + C. y + K . y = FRy Þ M .Y ( s ).s 2 + y (0).s + que têm como solução ì w 2 .a ïr = 2 2 ï æ w ö æK 2ö ç - w ÷ + çC. ÷ ï èM ø è Mø ï ï r = z2 + y2 Þ í æ ö ç ÷ ï C.w ÷ ïf = tg - 1 ç ç æK ï ö÷ ç M .ç - w 2 ÷÷ ï ç ÷ ï øø è èM î Para se obter a função de transferência para cada eixo do rotor de Jeffcot/Laval, basta aplicar a transformada de Laplace nas equações (1). Como as duas equações são idênticas, a menos de uma defasagem de 90o, será considerada apenas a equação de um dos eixos. Sendo assim Uma vez obtido o modelo matemático para um Rotor de Jeffcot/Laval, será feita nessa seção a inclusão dos atuadores magnéticos, de forma a realizar uma modelagem matemática que levará em consideração o sistema completo, ou seja, o Rotor de Jeffcot/Laval e os atuadores magnéticos. Para isso, será suposto que o rotor esteja com ω=0 e que um dos atuadores sofra um incremento infinitesimal ∂ I na corrente Io, sendo este mesmo valor diminuído na bobina do atuador oposto. Com isso, um deslocamento infinitesimal ∂x, do rotor, será detectado. Na Figura 3 é possível visualizar esse processo. 29 CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES ou manipulando matematicamente .. ¶x= Km M é(I o + ¶I )2 (I o - ¶I )2 ù C . K .¶ x .¶x (6) ê ú2 2 M ê ë(x o - ¶x ) (x o + ¶x ) ú û M Assim, a eq. (6) é o modelo matemático completo do Rotor de Jeffcot/Laval com os atuadores magnéticos. Como pode ser observado, esse sistema não é linear e, portanto, para se calcular o compensador série de avanço de fase, deve ser linearizado de modo a possibilitar que as teorias de controle clássico possam ser aplicadas. Essa linearização será apresentada na próxima seção. FIGURA 3 Rotor de Jeffcot/Laval sendo deslocado em dx devido a uma diferença de dI nas correntes do atuadores Da teoria de eletromagnetismo, a força magnética que atua em um objeto é diretamente proporcional ao quadrado da corrente e inversamente proporcional à distância ao quadrado. Desta forma, é possível escrever [6][7] LINEARIZAÇÃO DO SISTEMA COMPLETO Uma vez obtido o modelo matemático da eq. (6), será feita a sua linearização em torno de um ponto de operação. Por facilidade de cálculo, antes da linearização, a eq. (6) será escrita na forma de equações de estado. Para isso, serão consideradas como variáveis de estado FMag = K m . I2 gap 2 (4) onde: FMag = Força eletromagnética, Km = Constante do atuador, I = corrente da bobina do atuador, gap = distância da bobina ao objeto. Realizando o equacionamento das forças que atuam no rotor parado (ω=0) da Figura 4, com a diferença de corrente ∂ I nos atuadores, tem-se .. é(I + ¶I )2 (I o - ¶I )2 ù FR = m. x = K m ê o ú 2 (xo + ¶x )2 úû ê ë(x o - ¶x ) (5) Porém, novas forças irão atuar quando o rotor estiver com uma rotação angular w. Essas forças já foram modeladas na eq. (1). Sendo assim, quando o rotor estiver com uma rotação w, utilizando os modelos matemáticos definidos nas eqs. (1) e (5) é possível escrever .. . é(I + ¶I )2 (I o - ¶I )2 ù Km ê o = M . ¶ x C . ¶ x - K .¶x ú 2 2 ê ë(x o - ¶x ) (x o + ¶x ) ú û 30 x1 = ¶x . e x2 = ¶ x . As variáveis de entrada e saída serão ∂ I e ∂ x, respectivamente. Logo, as equações de estado serão: . ì ï f1 = x1 = x 2 ï ï í . ï Km ï f 2 = x2 = M ï î é (I o + u )2 (I o - u )2 ù- C .x - K .x ê ú 2 1 2 2 M ê ë(xo - x1 ) (xo + x 2 ) ú û M Para se obter as matrizes de estado linearizadas, calculase o Jacobiano, Jx, como æ ¶f1 ç ¶x Jx = A = ç 1 ç¶f 2 ç¶x è 1 ¶f1 ¶x2 ¶f 2 ¶x2 ö æ ¶f1 ÷ ç ÷; J = B = ç ¶u u ÷ ç¶f 2 ç ÷ è ¶u ø ö ÷ æ ÷ e C = ç¶f 2 ç¶x ÷ è 1 ÷ ø ¶f1 ö ÷ ¶x1 ÷ ø São assim obtidas as seguintes matrizes de estado linearizadas em torno de um ponto de operação do sistema rotor de Jeffcot/Laval com atuadores magnéticos REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34 SISTEMAS DE ARMAS E MUNIÇÕES 0 æ ç 2 é ( ) 2 . 2.(I o - u )2 ù K + K I u A=ç m . + ê o úç M ê (x - x )3 (xo + x1 )3 úû M ë o 1 è æ ç B = çK m çM è 1 C M Vale a pena ressaltar que o sistema completo não está levando em consideração o ganho do sensor de posição. Esse ganho dependerá do tipo de sensor utilizado (sensor óptico, indutivo, etc...) e do seu circuito eletrônico de condicionamento do sinal analógico. Portanto, a função de transferência (8) ficará melhor representada se for inserido no numerador o ganho do sensor, ou seja, ö ÷ ÷ ÷ ø 0 ö é 2.(I o + u ) 2.(I o - u ) ù÷C = (1 0 ) .ê + ú÷ 2 2 ÷ ê(xo - x1 ) (xo + x1 ) û úø ë Como foi suposto um incremento infinitesimal de ∂ I e ∂ x, ou seja, u = ¶I @0 e x1 = ¶x @0 , as matrizes anteriores podem ser redefinidas como 0 æ ç 2 A = ç K m .é4 I o ù- K ê 3 çM êx ú ú M ë o û è Km O termo M 1 C M æ ö ç ÷ B = , çK m ÷ çM ÷ è ø 0 ö é4.I o ù÷C = (1 0 ) .ê 2 ú÷ ê xo û ú÷ ë ø é4 I 2 ù .ê 3o ú é conhecido como anti-mola e ê xo û ú ë seu valor deve satisfazer: K m é4 I o2 .ê 3 M ë ê xo ù K ú << M ú û (7) Essa condição será levada em consideração para o cálculo da função de transferência para o projeto do compensador série de avanço de fase. OBTENÇÃO DA FUNÇÃO DE TRANSFERÊNCIA Uma vez que o sistema foi linearizado em torno de um ponto de operação e foram obtidas as matrizes de estado, tem-se para a função de transferência [5] -1 G ( s ) = C.(s.I - A) é êK m ê M ê ë 0 é4 I o2 ù K .ê 3 úê ë xo ú û M Þ G (s) = é ê é1 0ù .B = [1 0]ês.ê 0 1ú û ê ë ë -1 1 ùù C úú úú M úú ûû é K .ê ê m M ê ë + ( x o3 .C ) s - 0 ù é4.I o ùú .ê 2 úú ê ë xo ú ûú û 4.K m .I o2 4.xo .K m .I o .Gsen sor ( xo3 .M ).s 2 (9) + ( xo3 .C ) s - 4.K m .I o2 + K .xo3 Para as simulações, será necessário determinar os valores da corrente Io e de G sensor. Para isso serão utilizadas a resposta ao desbalanço e o gráfico de Bode de (8) para calcular Io e Gsensor, respectivamente. PROJETO DO COMPENSADOR Para calcular o compensador, deve-se ter em mente que, como G(s) foi linearizado em torno de um ponto de operação, essa função de transferência varia em função dos valores escolhidos de xo e Io. Portanto, para se calcular um compensador, a partir de agora serão utilizadas as equações anteriores para um rotor de Jeffcot/Laval fictício. Sendo assim, serão escolhidos os valores abaixo para o rotor de Jeffcot/Laval, para os quais a inequação (7) é satisfeita. Os valores de K, Km, C, a, M, Io e xo, são: M = 0,50[Kg ], C = 50[Kg / s ], K = 10 6 Kg / s 2 , a = 1´ 10 - 3 [m] Quanto ao atuador magnético, foi escolhido Km=10-1 [N.m2 / A2] . Para se determinar xo e Io, será necessário analisar a resposta ao desbalanço do Rotor de Jeffcot/ Laval para os valores de M, C, a e K escolhidos. Determinação de xo: Substituindo-se os valores de M, a, K e C na equação da resposta ao desbalanço (2), tem-se (8) r= 4.x o .K m .I o ( x o3 .M ).s 2 G (s) = + K .x o3 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34 w 2 .a 2 2 æK æ w ö 2ö ç - w ÷ + çC. ÷ èM ø è Mø Þ r= w 2 .10 - 3 (2.10 6 ) + (100.w ) - w2 2 2 (10) 31 CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES A resposta ao desbalanço, para esse Rotor de Jeffcot/ Laval fictício, está representada na Figura 4. Como pode ser obser vado, a máxima amplitude do deslocamento ocorre na freqüência crítica e sendo aproximadamente 1,4 cm. Com isso, o valor de xo deverá ser superior a esse máximo deslocamento. Ou seja, para evitar que o rotor tenha um contato físico com os atuadores, será necessário que xo > 1,4 cm. Neste trabalho, o valor escolhido é de 1,5 cm. Determinação de Io: No ponto de operação, a força magnética tem que se equilibrar com a força externa que age no Rotor de Jeffcot/Laval quando este está com uma velocidade angular ω. Como a função do atuador magnético é minimizar o efeito do desbalanço durante a passagem pela velocidade crítica, o módulo da força magnética deverá ser igual ao módulo da força externa do rotor de Jeffcot/Laval quando este estiver na velocidade crítica (condição que ocorrerá o maior deslocamento no eixo). Ou seja, da equação (1) e da equação (4), é possível determinar Io como Km. I o2 xo2 = M .a.w n2 w n2 = K M ¾¾ ¾ ® I o = xo . a.K Km FIGURA 4 Resposta ao desbalanço do Rotor de Jeffcot/Laval fictício (11) Substituindo-se os valores de a, K, Km e xo, determinase a corrente Io como sendo 1,5A. Determinação de G(s): Sendo assim, substituindo-se os valores de xo, Io, Km, M, K e C na eq. (9), G(s) será dado por G (s) = 0,009.Gsen sor -6 1,687.10 .s 2 + 1,7.10 - 4 .s + 2,475 Inicialmente, suponha que o ganho do sensor seja 1. A Figura 5 mostra o diagrama de Bode de G(s), correspondente. Todos esses resultados foram gerados no software Matlab/Simulink FIGURA 5 Diagrama de Bode de G(s) com Gsensor = 1. Pode ser observado que wn » 1400 rad/s Como pode ser observado, o traçado de Bode está atenuado de 48 dB. Desta forma, será possível determinar o ganho do sensor como sendo 20. log10 (Gsen sor ) = 48 Þ Gsen sor = 10 20 @250 Sendo assim, com Gsensor = 250, G(s) será G (s) = 32 48 2,25 -6 2 1,687.10 .s + 1,7.10 - 4 .s + 2,475 (12) REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34 SISTEMAS DE ARMAS E MUNIÇÕES O novo diagrama de Bode é apresentado na Figura 6. FIGURA 6 Diagrama de Bode de G(s) com Gsensor = 250 Cálculo do compensador série de avanço de fase Uma vez obtida a função de transferência do sistema completo, é possível calcular o compensador série de avanço de fase. Várias são as técnicas para se realizar um projeto de controle, como por exemplo: H ∞, controle adaptativo, controle robusto, ajustes dos parâmetros de um controlador PID, compensação em avanço, etc... Como o objetivo desse trabalho não é realizar uma discussão aprofundada sobre as técnicas de projeto de controle, optou-se por realizar um projeto de um compensador série de avanço de fase, seguindo um roteiro prático apresentado pela literatura clássica de controle [5]. Uma função de transferência genérica para um compensador série de avanço de fase é dada por H (s) = k. (s + z) ( s + p) Basicamente, o roteiro de estimativa de projeto de um controlador série de avanço de fase estabelece que a máxima fase do compensador tem que estar sincronizada com o pico de ressonância da planta. Para garantir esse sincronismo, basta fixar o pólo e o zero como sendo z= wn 10 e p = w n . 10 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34 O valor de k será ajustado durante as simulações em malha fechada. Na Figura 7, são apresentados os diagramas de ganho da planta e ganho e fase do compensador de avanço de fase. FIGURA 7 Idéia básica do compensador série avanço de fase [5]. Portanto, já foi visto que, para o Rotor de Jeffcot/ Laval adotado, ωn ≈ 1400 rad/s. Logo, uma primeira estimativa para H(s) é H (s) = k. ( s + 440) ( s + 4400) Na Figura 8, apresenta-se um diagrama de blocos para o sistema em malha fechada que será utilizado para o ajuste de H(s). FIGURA 8 Diagrama de blocos do sistema em malha fechada A função de transferência em malha fechada do sistema completo, rotor Jeffcot/Laval, atuador magnético e compensador série é dada por r (s) G (s) = x( s ) 1 + G ( s ).H ( s ) 33 CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES Logo, como já foram estabelecidos G(s) e uma estimativa de H(s), um programa no Matlab/Simulink foi implementado para se ajustar o k do compensador quando se realiza a análise do sistema completo em malha fechada. Os gráficos seguintes são resultados do programa acima. Desta forma, após diversas simulações, foi possível estimar o valor de k = 1. Com isso, o compensador série de avanço de fase foi projetado. A implementação física desse compensador pode ser feita com componentes analógicos ou utilizando-se de técnicas digitais. CONCLUSÃO Este trabalho apresentou uma técnica de atenuação de passagem pela velocidade crítica para um Rotor de Jeffcot/Laval utilizando atuadores magnéticos. Para esse rotor adotado, houve uma atenuação de 11dB na resposta ao desbalanço quando colocado em malha fechada com o compensador série de avanço de fase calculado. FIGURA 9 Diagrama de Bode do Compens Como pôde ser observado, focaram-se apenas alguns dos aspectos relevantes. Vale a pena ressaltar que a técnica aqui descrita, para atenuação da vibração, pode ser aplicada no caso de sistemas mais complexos, que incluam, por exemplo, a modelagem do acoplamento entre os eixos. REFERÊNCIAS 1. RAO, J.S., “Rotor Dynamics”, Willey Eastern, 1984; 2. BLEULER, H., “Decentralized Control of Magnetic Rotor Bearing Systems”, A dissertation submitted to the Swiss Federal Institute of Technology, Zürich, for the degree of Doctor of Technical Sciences, 1984. 3. WEBER, Hans I., “Tópicos especiais em dinâmica de Máquinas – Dinâmica de Rotores”, Apostila do Departamento de Eng. Mecânica da Unicamp, 1976. 4. PEREIRA, J.C., “Introdução à Dinâmica de Rotores”, Apostila do Departamento de Engenharia Mecânica da UFSC, Florianópolis, 2003. 5. OGATA, K, “Engenharia de Controle”, 2a edição, Prentice Hall, 1993. FIGURA 10 Diagrama de Bode comparativo entre o sistema em malha aberta e o sistema em malha fechada. Observa-se uma atenuação da amplitude de ressonância de 11 dB. 34 6. PORSCH, M.C, “Projeto de um sistema de controle para um Rotor apoiado por mancais magnéticos”, Tese de Mestrado, PoliUSP/Elétrica, 1996. 7. ALVES, J.S.; Betti, F; Pierri, P.S.; Porsch, M.C., “Sistemas de Controle para mancais magnéticos Ativos”, I Simpósio de Automática Aplicada, São Paulo, 1996. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34 35 CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO Análise de métodos para a classificação de sinais acústicos submarinos utilizando tons característicos Cleide Vital da Silva Rodrigues Instituto de Pesquisas da Marinha (IPqM) E-mail: [email protected] William Soares Filho Instituto de Pesquisas da Marinha (IPqM) E-mail: [email protected] Resumo Este trabalho apresenta a aplicação de métodos para a classificação de sinais acústicos submarinos, utilizando as freqüências dos tons característicos e a rotação por minuto (RPM) dos eixos propulsores para cada corrida da plataforma. Os métodos utilizados se baseiam na função de distância e nas redes neurais artificiais. Estes métodos foram aplicados a um conjunto de sinais provenientes de navios pertencentes a sete classes distintas contendo vários tons característicos. Classificadores foram obtidos para identificar diferentes números de classes e de tons e seus desempenhos comparados. Palavras-chave Sonar passivo. Classificação. Redes neurais. Tons característicos. Sinais acústicos submarinos. Analysis of methods for the classification of underwater acoustic signals using characteristic tonals Abstract This work presents the application of neural networks for the classification of underwater acoustic noise radiated from several vessels using frequencies of characteristic tonals and revolutions per minute (RPM) of the propeller shafts from each vessel run. The neural network implemented is the multilayer perceptrons with backpropagation training and hyperbolic tangent activation functions. This method was applied to the data set which consisted of samples for seven different classes with several characteristic tonals. Neural classifiers studied were obtained for the classification of different number of classes and tonals and their performances were compared. keywords Passive sonar. Classification. Neural networks. Characteristic tonals. Underwater acoustic signals. INTRODUÇÃO Em um sistema de classificação de contatos, a disponibilidade de ferramentas adequadas para auxiliar o operador sonar (OS) é de extrema importância. Informações obtidas pelas análises LOFAR (LOw Frequency Analysis and Recording), DEMON (DEModulation On Noise) e Áudio possibilitam ao OS identificar a classe à qual pertence a plataforma. A associação automática entre as informações obtidas por estas análises e as obtidas no passado aumenta a rapidez e a confiabilidade com que o OS toma suas decisões [1-4]. O sistema de classificação (SCC 1 – Sistema de Classificação de Contatos Sonar), atualmente empregado na MB, disponibiliza, além das análises LOFAR, DEMON e Áudio, uma ferramenta de classificação automática baseada em redes neurais, que utiliza o espectro, em toda a banda de freqüência, obtida pela análise LOFAR. Para o aprimoramento deste sistema, uma alternativa é a obtenção de uma ferramenta capaz de estabelecer uma relação entre as freqüências dos tons característicos, obtidos através da análise LOFAR, e a RPM dos eixos propulsores, obtida pela análise DEMON do ruído de um contato. Neste trabalho, investigaremos possíveis classificadores, tendo como dados de entrada as freqüências de tons característicos e a RPM dos eixos propulsores extraídas do ruído de uma plataforma. Através dos gráficos Freqüência X RPM, constatouse a existência de padrões entre a freqüência e a RPM para cada uma das classes. Determinados tons apresentam freqüências que podem estar relacionadas com a rotação, estando, provavelmente, associados às máquinas de propulsão dos navios. As metodologias empregadas baseiam-se em uma função de distância e em redes neurais. Na primeira, uma função baseada na distância aos segmentos de retas ajustados aos padrões existentes de cada classe foi considerada para 1 36 SCC – Sistema desenvolvido com recursos provenientes do CASOP. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42 AMBIENTE OPERACIONAL identificar a classe do navio. Neste caso, a métrica utilizada foi a distância euclidiana. A outra metodologia empregada baseou-se em uma rede perceptrons em multicamadas tendo treinamento do tipo backpropagation e funções de ativação tangente hiperbólica. Foram analisadas as classificações feitas por estas metodologias com diferentes quantidades de tons e de classes e seus desempenhos foram comparados. O conjunto de dados utilizado é formado por corridas obtidas em uma região com baixo nível de ruído ambiental (raia acústica) e profundidade aproximada de 40 metros. Várias corridas foram executadas por navios pertencentes a sete classes distintas, sendo que, para cada corrida, o navio utilizava diferentes configurações de máquinas e velocidades [5]. O presente trabalho está dividido da seguinte maneira: primeiramente, apresenta-se o conjunto de dados utilizados; em seguida, descreve-se os classificadores obtidos com base em uma função de distância e em uma rede neural; prossegue-se com a apresentação dos resultados obtidos com o uso dos classificadores com base na função de distância e em redes neurais; e, finalmente, apresenta-se as conclusões. CONJUNTO DE DADOS O sinal acústico, proveniente de um contato, que chega nos receptores de um sonar é constituído de uma variedade de fontes sonoras associadas, entre outras, com a maquinaria do navio. Este sinal freqüentemente é processado no domínio da freqüência onde certas características espectrais do contato podem ser visualizadas com mais detalhes, auxiliando na identificação da classe do navio. Um destes processamentos é o lofargrama, que apresenta a energia do sinal em cada freqüência ao longo do tempo. Através desta análise é possível identificar fontes sonoras individuais, como por exemplo, turbinas, geradores, etc. As máquinas dos navios produzem tons característicos que, no lofargrama, são visualizados como linhas espectrais. Estas linhas espectrais podem apresentar variações na freqüência e na largura das linhas e nas condições de estabilidade em freqüência e persistência no tempo. Outro processamento é o REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42 demongrama, que permite obter informações sobre a rotação e número de pás do eixo de propulsão e número de eixos do sistema de propulsão através da demodulação do ruído de cavitação. O conjunto de dados utilizado neste trabalho consiste de corridas com diferentes configurações de máquinas e velocidade de navios pertencentes a 7 classes diferentes. As classes dos navios foram identificadas por uma letra maiúscula de A a G. Estas corridas consistem da passagem do navio sob um sensor colocado no fundo do mar em uma raia acústica. Para cada corrida realizada por um navio com uma determinada configuração de máquinas e velocidade, foram obtidos seus lofargramas e demongramas. De cada lofargrama foram obtidas, quando existentes, as freqüências predominantes e do demongrama correspondente, foi obtida a rotação do eixo (RPM). Os dados são compostos então pelas freqüências dos tons característicos e pela RPM obtidas em cada corrida. Devido à limitação do sensor do submarino que usará estes dados, considerou-se apenas freqüências acima de 200Hz. A Figura 1 apresenta exemplos de lofargrama e demongrama. Observa-se que no lofargrama é possível visualizar não apenas uma, mas várias freqüências predominantes em uma mesma corrida. No demongrama, a primeira linha espectral caracteriza a freqüência fundamental, correspondendo à rotação do eixo (RPM), e as adjacentes, seus harmônicos. A associação das informações obtidas em cada uma destas análises possibilita estabelecer padrões característicos que identificam a plataforma ou a classe à qual estes padrões pertencem. Os dados foram utilizados para avaliar o desempenho de ferramentas utilizando diferentes métodos de classificação. Para isto, foram separados em conjuntos de treinamento e de teste. A Figura 2 apresenta a freqüência dos tons característicos versus a RPM para todas as corridas pertencentes ao conjunto de treinamento. Observa-se que alguns dados formam linhas com uma relação linear entre a freqüência e a RPM, enquanto outros formam linhas em que a freqüência não varia com a RPM. A região de 2002800 Hz e 60-160 RPM concentra a maioria das amostras. Nas classes A, B, D, E e G, a rotação dos 37 CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO eixos variou apenas até cerca de 200 RPM, enquanto que para as classes C e F, ficou entre 200 e 550 RPM. A Tabela 1 apresenta, para cada classe, a quantidade de corridas usadas no treinamento e no teste dos classificadores, segundo o número de tons presentes. FIGURA 2 Gráfico dos tons característicos para cada classe FIGURA 1 Exemplo de (a) lofargrama e (b) demongrama. Nos conjuntos de treinamento e teste para 1 tom, foi considerada como amostra o par de valores correspondentes a cada freqüência predominante de cada corrida do conjunto e a RPM daquela corrida. Para os conjuntos com 2 tons, considerou-se como amostra a combinação de 2 tons dentre os n tons existentes na corrida (n≥2), sem levar em conta a ordem, e a RPM da corrida. A Tabela 2 apresenta a quantidade de amostras provenientes das combinações dos tons presentes em cada corrida de cada classe para os conjuntos de treinamento e de teste. Para treinar a rede neural, o conjunto de treinamento foi equilibrado e misturado. TABELA 1 Número de corridas usadas no treinamento e no teste conforme o número de tons. Classe A B C D E F G Total 38 1 29 11 35 14 13 6 1 109 Corridas para treinamento Número de tons 2 3 4 5 >6 14 8 7 1 0 11 20 17 13 18 12 5 1 1 0 24 22 21 6 3 12 4 2 5 1 6 4 0 0 0 9 4 0 0 0 88 67 48 26 22 Total 59 90 54 90 37 16 14 360 1 53 4 11 11 11 1 0 180 Corridas para teste Número de tons 2 3 4 5 >6 35 16 5 1 0 4 11 11 6 12 10 6 0 0 0 7 11 9 6 4 2 5 1 1 1 4 3 0 0 0 4 2 1 0 0 66 54 27 14 17 Total 110 50 27 48 21 8 6 270 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42 AMBIENTE OPERACIONAL TABELA 2 Número de amostras dos conjuntos de treinamento e de teste segundo o número de tons. Classe A B C D E F G Total Conjunto de treinamento Total Número de tons 1 2 113 344 83 275 88 30 31 964 86 634 42 383 101 18 21 1285 199 978 125 658 189 48 52 2249 METODOLOGIAS EMPREGADAS Neste trabalho, duas metodologias foram investigadas para auxiliar na identificação da classe do navio através dos tons característicos e RPM. A primeira metodologia baseia-se em uma função de distância e a segunda, utiliza uma rede neural. Função de distância Esta metodologia consistiu em agrupar, para cada uma das classes, os pontos dos gráficos Freqüência X RPM, formando segmentos de reta, caracterizando os padrões existentes em cada classe. Estes segmentos correspondem a tons com freqüências fixas para as diversas corridas com diferentes RPM, ou então tons cujas freqüências têm relação linear com a rotação, estando, provavelmente, associados às máquinas de propulsão dos navios. No primeiro caso, o segmento será horizontal (freqüência constante) e, no segundo, será um segmento com uma inclinação que indica a relação entre a rotação e a freqüência. A Figura 3 apresenta os segmentos obtidos para as diversas classes estudadas, utilizando-se o conjunto de treinamento. Estes segmentos serão usados para a classificação, de forma que, para um dado ponto, a classe selecionada é aquela correspondente ao segmento de reta mais próximo a este ponto. No caso da classificação usando-se dois tons, seleciona-se os segmentos mais próximos a cada um deles e, destes dois segmentos, o que tiver a menor distância indica a classe escolhida. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42 Conjunto de teste Número de tons Total 1 2 53 119 49 121 38 18 18 416 35 163 28 148 33 13 16 436 88 282 77 269 71 31 34 842 Redes Neurais Artificiais A rede neural implementada foi uma rede perceptrons em multicamadas, tendo treinamento do tipo backpropagation e funções de ativação tangente hiperbólica. A arquitetura da rede neural, apresentada na Figura 4, consistiu de duas camadas além da camada de entrada. Foram implementadas várias redes neurais, considerando como entrada 2 e 3 neurônios para a investigação das situações em que se deseja selecionar, de 1 ou 2 tons, respectivamente. A camada de saída teve o número de neurônios definido de acordo com o número de classes selecionadas para a identificação. A notação considerada neste trabalho para cada classificador neural foi (nnce: nnci:nncs), onde nnce, nnci e nncs são os números de neurônios nas camadas de entrada, intermediária e de saída, respectivamente. A classe vencedora corresponde ao neurônio de saída com maior valor. FIGURA 3 Segmentos de retas característicos das classes. 39 CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO obteve a menor porcentagem de acerto, ficando próximo de 50%. FIGURA 4 Arquitetura da Rede Neural RESULTADOS Esta seção apresenta os resultados da aplicação dos classificadores descritos anteriormente para a identificação de 4 e 7 classes, utilizando-se 1 e 2 tons para a classificação. Os conjuntos de treinamento e de teste foram usados para avaliar o desempenho dos algoritmos de classificação propostos. Para cada metodologia, construiu-se as matrizes de confusão, considerando-se separadamente o conjunto de treinamento e o conjunto de teste. No caso do classificador neural, foram considerados dois tipos de avaliação quando se usa um conjunto de 2 tons: no primeiro, os dois tons mais a RPM correspondente são usados em uma rede treinada com dois tons mais a RPM; no segundo, cada tom mais a RPM correspondente são usados em uma rede treinada com apenas um tom e a RPM, e a classe vencedora corresponde à saída com maior valor nas duas redes. A Tabela 3 mostra os resultados obtidos na aplicação da função de distância e redes neurais, para os conjuntos de treinamento e de teste. No caso dos classificadores utilizando função de distância, os resultados obtidos para as classes C, E e F apresentaram uma porcentagem de acertos acima de 73%, enquanto os das classes A, B, D e G ficaram acima de 50%. O uso de 2 tons provocou um aumento de mais de 20 pontos percentuais na probabilidade de acerto das classes A e F. Em compensação, o acerto para a classe G caiu em cerca de 10 pontos percentuais, enquanto que para as outras classes houve variação de um máximo de 5 pontos percentuais. A classe D foi a que 40 O resultado obtido com o classificador neural, utilizando 2 neurônios na entrada (1 tom + RPM), apresentou valores percentuais de acertos sempre acima de 77% para as classes C, F e G. A classe D novamente apresentou as piores probabilidades de acertos. Nas classes A, B e F, as probabilidades de acertos aumentaram quando o número de tons selecionados cresceu. As classes C e G conservaram seus percentuais de acertos independentes do número de tons selecionados. O classificador com 3 neurônios na entrada (2 tons + RPM) apresentou pior resultado para todas as classes quando comparado com o de 2 neurônios. As classes C, F e G novamente apresentaram valores percentuais de acertos sempre acima de 77%. Em uma situação que se conheça, de antemão, as classes que irão participar de um exercício contra um submarino, pode-se usar apenas estas classes na classificação. A Tabela 4 apresenta as matrizes de confusão para os conjuntos de treinamento e de teste e para 1 e 2 tons, considerando-se a participação apenas das classes A, B, E e G, simulando aquela situação. Neste caso, todas as porcentagens de acertos para o classificador, usando a função de distância com 1 tom, ficaram acima de 65% para o conjunto de teste. A classe G apresentou acertos acima de 85%, quando usada junto com as classes A, B e E, e 56%, quando usada junto com as classes A, B, C, D, E e F. Esta redução se deveu, provavelmente, à ambigüidade com a classe D. A classificação com 2 tons aumentou a probabilidade de acerto destas 4 classes, sendo que a classe A conseguiu mais do que 15 pontos percentuais para o conjunto de teste, enquanto para as outras classes houve acréscimo de, no máximo, 5 pontos percentuais. No classificador neural para 1 tom, a classe G ficou com 100% de percentual de acerto para o conjunto de teste, enquanto as outras classes mantiveram os resultados obtidos quando todas as classes foram comparadas, atingindo, no máximo, 63% para a classe B e, no mínimo, 49% para a classe A. No classificador neural para 2 tons, as classes B e G apresentaram porcentagens de acerto acima de 80%. A classe A apresentou a pior porcentagem de acerto, obtendo 37%. O uso de 2 tons provocou um acréscimo de REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42 AMBIENTE OPERACIONAL cerca de 20 pontos percentuais na probabilidade de acerto da classe B e um decréscimo de 12 pontos na da classe A. De uma maneira geral, os dados de tons e RPM podem ser combinados facilmente para a classificação de um subconjunto das classes disponíveis. Pode-se, também, combinar outros critérios que permitam subdividir o sistema em mais de um classificador. No caso presente, por exemplo, observa-se que as classes C e F têm RPM sempre superiores às das demais classes. Pode-se, assim, testar inicialmente a RPM e, então, direcionar os dados dos tons e RPM para um classificador contendo as classes C e F ou para outro contendo as classes A, B, D, E e G, dependendo da RPM. CONCLUSÕES Este trabalho apresentou a identificação de sete classes de navios, utilizando as freqüências de tons característicos e a RPM, obtidas a partir da análise do r uído de uma plataforma. Foram projetados classificadores baseados em uma função de distância e em redes neurais, para situações em que o operador pudesse selecionar até 2 tons para identificar a classe do navio. Os resultados obtidos utilizando os classificadores baseado em uma função de distância, apresentaram percentuais maiores do que os baseados em redes neurais, exceto para a classe G. O resultado obtido utilizando 2 tons apresentou melhores percentuais de acertos do que usando apenas 1 tom. TABELA 3 Matriz de confusão do conjunto de treinamento (parênteses) e de teste considerando de 1 a 2 tons para todas as classes em porcentagem. B C D E F Classificador utilizando função de distância 60 (55) 5 (19) 0 (0) 10 (4) 25 (22) 0 (0) 63 (67) 7 (6) 0 (0) 6 (7) 23 (20) 0 (0) 94 (94) 0 (0) 0 (0) 0 (4) 0 (0) 6 (2) 55 (57) 19 (13) 15 (18) 11 (11) 9 (0) 0 (0) 73 (76) 0 (3) 25 (19) 0 (0) 2 (2) 0 (0) 78 (87) 5 (6) 0 (0) 11 (3) 6 (3) 0 (0) 0 (3) 5 (3) 0 (0) 28 (13) 0 (4) 0 (0) 81 (62) 5 (12) 0 (0) 2 (1) 12 (25) 0 (0) 65 (73) 6 (6) 0 (0) 6 (3) 22 (17) 0 (0) 93 (91) 0 (0) 0 (0) 0 (2) 0 (0) 7 (7) 50 (58) 17 (10) 22 (18) 10 (10) 0 (0) 0 (0) 77 (91) 0 (0) 19 (9) 0 (0) 4 (0) 0 (0) 100 (100) 0 (0) 0 (0) 0 (0) 0 (0) 0 (0) 0 (5) 6 (5) 0 (0) 38 (19) 0 (0) 0 (0) Classificador usando rede neural com 1 freqüência e a RPM 43 (51) 9 (18) 0 (0) 9 (8) 21 (14) 0 (0) 64 (62) 7 (5) 0 (0) 4 (7) 18 (18) 1 (0) 94 (98) 0 (0) 0 (0) 0 (0) 0 (0) 6 (2) 40 (55) 10 (11) 7 (9) 0 (0) 10 (8) 2 (1) 53 (58) 16 (11) 8 (9) 3 (0) 5 (4) 0 (0) 78 (97) 0 (0) 0 (0) 22 (3) 0 (0) 0 (0) 6 (3) 0 (0) 0 (0) 6 (0) 0 (0) 0 (0) 66 (60) 8 (23) 0 (0) 0 (3) 9 (7) 0 (0) 73 (71) 4 (1) 0 (0) 5 (5) 16 (13) 0 (0) 96 (100) 0 (0) 0 (0) 0 (0) 0 (0) 4 (0) 30 (43) 11 (10) 9 (12) 0 (0) 8 (9) 0 (0) 55 (61) 3 (14) 12 (7) 0 (0) 6 (0) 0 (0) 85 (100) 0 (0) 0 (0) 15 (0) 0 (0) 0 (0) 0 (0) 0 (0) 0 (0) 12 (0) 0 (0) 0 (0) Classificador usando rede neural com 2 freqüências e a RPM 29 (59) 17 (9) 0 (0) 11 (6) 20 (13) 0 (0) 69 (68) 6 (6) 0 (0) 10 (7) 12 (17) 1 (0) 93 (98) 0 (0) 0 (0) 0 (2) 0 (0) 0 (0) 47 (58) 13 (3) 6 (12) 0 (0) 12 (9) 0 (0) 42 (58) 0 (8) 24 (10) 0 (0) 0 (6) 0 (0) 77 (88) 0 (0) 0 (0) 23 (12) 0 (0) 0 (0) 0 (0) 0 (0) 0 (5) 12 (0) 0 (0) 0 (0) A 1 Tom 2 Tons 1 Tom (2:300:7) 2 Tons (2:300:7) 2 Tons (3:350:7) A B C D E F G A B C D E F G A B C D E F G A B C D E F G A B C D E F G REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42 G 0 (0) 1 (0) 0 (0) 1 (1) 0 (0) 0 (0) 67 (77) 0 (0) 1 (1) 0 (0) 1 (4) 0 (0) 0 (0) 56 (71) 16 (9) 6 (8) 0 (0) 31 (16) 15 (18) 0 (0) 88 (97) 17 (7) 2 (10) 0 (0) 42 (26) 24 (18) 0 (0) 88 (100) 23 (13) 2 (2) 7 (2) 34 (18) 33 (18) 0 (0) 88 (95) 41 CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO TABELA 4 Matriz de confusão do conjunto de treinamento (parênteses) e de teste considerando o conjunto com as classes A, B, E e G em porcentagem. A B E G Classificador utilizando função de distância A 66 (58) 7 (19) 25 (23) 2 (0) 65 (69) 1 Tom B 8 (8) 25 (23) 2 (0) 73 (77) E 0 (3) 25 (19) 2 (1) 89 (87) G 0 (3) 6 (3) 5 (7) 83 (63) A 5 (11) 12 (26) 0 (0) 67 (74) 2 Tons B 9 (6) 23 (19) 1 (1) 77 (91) E 0 (0) 19 (9) 4 (0) 94 (90) G 0 (5) 6 (5) 0 (0) Classificador usando rede neural com 1 freqüência e a RPM 49 (71) A 2 (4) 32 (15) 17 (10) 63 (63) 1 Tom B 8 (5) 13 (12) 16 (20) (2:100:4) 50 (51) E 16 (32) 13 (7) 21 (10) 100 (97) G 0 (3) 0 (0) 0 (0) 37 (69) A 6 (3) 37 (17) 20 (11) 70 (72) 2 Tons B 12 (3) 7 (4) 11 (21) (2:100:4) 36 (43) E 10 (40) 15 (5) 39 (12) 100 (100) G 0 (0) 0 (0) 0 (0) Classificador usando rede neural com 2 freqüências e a RPM 37 (64) 9 (6) 40 (25) 14 (5) A 82 (80) 2 Tons B 1 (3) 11 (13) 6 (4) (3:200:4) 52 (77) E 12 (9) 24 (10) 12 (4) 100 (100) G 0 (0) 0 (0) 0 (0) Observou-se que para todas as metodologias, a classe C ficou com valores percentuais de acerto sempre acima de 93% e os da classe F, maiores do que 77%. Os piores percentuais de acerto foram obtidos para a classe D, sempre abaixo de 55%. As vantagens das metodologias empregadas neste trabalho estão na simplicidade, robustez e familiaridade do operador com os parâmetros considerados. Os métodos podem ser combinados com outros critérios que considerem, por exemplo, a probabilidade de uma dada classe ter uma certa RPM, de forma a reduzir os erros. Sugere-se que sejam feitos estudos detalhados, visando verificar se os tons característicos e a RPM poderiam ser usados para identificar uma unidade dentro da classe escolhida. As relações considerando a largura, estabilidade e persistência da linha espectral devem, também, ser investigadas. Os dados utilizados para este desenvolvimento foram obtidos com uma relação sinal-ruído alta, além de não possuir ruído 42 próprio. Um futuro trabalho deve ser feito com dados obtidos em situações de operações reais. REFERÊNCIAS 1. URICK, R. J., Principles of Underwater Sound. McGraw-Hill, 1983. 2. NIELSEN, R.O., Sound Signal Processing. Artech House, 1991. 3. BURDIC, W., Underwater Acoustic System Analysis. Englewood Cliffs, NJ, Prentice-Hall, 1984. 4. SOARES-FILHO, W., Classificação do ruído irradiado por navios usando redes neurais. Tese de doutorado, COPPE-UFRJ, 2001. 5. RODRIGUES, C.V.S. e SOARES-FILHO, W., Classificação dos sinais acústicos submarinos utilizando tons característicos. Anais do VII Simpósio de Pesquisa Operacional e Logística da Marinha, 103-111, 2004. 6. ROSS, D., Mechanics of Underwater Noise, Peninsula Publising, 1987. 7. SOARES-FILHO, W., e RODRIGUES, C.V.S., O uso de perceptrons em multicamadas na classificação dos sinais acústicos submarinos utilizando tons. VIII Simpósio de Pesquisa Operacional e Logística da Marinha, 2005. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42 AMBIENTE OPERACIONAL Possibilidade de catástrofe no arquipélago de São Pedro e São Paulo e suas implicações sobre a soberania do mar brasileiro Capitão-de-Corveta (T) David Canabarro Savi Instituto de Estudos do Mar Almirante Paulo Moreira E-mail: [email protected] Susanna Eleonora Sichel Universidade Federal Fluminense E-mail: [email protected] Resumo O Arquipélago de São Pedro e São Paulo está localizado sobre uma falha geológica ativa (sujeito a terremotos), em alto mar, a 1000 km da costa, constituindo o único arquipélago marinho brasileiro no hemisfério norte. Devido a sua pequena área e principalmente baixa altitude, é frequentemente assolado pelas ondulações de mau tempo. Atualmente, o arquipélago é centro de atenções no que se refere à delimitação da Zona Econômica Exclusiva (ZEE) brasileira. Face à legislação em vigor, sua permanente ocupação sustenta um ganho de 430 mil km² na ZEE brasileira. O objetivo deste trabalho é avaliar as possibilidades de catástrofes no local e suas conseqüências sobre os direitos da ZEE do arquipélago. Palavras Chave Arquipélago de São Pedro e São Paulo; Soberania do mar brasileiro; Terremotos no mar. Catastrophes possibility in São Pedro e São Paulo archipelago and its implications over brazilian sea sovereignty Abstract São Pedro e São Paulo Archipelago is located on active geologic fissure far 1000km of the coast, constituting the unique marine archipelago of Brazil in the North hemisphere. Due to its small area and principally low altitude it is frequently assolado by waves of bad weather. Hitherto the archipelago is the centre of attention in relation of delimitation of the Brazilian Exclusive Economic Zone (ZEE). The current law determine its occupation permanent maintaining a gain of 430,000 km² in the Brazilian ZEE. The aim of this paper is to estimate the catastrophe possibilities at the local and their consequences on the prerogative of the archipelago ZEE. INTRODUÇÃO O título deste trabalho é a questão chave que será respondida, mas, inicialmente, é necessário entender a questão. O Arquipélago de São Pedro e São Paulo, doravante citado pela sigla ASPSP, é um aglomerado de rochedos que afloram no alto-mar, no Atlântico equatorial, nas coordenadas Latitude 00º 56’ N e Longitude 029º22’W, a cerca de 1000 km da costa do estado do Rio Grande do Norte, no litoral brasileiro, e 1900 km da costa do Senegal, no oeste da África. É uma zona geologicamente instável e, pela baixa altitude, muito suscetível a ressacas. Por sua localização isolada, em meio a rota marítima Europa-América do Sul, representa um perigo para a navegação, minimizado pela presença de um farol (5:21). O ASPSP integra a área denominada Amazônia Azul1 – “A essa extensão Atlântica, que se projeta para além do litoral e das ilhas oceânicas, e corresponde a cerca de metade da superfície do Brasil, se tem chamado de Amazônia Azul” (10:18). Esta é a zona pleiteada pelo Brasil nas Nações Unidas, equivalente a 4.450.000 km² (Figura 1), a seguir, sendo uma faixa paralela à costa brasileira com 200 Milhas Náuticas (MN) de largura ou mais (nos excessos da platafor ma continental), acrescidos pelas zonas de Trindade, Fernando de Noronha e do ASPSP. Esta faixa é definida como Zona Econômica Exclusiva, acrescida por zonas pleiteadas como Plataforma Continental, conceituadas na Convenção das Nações Unidas sobre o Direito do Mar (CNUDM), da qual o Brasil é signatário. A CNUDM, em seu artigo 121, reconhece como ilha somente porções de terra cercadas por mar, que sejam habitadas, e onde se desenvolva alguma atividade econômica. Aos rochedos, penedos e porções de terra desabitadas Keywords A expressão foi usada, originalmente, pelo Comandante da Marinha, em “Tendências/Debates; A outra Amazônia”, folha de São Paulo, 26/02/2004 in Amazônia Azul – O mar que nos pertence. 1 São Pedro e São Paulo Archipelago; Brazilian sea sovereignty; sea earthquakes. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49 43 CAPITÃO-DE-CORVETA (T) DAVID CANABARRO SAVI, DRª. SUSANNA ELEONORA SICHEL e/ou inexplorados comercialmente, a CNUDM reconhece o direito a Mar Territorial, ou seja, o direito a soberania de 12 milhas náuticas a partir da linha de base da costa, não tendo direito à Zona Econômica Exclusiva (ZEE) nem à Plataforma Continental (PC). Entretanto, as ilhas como conceituadas acima tem direito a Mar Territorial (MT), ZEE e PC (8:103). Portanto, quando da criação do Programa Arquipélago (Pró-Arquipélago) da Secretaria da Comissão Interministerial para os Recursos do Mar –SECIRMO.M. de Marinha, em 1996, houve a elevação dos então Penedos de São Pedro e São Paulo à categoria de Arquipélago. A partir de 1998, com ocupação sistemática através do revezamento de pesquisadores em uma estação científica construída na ilha Belmonte (a maior do Arquipélago – Figura 2) (9:06) e a realização de estação de pesca contínua, o Brasil ganhou direito de pleito a uma área de aproximadamente 429.463 Km², que é a área da ZEE menos a área do MT. Este cálculo simples, usando a área do círculo (pr²) é uma aproximação, pois o cálculo correto resulta em valores maiores, já que leva em conta a curvatura da terra. A área do ASPSP constitui cerca de 10% da área da Amazônia Azul. FIGURA 1 Amazônia Azul, fonte defesa.net Nestes oito anos de habitação contínua do arquipélago, houve dois eventos oceanos-meteorológicos que tiveram grande impacto destrutivo na estação (1999 e 2006), além de vários registros de sismos de pequena magnitude e, pela atuação danificadora das ondas, foi construída uma antepara de madeira para atenuação dos efeitos de ondas sobre a estação científica. GEOLOGIA DO ASPSP A origem geológica do Arquipélago deve-se a um singular soerguimento tectônico, com a altitude máxima de 18 metros acima do nível do mar, que, somado às ondulações extremas que episodicamente atingem a ilha, conferem ao local grande fragilidade para ocupação (2:07) e demonstram a coragem, patriotismo e espírito científico daqueles que mantêm habitado o ASPSP, resultando neste ganho territorial inestimável para o futuro da nação. A importância científico-geológica do ASPSP é única. É preciso então entender um pouco desta singularida44 FIGURA 2 Mapa da Área. de. Dá-se o nome de falha geológica, a blocos fraturados onde houve movimento relativo entre os blocos. Assim, quanto ao plano de movimento ou de falha, podemos classificar as falhas como normais, inversas, transcorrentes (Figura 3, a seguir) e, finalmente, as transformantes, um tipo particular que apresenta os movimentos das anteriores misturados. Então, podemos agora imaginar a grande cordilheira REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49 AMBIENTE OPERACIONAL FIGURA 3 Tipos de Falhas Geológicas meso-oceânica, como uma sutura de cesariana contínua por onde nasce o oceano atlântico. Esta cadeia meso-oceânica deu origem a várias ilhas vulcânicas no oceano atlântico, como Ascension, Fernando de Noronha, Tristão da Cunha, Trindade, Martim Vaz, Santa Helena e outras. A cadeia mesooceânica, como sutura geodésica, não é retilínea, ao invés disto, apresenta descontinuidades de orientação E-W ao longo de sua extensão. Estes truncamentos são chamados de falhas transformantes. A que originou nosso arquipélago é chamada de falha de São Paulo ou Zona de Fratura de São Paulo (Figura 4). Simplificando, o fundo marinho foi quebrado (fraturado) e, ao longo da Zona de Fratura de São Paulo, houve uma parte do assoalho marinho que foi projetada para cima, na vertical, atingindo 4000 metros de altura e chegando a superfície do mar. Então, as rochas do ASPSP representam as camadas de subsuperfície do fundo marinho intensamente fraturadas (milonitizadas), porém não fundidas, que ascenderam toda a coluna d’água do oceano profundo, trazendo para a superfície as rochas do manto superior (camada geológica interna abaixo da crosta) preservadas do fundo do Atlântico. Em uma analogia, podemos imaginar um imenso baralho sendo deslocado horizontalmente, mas pressionado, onde quatro cartas vão para cima e uma atinge maior altitude (Figura 5). Com esta explicação, o leitor pode presumir por que o ASPSP é o lugar do Brasil com maior freqüência de terremotos. SUSCEPTIBILIDADE A EVENTOS CATASTRÓFICOS DO ARQUIPÉLAGO Como Encarregado da Divisão de Geologia do Instituto de Estudos do Mar Almirante Paulo Moreira (IEAPM) e pesquisador com Mestrado em Geociências na Universidade Federal do Rio de Janeiro (UFRJ), integrei o Programa Arquipélago no Projeto REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49 FIGURA 4 Falha transformante de São Paulo (2:02). FIGURA 5 Fatia transversal a falha transformante (2:06). “Integração dos Processos Tectônicos, Geoquímicos e Geomicrobiológicos atuantes nas rochas mantélicas do ASPSP, Atlântico equatorial”, coordenado pela Dra. Susanna Eleonora Sichel, da Universidade Federal Fluminense (UFF). Realizei o 22º treinamento préarquipélago, na Base Naval de Natal (fevereiro de 2006), e estava escalado para a 210º expedição, com rendição da equipe 209º em 18 de junho de 2006 e permanência até 02 de julho, configurando os quinze dias padrão das equipes científicas, que vão se revezando desde o início do Programa (9:07) (Figura 6a, a seguir). Entretanto, no dia 7 de junho, enquanto trabalhava em Alcatrazes, fui informado que a estação havia sido parcialmente destruída e os pesquisadores resgatados, devido a uma forte ressaca que atingiu o ASPSP entre os dias 5 e 7 de junho de 2006 (Figura 6b, a seguir). Procedi a uma averiguação do trend de ondas que atingiu a região, solicitando a colaboração do colega CC – (EN-RM1) PICCININI, que possui mestrado no assunto. Ele analisou que as ondas incidentes no período da ressaca foram anormalmente grandes, em relação ao histórico e à onda centenária 45 CAPITÃO-DE-CORVETA (T) DAVID CANABARRO SAVI, DRª. SUSANNA ELEONORA SICHEL FIGURA 6A ASPSP condições normais FIGURA 6B ASPSP 6/06/06 da área. Foi reportado pelo pessoal da SECIRM, que este evento foi maior que o de 1999, que danificou a estação (4:01). Os danos causados pelo evento na Estação Científica do ASPSP tornaram o local temporariamente inabitável, e as expedições científicas foram adiadas sem previsão de data; não obstante o prejuízo na execução do projeto que participo, metade do título deste trabalho mostrou-se factível, salientando que os temas foram escolhidos em março deste ano. O tema desta Monografia se pautou pela instabilidade tectônica do local, entretanto, o que sucedeu foi um evento meteorológico oceanográfico! Ou não? Conversando com o CT (AA) CARVALHO, da SECIRM, responsável pelo Programa Arquipélago, demonstrei a ele minha contrariedade, pois a fragilidade tectônica já explicada fora novamente suplantada pela fragilidade a ressacas; foi quando ele me reportou ter recebido informações de sismos que ocorreram simultaneamente com a ressaca, ou até mesmo as tenha gerado. Aí está um fato cientificamente comprovado: a maioria dos terremotos com epicentro (local onde os efeitos do sismo afloram na superfície) submerso geram ondulações na superfície da lâmina d’água (6:15) (Figura 7), que são mais intensas conforme a magnitude do terremoto, medida na escala Richter, e/ou da proximidade com o hipocentro (local em sub-superfície onde ocorre o sismo, isto é, fonte da liberação da energia ou foco). 46 FIGURA 7 Ondulações geradas pelo terremoto de 2004 (6:15). O relato da UnB tem o seguinte teor: “Informo que, pelo horário em que foi relatado o episódio de desabamento de parte da estação de pesquisa em SPSP, tivemos a ocorrência de três sismos na região. A localização dos três sismos encontra-se no anexo desta mensagem. As informações foram fornecidas pelo U.S. Geological Survey. Trata-se de uma localização preliminar dos eventos, sujeita à relocação quando uma quantidade maior de dados sismológicos tiver chegado aos centros de processamento de dados sismológicos, nas instituições internacionais que realizam o trabalho de produção dos catálogos sismológicos. Pelo horário do incidente ocorrido na estação e pela proximidade dos eventos que ocorreram na falha geológica ativa existente nas proximidades da ilha, podemos afirmar que o ocorrido foi certamente relacionado aos sismos citados.” João Willy. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49 AMBIENTE OPERACIONAL 1 o SISMO Magnitude 4.8 Date-Time Monday, June 05, 2006 at 06:18:44 (UTC) – Coordinated Universal TimeMonday, June 05, 2006 at 04:18:44 AM local time at epicenterTime of Earthquake in other Time Zones Location 1.07N 28.17W – Depth: 10 km 2 o SISMO Magnitude 6.0 Date-Time Monday, June 05, 2006 at 06:27:07 (UTC) – Coordinated Universal TimeMonday, June 05, 2006 at 04:27:07 AM local time at epicenterTime of Earthquake in other Time Zones Location 1.17N 28.06W – Depth: 10 km 3 o SISMO Magnitude 5.6 Date-Time Monday, June 05, 2006 at 06:34:31 (UTC) – Coordinated Universal TimeMonday, June 05, 2006 at 04:34:31 AM local time at epicenterTime of Earthquake in other Time Zones Location 1.01N 28.16W – Depth: 10 km Region CENTRAL MID-ATLANTIC RIDGE USGS NEIC (WDCS-D) Source Para entendermos a correlação da magnitude do terremoto que atingiu a área do ASPSP, com seus efeitos percebidos pelos seres humanos, mostramos a tabela abaixo (6:11). FIGURA 8 Distribuição dos terremotos mundiais em 2001. O evento que afetou a Estação Científica do ASPSP em junho deste ano, foi realmente o somatório das forças oceano-meteorológicas e sísmicas, pois a altura de ondas significativas aumentou nos dias seguintes, atingindo 2,40m no dia 8, que é corroborado pelo fato de, ao serem resgatados, os pesquisadores terem saído da ilha a nado, em virtude da altura das ondas do dia 8. A ressaca de 1999 tinha altura significativa de onda de 3 a 4m (Figura 9a, a seguir), mas teve menor impacto na Estação. Outro fato interessante é que a ressaca de 1999 veio do quadrante norte, derivada de um furacão que atingiu o Atlântico norte. A ressaca deste ano (Figura 9b, a seguir) veio do quadrante sul, mostrando que o arquipélago está sujeito a ressacas de direções opostas. O que reduz a exclusividade do evento sísmico foi o período da onda, que tem espaçamento bem menor que as ondas de ressaca de ordem de 15 a 20 segundos, e o fato da ondulação ter vindo de sul, enquanto os sismos foram localizados a leste do ASPSP. O ASPSP E SUAS IMPLICAÇÕES SOBRE A SOBERANIA DO MAR BRASILEIRO Nem todo terremoto é devastador. A maioria dos sismos são de baixa magnitude, mas para termos uma idéia da freqüência de tremores e sua distribuição em intensidade, correlacionando com os que atingiram as proximidades do Arquipélago, podemos observar no gráfico (Figura 8) o número de sismos registrados durante o ano de 2001. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49 O ASPSP é considerado Área de Preser vação Ambiental (APA) desde julho de 1998, sendo, portanto, um local com restrições e ordenamento de uso. A ZEE do ASPSP constitui aproximadamente 10% da Amazônia Azul. Neste aspecto, são vislumbradas todas as expectativas econômicas dos recursos vivos na coluna d’água ou leito marinho. Estes recursos seriam: o pescado de uma área particularmente rica, pois é um atrator natural de peixes e demais animais da biota 47 CAPITÃO-DE-CORVETA (T) DAVID CANABARRO SAVI, DRª. SUSANNA ELEONORA SICHEL FIGURA 9 Altura de ondas significativa. a. ano de 1999; b. ano de 2006. marinha, já que está a centenas de milhas de qualquer ilha ou alto fundo marinho, e os artrópodas de fundo, como caranguejo, lagosta, entre outros (7:158). Os recursos não vivos se concentram em nódulos polimetálicos, como os de Clipperton (jazida submarina explorada por vários países no Oceano Pacífico profundo), e até mesmo a geração de energia, além dos sais explorados economicamente que estão dissolvidos na própria lâmina d’água, como fosfatos, bário, cloretos e magnésio. Com este propósito a resolução 004/97/CIRM, de 3 de dezembro de 1997, aprovou o Programa de Avaliação da Potencialidade Mineral da Plataforma Continental Jurídica Brasileira – REMPLAC, um dos projetos incentivados pelo VI Plano Setorial de Recursos do Mar – PSRM, de 3 de março de 2005. O ASPSP é importante hospedeiro para depósitos minerais como Au, Ni, e de elementos de grupo dos platinóides.. No início da exploração mineral, o homem só reconhecia o bem mineral nativo em quantidade visível macroscopicamente. Com o incremento tecnológico, a exploração passou a ser prospectada à nível de teores. Um exemplo claro é a quantidade de antigas minas fechadas que foram reabertas para explotação de seus antigos refugos. Nas últimas décadas, o homem passou a explorar o petróleo submerso e, atualmente, já está explorando o de mar profundo, bem como os 48 nódulos polimetálicos em alta concentração. Em poucos anos, teremos condições tecnológicas de exploração de nossa Plataforma Continental Jurídica e do leito marinho na nossa ZEE. Por este motivo, é fundamental a defesa dos limites de nossa Amazônia Azul. É importante citar os casos semelhantes ao do ASPSP, que ocorreram em outras nações. Como exemplo, temos os Rochedos Rockall, no Reino Unido, Okinotorishima, no Japão, Clipperton, na França, Jan Mayen, na Noruega, Aves, na Venezuela, e algumas ilhas do Havaí, no USA (3:09). Toda esta argumentação baseia a necessidade imperativa de manter o ASPSP habitado, concomitante com o desenvolvimento da atividade econômica, atualmente pesqueira. Não existe, ainda, prazo definido, face à modernidade da legislação da CNUDM, mas qualquer nação que se sentir prejudicada poderá contestar o direito brasileiro à ZEE respectiva ao ASPSP, caso não sejam atendidas as duas condições (habitação e exploração econômica), pelo direito de controvérsia, obedecendo aos trâmites e fóruns estabelecidos na CNUDM. Nesse caso, as possíveis controvérsias seriam levadas ao Tribunal do Direito do Mar, em Hamburgo, onde as questões são julgadas por 21 juízes (3:10). Portanto, as catástrofes no ASPSP devem ser previstas, prevenidas e rapidamente superadas, para manutenção da soberania nacional no ambiente marinho atlântico. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49 AMBIENTE OPERACIONAL CONCLUSÃO A síntese da bibliografia pesquisada converge para a suscetibilidade do ASPSP à catástrofes, sejam elas de origem meteorológicas, geológicas ou oceanográficas. Durante a realização deste trabalho, um destes eventos sucedeu no Arquipélago, que, desde então, ficou desabitado. Apesar disto a SECIRM manteve a atividade pesqueira quase ininterrupta. É preciso atentar para o que está em jogo na manutenção efetiva do Pró Arquipélago: trata-se de garantir uma área marítima com imenso potencial de exploração econômica, além da ZEE que tangencia nossas praias continentais. Estamos a ponto de consolidar, pelo direito internacional e pela lei brasileira ( lei nº 8.617/1993), cerca de 430 mil Km² de ZEE em torno do ASPSP. Que riquezas estarão disponíveis para exploração nesta área? Só o desenvolvimento tecnológico dos anos vindouros nos dirá, mas sem dúvida alguma, cada cidadão brasileiro terá uma dívida para com aqueles que através de árduo esforço se apropriaram deste mar. A soberania do mar brasileiro deve ser mais que um anseio, uma preocupação diuturna de todo brasileiro, portanto a cada adversidade catastrófica no ASPSP, devemos retomar os trabalhos com redobrado ânimo, pois lá está sendo escrita a história de nossa última fronteira. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49 REFERÊNCIAS 1. BRASIL. Escola de Guerra Naval, EGN-320. Guia para elaboração de trabalhos acadêmicos. Rio de Janeiro, 2004. 2. CAMPOS, Thomas Ferreira da Costa et al. Arquipélago de São Pedro e São Paulo – Soerguimento tectônico de rochas infracrustais no Oceano Atlântico. In: Winge, M.et al. Sítios Geológicos e Paleontológicos do Brasil. Publicado na Internet em 24/12/2005. Disponível em: <http:// www.unb.br/ig/sigep/sitio002/sitio002.pdf>. Acesso em: 11 jul. 2006. 3. GONÇALVES, Joanisval Brito. Direitos Brasileiros de Zona Econômica Exclusiva e de Plataforma Continental em Torno do Arquipélago de São Pedro e São Paulo. Brasília: Senado Federal. Consultoria Legislativa, 2002. Disponível em: <http://www.gov.br/web/conleg/artigos.htm>. Acesso em: 10 jul. 2006. 4. INNOCENTINI, Valdir, et al. Marulhos no Litoral Norte do Brasil Gerados por Furacões: Caso 24 de outubro de 1999. Disponível em: mtcm15.sid.inpe.br/col/cptec.inpe.br/walmeida/2003/08.13.15.46/ doc/Innocentini_Marulhos%20no%20litoral.pdf 5. MARLIERE, E. R. Ilhas oceânicas: sentinelas avançadas do Brasil. In: ALVES, R. J. V. & CASTRO, J. W. de A. Ilhas Oceânicas Brasileiras da Pesquisa ao Manejo. 1. ed. Brasília: MMA, SBF, 2006. cap.1. 6. MENDES, Deborah. Terremotos, Tsunamis e a teoria da tectônica de placas. Moderna, 2005. Disponível em: <http://geologia.fc.ul.pt/ Aulas/Riscos%20Geologicos/ Apontamentos/ Cadeira_Riscos_Geologicos_04_05_2_aula.pdf>. Acesso em: 12 jul. 2006. 7. MORAES, F. et al. Biodiversidade de Esponjas das Ilhas Oceânicas Brasileiras. In: ALVES, R. J. V. & CASTRO, J. W. de A. Ilhas Oceânicas Brasileiras da Pesquisa ao Manejo. 1. ed. Brasília: MMA, SBF, 2006. cap.6. 8. NAÇÕES UNIDAS. Convenção das Nações Unidas sobre o Direito do Mar. Montego Bay, Jamaica, 1982. 9. SECIRM: Secretaria da Comissão Interminiaterial para os Recursos do Mar. Programa Arquipélago de São Pedro e São Paulo (Proarquipélago): manual do Pesquisador. Brasília, DF, 2. ed. 2006. 10. VIDIGAL, Armando Amorim Ferreira; et al. Amazônia azul: o mar que nos pertence. 1. ed. Rio de Janeiro: Record, 2006. 49 CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS Sistema de Inferência Neuro-Fuzzy Hierárquico: uma solução para a compressão de dados batimétricos Capitão-de-Corveta Frederico C. Muthz M. Barros Diretoria de Hidrografia e Navegação (DHN) Centro de Hidrografia da Marinha E-mail: [email protected] Resumo Para a Hidrografia, um Sistema Gerenciador de Banco de Dados (SGBD) na produção da carta náutica é visto, no contexto atual das tecnologias da geoinformação, como fundamental à manipulação dos dados batimétricos, viabilizando menores custos e maior eficiência no controle de qualidade. A compressão eficaz desses dados, atualmente arquivados na DHN, torna-se uma possível solução para que o SGBD possa gerenciá-los adequadamente sem os indesejados gargalos/”overheads”, habituais para volumes de dados superiores ao “terabyte”. Este trabalho apresenta um método de compressão de dados batimétricos baseado em sistemas de inteligência artificial, especificamente redes de aprendizado neuro-fuzzy hierárquicas. Amostras adquiridas por ecobatímetro multifeixe no canal de São Francisco do Sul/SC foram separadas para funcionarem como conjuntos de teste. O método proposto gerou as funções substitutas dessas amostras e ajustou seus parâmetros eficientemente. Os resultados alcançados denotam bom poder de compressão e modelagem do método proposto, sugerindo-o como potencial solução de interesse. Palavras-chave Hidrografia. Inteligência artificial. Neuro-Fuzzy. Hierarchical Neuro-Fuzzy Inference System: a bathymetric data compress solution Abstract To Hydrography, a SGDB for the nautical chart production process is seen, in the present geoinformation technologies context, as fundamental to bathymetric data management, thus making smaller costs and higher quality control efficiency viable. An effective compression of all of the data mass filed at DHN is a possible solution in order to make a SGDB able to manage it without bottlenecks nor overheads, common occurrences when data volume is higher then terabyte range. This study presents a bathymetric data compression method that uses artificial intelligence system, specifically hierarchical neuro-fuzzy learning networks. São Francisco do Sul/SC channel multibeam echosounder bathymetric data samples were used as test sets. The proposed method generated original data amount representative functions and adjusted its own weight parameters in an efficient way. Results show the method’s power of high compression and modeling, thus suggesting it as an interesting potential solution. Keywords INTRODUÇÃO Seguindo a tendência atual, é crescente o surgimento de novos usos da informação batimétrica relativa ao mar: guerra naval; monitoração ambiental; pesca; exploração de recursos; passagem de cabos submarinos; zoneamento; expansão urbana; ecoturismo, dentre outros. Cada um desses usos exige maior ou menor grau de acurácia e precisão na cobertura do fundo em relação ao uso mais antigo: a navegação com segurança nos mares e hidrovias mediante o uso da carta náutica. Nos últimos 15 anos, com o “boom” da evolução tecnológica a respeito dos levantamentos hidrográficos, a acurácia e precisão dos equipamentos (ecobatímetros, sonares de varredura lateral, etc.) quanto ao posicionamento vertical e horizontal têm permitido a cobertura batimétrica integral do fundo marítimo, especificamente em pequenas e médias profundidades. Um fator de cobertura em patamares tão elevados expande a disponibilidade da informação batimétrica a muitos outros usos de maior exigência, porém, é inevitável o crescimento exponencial dos dados acumulados em função da acurácia posicional, que se impõem negativamente ao processo (BRISSETTE, 2004). Em termos de “custo x benefício”, até que ponto há a real necessidade de equipamentos de aquisição (coleta) e posicionamento cada vez mais modernos, acurados e precisos? Indo além, e a manutenção e constante atualização de toda a estrutura necessária para gerenciar volume tão grande de dados coletados? Resposta coerente à primeira questão é dada por Brissette (2004), o qual entende que é imperioso para os Serviços Hidrográficos (SH) terem à disposição toda a gama de recursos tecnológicos para compor estrategicamente sua reserva de conhecimento acerca do meio marítimo. Isso exige a disponibilidade constante dos equipamentos mais modernos de Hidrography. Artificial intelligence. Neuro-Fuzzy. 50 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 AMBIENTE OPERACIONAL aquisição e posicionamento. Quanto mais acurácia, mais precisão e maior for o fator de cobertura, melhor. A opção por satisfazer os diversos usos da informação perseguidos, impõe o problema real de como armazenar e acessar o denso volume de dados coletados para a produção. A manipulação desse volume somente por um SGBD implica conviver com os indesejáveis gargalos e “overheads”, ocorrências habituais quando os dados a serem manipulados se encontram em faixa superior ao “terabyte”. Algumas soluções mais robustas exploram diversas tecnologias que, aplicadas em conjunto, dentro de uma complexa estrutura sistêmica, tornam exeqüível tal tarefa. Entretanto, do ponto de vista da Geomática, não se pode ignorar que os custos de implantação e manutenção dessas soluções passam obrigatoriamente pela disponibilidade de recursos ao longo do tempo: treinamento de pessoal; software de código fechado; “upgrade” da rede; suporte técnico; etc. Especificamente em relação à carta náutica, mesmo para a produção de cartas de grande escala, não se faz necessária uma coleta de dados batimétricos em cobertura integral do fundo. As sondagens são representadas de forma esparsada segundo os critérios da Organização Hidrográfica Internacional (OHI), após uma seleção adequada. Uma coleta de dados em densidades menores é satisfatória e geraria menor volume de dados a serem manipulados por um SGBD. Em que pese a opção pela coleta estratégica com maior fator de cobertura, uma solução alternativa seria a adoção pelo SH, em uma primeira etapa, de ferramental computacional capaz de extrair uma menor densidade de dados do volume total coletado. Essa massa decorrente seria de tamanho adequado à correta manipulação pelo SGBD, porém com o propósito exclusivo de satisfazer somente o uso ligado à navegação. Tal solução implicaria menores investimentos iniciais. Futuramente, em uma segunda etapa, poder-se-ia concluir, do ponto de vista da Geomática, que os recursos disponíveis fossem suficientes, ou pelo menos compensáveis, para a implementação de soluções robustas e completas. Soluções que permitissem a exploração de toda a potencialidade dos dados coletados, gerando informação com detalhamento suficiente para satisfazer os usos mais exigentes. Neste caso, importante ressaltar, sem a necessidade de novas coletas de dados, cujos custos são de ordem bastante elevada. Ao ser adotada essa idéia, de menor envergadura, porém escalável no tempo, pode-se conduzir a pesquisa em busca de soluções com alto poder de compressão em relação aos dados batimétricos envolvidos. O volume resultante, mesmo comprimido, deverá ser capaz de representar o fundo marítimo dentro dos propósitos inerentes à navegação com segurança. Partindo desta assertiva, primeiramente, o espaço a ser modelado precisa ser analisado de forma a identificar sub-regiões menores dentro dele, cujas medidas de profundidade possam ser representadas por um único ponto ou função. Optando-se pelo modelo funcional, significativa redução do volume de dados, em função direta da tolerância ao erro de representação aceita para o modelo, pode ser alcançada com o particionamento do espaço nos moldes de uma “quadtree”. No exemplo da Figura 1, se a tolerância ao erro for nula, o modelo será idêntico à realidade (nº de profundidades igual ao nº de células), porém perderá a função de compressão dos dados. Com a tolerância dilatada, células ou sub-regiões homogêneas com várias profundidades poderão ser representadas, cada qual por uma única função com erro intrínseco aceitável. FIGURA 1 Modelagem de um fundo hipotético segundo a tolerância ao erro de representação. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 51 CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS A divisão recursiva do espaço, mediante o raciocínio da “quadtree” e segundo uma tolerância ao erro de representação previamente estipulada, gera visível compressão. Entretanto, em vista do volume extravagante de dados coletados por ecobatímetros tecnologicamente avançados, pode-se tentar buscar soluções de maior poder de compressão e modelagem. Estudos ligados à Tecnologia da Geoinformação, destacam a pesquisa baseada em lógica nebulosa (“fuzzy”) e Redes Neurais Artificiais (RNA) como bastante interessante nesta área. Uma solução potencial nessa linha baseia-se nos Sistemas de Inferência NeuroFuzzy Hierárquicos (SINFH) aludidos por Souza (1999). O cerne desta metodologia alternativa aplicada à compressão, fundamenta-se nos conceitos ligados à Inteligência Artificial, com o propósito de flexibilizar ao máximo o particionamento recursivo utilizado no modelo “quadtree”. Este sistema inteligente possibilitará a concentração do particionamento nas regiões de relevo acidentado e aliviará a subdivisão recursiva dos relevos planos. Com menor número de sub-regiões geradas nestas áreas planas, será possível um melhor desempenho de compressão. O paradigma nebuloso agregado ao sistema, por sua vez, buscará um melhor poder de modelagem, por meio de uma abstração mais próxima do comportamento natural de variação da batimetria (BARROS, 2006). O custo computacional gerado pelo aumento de desempenho de compressão, neste caso, é elevado. O processo de geração inteligente dos dados comprimidos é lento e dependente da estruturação do método, da eficiência do algoritmo, do método estatístico envolvido no processo, do poder de processamento envolvido, do volume de dados iniciais, da fisiologia mais homogênea ou acidentada do relevo, dentre outros aspectos. Entretanto, é relevante salientar que esse tempo maior de processamento não invalida a solução pelo SINFH. A compressão é apenas a preparação da base de dados que será carregada no SGBD. Uma vez inserida no processo produtivo, poder se-á arquivar o volume de dados originais e trabalhar somente com o volume decorrente, que tenderá a não induzir os gargalos técnicos imputados aos SGBDs tradicionais. Não menos importante é o fato de que os dados originais arquivados “offline” poderão ser utilizados para validar o produto 52 cartográfico final, mediante o uso dos dados reduzidos (armazenados no SGBD). Poderão ficar também à disposição para consultas direcionadas fora do SGDB e, portanto, fora do processo de produção da carta náutica. De valor estratégico para o uso futuro, o volume arquivado “offline” terá destinação adequada na satisfação de outros usos da informação, quando pertinente (BARROS, 2006) METODOLOGIA. FIGURA 2 Visualização dos quatro conceitos aplicados ao mesmo fundo hipotético da Figura 1: menor nº de células, maior compressão e melhor poder de modelagem. Quatro conceitos fundamentais devem ser desenvolvidos a partir do modelo de particionamento recursivo “quadtree” e implementados de forma metodológica para o SINFH (BARROS, 2006) (Figura 2): 1 – a substituição das linhas limites de cada sub-região ou célula criada, por faixas gradientes de largura variável que agreguem maior poder de modelagem em relação ao mundo real, além de contribuírem para um menor número de divisões; 2 – a flexibilização das subdivisões recursivas de cada célula do espaço, que na “quadtree”, geram sempre partes iguais. Nesta proposta, as subdivisões passarão a gerar novas células de tamanho irregular, promovendo melhor adaptação ao relevo, com menor necessidade de novos particionamentos em regiões planas; 3 – a flexibilização quanto à subdivisão obrigatória de todas as células, mediante análise do erro de representação. Cada subdivisão passará a ocorrer conforme a análise individual de cada célula em relação à tolerância ao erro. Isto significa concentrar as subdivisões do espaço nas áreas acidentadas e diminuí-las nas áreas planas; 4 – a substituição do particionamento hierárquico “quadtree” pelo particionamento binário do espaço (BSP) que, segundo Souza (1999), tende a ser REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 AMBIENTE OPERACIONAL normalmente mais flexível, implicando uma estrutura mais compacta na solução de um mesmo problema. Paradigma nebuloso Historicamente, a lógica nebulosa (“fuzzy”) teve sua origem em 1965, com a criação da Teoria dos Conjuntos Nebulosos por Lofti A. Zadeh. Esta teoria fornece a base matemática que permite o manuseio das imprecisões, por intermédio da lingüística e cognição humanas. Procura modelar o mundo real, por meio de uma linguagem matemática semelhante à forma humana de pensar, muitas vezes encerrada em conceitos vagos e imprecisos como alto, médio, frio, forte, etc. A construção de um Sistema de Inferência Fuzzy (SIF) parte da observação dos dados e extração, por especialistas humanos, do conhecimento explícito que, no caso do relevo submarino, traduz-se na definição de sub-regiões com profundidades homogêneas. Este paradigma promoverá a representação dos limites entre sub-regiões adjacentes por faixas gradientes. As espessuras variáveis, atribuídas particularmente a cada faixa-limite, denotarão o comportamento natural de variação do fundo. A possibilidade de posicionar livremente cada faixa, de forma a induzir menor erro na saída do SIF, resolverá a questão da geração de novas células de tamanho irregular. Para que as sub-regiões geradas sejam caracterizadas pela idéia de imprecisão, seus parâmetros definidores (latitude e longitude) deverão dar origem a quantos conjuntos nebulosos forem necessários. Cada conjunto será lingüisticamente determinado por conceitos imprecisos, como latitude alta, longitude baixa, etc. (Figura 3). Decisões importantes terão que ser tomadas pelo especialista para se chegar ao resultado didático da Figura 3: a quantidade de conjuntos necessária para cada variável de entrada (latitude e longitude); o grau de nebulosidade dos conjuntos (faixa gradiente de transição); o ponto de interseção entre conjuntos adjacentes (posição flexível da faixa na divisão irregular das células); o relacionamento entre os conjuntos nebulosos; as operações lógicas entre eles; etc. Supondo que o especialista tenha optado por utilizar funções sigmóides complementares aritméticas a um REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 FIGURA 3 Modelagem, pelo especialista, de um espaço simplificado utilizando 4 conjuntos nebulosos e o particionamento “quadtree”. e r (x ) = 1 / 1 + e + a (x - b ) , a variável (x) representará uma das variáveis de entrada (latitude ou longitude). Para a representação do comportamento (grau de pertinência) dos conjuntos a serem criados, será necessário que, para cada conjunto, sejam definidos os parâmetros a e b das funções (Figura 4). O Parâmetro a define o grau de nebulosidade das funções sigmóides (inclinação no ponto de transição). Já o parâmetro b indica o ponto de transição propriamente dito, isto é, o posicionamento flexível da faixa de fronteira entre subregiões adjacentes. Para facilitar a utilização destas Funções de Pertinência (FPs) nos exemplos que se seguirão, as denominações µ(ö), ñ(ö) e µ(ë), ñ(ë) serão escritas como µ1, ñ1 e µ2, ñ2 respectivamente. m (x ) = 1 / 1 + e - a (x - b ) Uma vez definidos os conjuntos nebulosos, de forma suficiente para a modelagem do relevo submarino, será necessário relacioná-los por meio de regras de inferência “fuzzy”, as quais permitirão a obtenção da profundidade em determinado ponto de latitude e longitude conhecidas (Tabela 1). Com as regras definidas, o especialista já pode montar o SIF. Se ele tiver tomado boas decisões durante a construção do modelo, terá conseguido substituir todo o conjunto de dados iniciais por um conjunto menor 53 CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS FIGURA 4 Definição dos parâmetros am, bm, an, bn das funções sigmóides. TABELA 1 Regras de inferência “fuzzy” combinando os conjuntos nebulosos do espaço de entrada e relacionando-os com os conjuntos nebulosos dos conseqüentes das regras. 1ª Variável lingüística (ANTECEDENTE) Conjuntos Nebulosos 2ª Variável lingüística (ANTECEDENTE) BAIXA(µ1) Se a Latitude (φ) é BAIXA(µ1) ALTA(ρ1) Conjuntos Nebulosos 3ª Variável lingüísti ca (CONSEQUENTE) ALTA(µ2) E a Longitude (λ) é ALTA(ρ1) BAIXA(ρ2) BAIXA(ρ2) ALTA(µ2) Conjuntos Nebulosos P0 então a Profundidade deve ser P1 P2 P3 de parâmetros funcionais, quais sejam: os parâmetros a e b de cada FP dos antecedentes das regras e os parâmetros P das FPs dos conseqüentes. O erro entre a profundidade calculada pelo sistema e a profundidade real num ponto será função direta da modelagem do sistema em todos os seus aspectos. Graficamente, o processo pode ser entendido como se segue (Figura 5). Determinado ponto, cujas coordenadas latitude (ö) e longitude (ë) se encontram nos intervalos estipulados para a definição do universo de discurso destas duas variáveis, foi inserido no sistema. Fuzzificados, isto é, convertidos para a linguagem dos conjuntos nebulosos, os valores de (ö) e (ë) do ponto são combinados dentro das quatro regras definidas para o problema. O operador de interseção OU (MIN) resolve cada regra pelo menor valor, de forma a gerar um grau de disparo (ái) (“firing strength”), em cada situação. Esse grau de disparo 54 FIGURA 5 Resolução das regras “fuzzy” da tabela 1 graficamente no Matlab©. determina um valor µ(Pi) dentro de cada conjunto nebuloso representado pelas FP do tipo “singleton”. A média ponderada dos µ(P i ) simplifica a defuzzificação e gera a saída determinística (exata) desejada, no caso, a profundidade referente ao ponto fornecido. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 AMBIENTE OPERACIONAL Paradigma “neural” No caso do exemplo da Figura 3, talvez seja possível para o especialista definir manualmente os melhores valores dos parâmetros a, b e P de cada uma das 4 funções relativas às sub-regiões criadas. Entretanto, a modelagem de um fundo marítimo real e complexo, com inúmeras sub-regiões, deverá contar com uma ferramenta que automatize tal tarefa, de forma a permitir a compressão exigida e a fidelidade em relação ao relevo. A contribuição das Redes Neurais Artificiais (RNA) basear-se-á em sua habilidade para aprender, o que permitirá que, uma vez criados os conjuntos, seus parâmetros sejam automaticamente ajustados (aprendidos) de forma ótima, minimizando o erro do sistema. Esse ajuste a que se refere o parágrafo anterior é possível porque o sistema neural é adaptativo, isto é, por intermédio de um algoritmo de aprendizagem, como o da Retropropagação elástica (RProp) (ALMEIDA NEVES, 1997), ele é capaz de encontrar automaticamente os melhores valores dos parâmetros das FPs (SOUZA, 1999). As RNA são baseadas no sistema de neurônios biológicos (Figura 6). Pelos dendritos, os sinais provenientes de outros neurônios e que chegam através das sinapses (espécie de conexão entre os neurônios) são recebidos. Os sinais vão sendo acumulados no corpo do neurônio até que sua soma ultrapasse determinado patamar. Ao ser ultrapassado, um grau de disparo é ativado (“firing strength”) e o sinal é propagado a outros neurônios do sistema nervoso pelo axônio. A construção do SINFH implica implementar o SIF segundo a estrutura de uma rede neural. Passa-se assim a ter um sistema híbrido juntando os dois paradigmas da Inteligência Computacional (JANG, 1993; KRUSE e NAUCH, 1994). FIGURA 6 Fluxo da informação pelos neurônios biológicos. Modificado de http://filosofia.com.br/. FIGURA 7 Regras “fuzzy” da tabela 1 interpretadas por neurônios artificiais individuais. As saídas geradas são os graus de disparo (á i) de cada regra e comporão as entradas do neurônio gerador da profundidade P do sistema. Considerando o modelo do neurônio biológico, o esquema “fuzzy” da Figura 3 e suas regras da tabela 1, podem-se gerar neurônios artificiais que, em conjunto, formarão uma RNA e, em um contexto mais amplo, o SINF (Figuras 7 e 8). O conhecimento antecipado das profundidades da base de dados original permitirá o treinamento da rede por comparação sistemática com as profundidades geradas (aprendizado supervisio-nado) (HAYKIN, 1998). Ao final de todo o processo, os parâmetros a, b e P das funções utilizadas estarão definidos (aprendidos) para aquele fundo marítimo REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 FIGURA 8 RNA gerada pela composição dos neurônios individuais da Figura 7. Os blocos do SIF identificados na rede permitem defini-la como um SINF. 55 CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS escolhido e ficarão armazenados nas sinapses dos neurônios artificiais. Isso permitirá que as funções utilizadas substituam eficazmente as profundidades de sub-regiões homogêneas do espaço, de forma a melhor representá-lo pelo sistema. Hierarquia agregada ao modelo SINF Ainda fazendo menção ao exemplo da Figura 3, verifica-se que, pela sua simplicidade didática, o especialista pôde inferir que apenas 4 sub-regiões seriam necessárias para modelar o fundo marítimo. Entretanto, uma superfície real exigirá muitos conjuntos nebulosos. O SINF não possui autonomia para a geração automática e inteligente de sua própria estrutura (SOUZA, 1999). Um modelo neuro-fuzzy hierárquico é composto de uma ou várias células neuro-fuzzy interligadas segundo uma estrutura hierárquica (SOUZA, 1999). Cada célula é um mini-sistema neuro-fuzzy aos moldes do exemplo da Figura 8. A solução a ser implementada mantém a idéia original do particionamento recursivo (hierarquia) do espaço de entrada. Porém, o modelo “quadtree” será substituído pelo “Binary Space Partitioning” (BSP), originando o SINFH Binário ou SINFHB. A subdivisão recursiva que era obrigatória (após a constatação estatística de um valor de erro acima do tolerado na saída do sistema) para todas as células de determinado nível hierárquico, passará a levar em conta também a contribuição de cada célula (sub-região) para o erro de saída. Sub-regiões com erros em níveis abaixo do valor tolerado não necessitarão de novos particionamentos. A Figura 9 mostra um determinado fundo marítimo, onde sub-regiões homogêneas foram criadas mediante o conceito do SINFHB (Figura 10, a seguir). Seis células ou sub-regiões são representadas por funções, cujos parâmetros ajustados permitem a modelagem do fundo consoante à tolerância ao erro estipulada para a saída do sistema. Todas as profundidades originais serão substituídas pelos parâmetros funcionais ajustados, gerando a compressão desejada. O esquema simplificado da Figura 11, a seguir, facilita a compreensão do modelo, onde a célula de maior hierarquia gera a saída P do sistema. 56 FIGURA 9 Conjuntos “fuzzy” criados com particionamento BSP. Discussão dos resultados de desempenho do SINFHB e do método “quadtree”, utilizando-se os conjuntos “teste_1” e “teste_2”. Considerações iniciais: a) o conjunto “teste_1” (Figura 12, a seguir) caracterizase por se constituir de uma fisiologia mais homogênea. Algumas elevações são encontradas na margem direita do canal, porém o restante do relevo pode ser considerado suave e sem grandes variações; b) o conjunto “teste_2” (Figura 13, a seguir) possui uma fisiologia mais acidentada. Diversas elevações, tanto à direita quanto à esquerda do canal, trazem maiores variações de profundidade, que tendem a se intensificar, principalmente, no extremo inferior direito do canal; c) ambos os conjuntos de teste possuem aproximadamente 5.500 pontos sondados; d) os dois métodos foram calibrados para um limite aceitável de erro percentual médio de 3%. Foi considerado ajustado o conjunto de dados (parâmetros das células) que atingiu o primeiro valor inferior a este limite; e) o percentual de compressão para ambos os métodos, foi calculado considerando-se o peso em “bytes” da informação de cada ponto e de cada célula específica para o modelo utilizado (SINFHB ou “quadtree”); e f) o desempenho de compressão do SINFHB em relação ao “quadtree”, foi calculado considerando-se o peso em “bytes” do conjunto de células geradas pelo primeiro modelo, em relação ao conjunto de células geradas pelo segundo. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 AMBIENTE OPERACIONAL FIGURA 10 SINFHB para a região da Figura 9. FIGURA 11 Sistema simplificado do SINFHB para o modelo conceitual da Figura 10. O SINFHB gerou resultados interessantes para os conjuntos “teste_1” e “teste_2”. 92,16% e 81,35% foram os fatores de compressão alcançados para ambos os conjuntos, respectivamente, o que sugeriu boa aplicabilidade do método proposto. A modelagem obtida com os dados comprimidos (Figuras 14 e 15, a seguir) gerou perfis batimétricos com boa aproximação em relação aos perfis originais (Figuras 12 e 13), preser vando as características mais REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 importantes do fundo para a representação na carta náutica. As mesmas duas amostras foram trabalhadas pelo modelo “quadtree”. Os resultados indicaram fatores de compressão de 84,99% e 43,82% para os conjuntos “teste_1” e “teste_2”, respectivamente. Estes valores alcançados para o modelo “quadtree” confirmam o potencial de compressão superior do SINFHB, principalmente em regiões de fisiologia acidentada. 57 CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS FIGURA 12 Conjunto “teste_1”: modelagem obtida com as profundidades originais. FIGURA 13 Conjunto “teste_2”: modelagem obtida com as profundidades originais. 58 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 AMBIENTE OPERACIONAL FIGURA 14 SINFHB: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_1”. Tolerância ao erro (3%). FIGURA 15 SINFHB: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_2”. Tolerância ao erro (3%). REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 59 CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS A modelagem “quadtree” (Figura 16) já não apresenta um resultado tão suave, como o obtido pelo SINFHB (Figura 14) em regiões de fisiologia mais homogênea. Nestes perfis, naturalmente serão geradas menos células do que em regiões acidentadas (independente do método utilizado). Entretanto, o modelo “quadtree” não é capaz de suavizar as transições entre células adjacentes, deixando transparecer os desníveis abruptos (degraus) entre elas. Este efeito é minimizado na modelagem “quadtree” da Figura 17, a seguir, devido à maior quantidade de células geradas para cobrir a tolerância estipulada. Comparativamente, verifica se que para o conjunto “teste_1”, o desempenho de compressão do SINFHB em relação ao “quadtree” foi de 47,75%. Este valor equivale dizer que o tamanho em “bytes” do conjunto de células gerado pelo SINFHB é praticamente a metade do tamanho gerado para as células do modelo “quadtree”. Se esse resultado já denota o potencial superior do SINFHB quanto à compressão, mais expressivo ainda é o potencial observado em áreas de relevo acidentado. Em regiões como a do conjunto “teste_2”, o desempenho de compressão a favor do SINFHB foi de 66,80%. O tamanho em “bytes” do conjunto de células gerado pelo SINFHB foi da ordem de um terço do tamanho gerado para as células do modelo “quadtree”. Tanto para o SINFHB, quanto para o “quadtree”, utilizando-se os conjuntos “teste_1” e “teste_2”, aproximadamente 5,0% dos pontos totais foram considerados acima do limite aceitável de erro (3%). Essa limitação (Figuras 18, 19, 20 e 21, a seguir), presente nos dois modelos no mesmo patamar percentual, indica que os quatro conceitos implementados a partir do modelo básico (“quadtree”) não atuaram de forma a gerar ou magnificar esse resultado indesejado. Se for estipulado um limite aceitável de erro percentual médio menor que 3%, mais células serão criadas em ambos os métodos, a fim de se minimizar a existência de pontos com erros percentuais inaceitáveis. Entretanto, para evitar essa decisão e, conseqüentemente, o acréscimo do número de células, pode-se flexibilizar o posicionamento espacial das funções. No método SINFHB desenvolvido, somente funções representando planos com valores médios de profundidade foram utilizadas. Porém, estes planos coadunam, em casos onde há um desnível considerável FIGURA 16 “quadtree”: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_1”. Tolerância ao erro (3%). 60 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 AMBIENTE OPERACIONAL FIGURA 17 “quadtree”: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_2”. Tolerância ao erro (3%). FIGURA 18 SINFHB: erro percentual gerado para cada ponto do conjunto “teste_1”. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 61 CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS FIGURA 19 “quadtree”: erro percentual gerado para cada ponto do conjunto “teste_1”. FIGURA 20 SINFHB: erro percentual gerado para cada ponto do conjunto “teste_2”. 62 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 AMBIENTE OPERACIONAL FIGURA 21 “quadtree”: erro percentual gerado para cada ponto do conjunto “teste_2”. de profundidade, valores altos de desvio-padrão. A combinação linear das entradas (ö e ë), como terceira opção ao conseqüente de cada célula permite criar superfícies planas inclinadas em contraposição à rigidez do posicionamento horizontal que foi adotado. É uma opção de modelagem localizada que, ao diminuir o desvio-padrão da célula, pode, muitas vezes, contribuir eficazmente para a redução de pontos com erro percentual acima da tolerância. CONCLUSÕES A possibilidade de aprimoramento do método proposto traz a expectativa de aliar o comprovado potencial nele existente com ferramentas que possam minimizar os resultados indesejados. Como resultado, um método bem projetado poderá contribuir efetivamente para o processo de produção das cartas náuticas. Poderá também tornar a informação náutica do SGBD disponível à comunidade científica, se tal decisão for ao encontro dos interesses governamentais políticos e econômicos. Por ser de aplicação genérica e universal, e funcionar também como um interpolador, poderá ser aplicado em outras áreas de interesse. Os conceitos teóricos envolvidos poderão ser alinhados dentro da ótica comercial, em substituição a softwares que não disponibilizam a fundamentação teórica sobre o funcionamento do sistema. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63 REFERÊNCIAS ALMEIDA NEVES, P.E.C.S. Algoritmos de aprendizado no modelo neural combinatório. 1997. 123 f. Dissertação (mestrado em sistemas de computação) – UFRJ, Rio de Janeiro, 1997. BARROS, F.C.M.M. Sistema de inferência neuro-fuzzy hierárquico: uma solução para a compressão de dados batimétricos. 2006. 125 f. Dissertação (mestrado em ciências da computação – área de concentração: Geomática) – UERJ, Rio de Janeiro, 2006. BRISSETTE, M.B. “More is better” a look the perceived need for increased accuracies in hydrographic applications. In: CANADIAN HYDROGRAPHIC CONFERENCE, 2004, Ottawa, Canada. [Proceedings of CHC2004]. Ottawa, Canada: [s.n.], 2004, more_is_Better.pdf. HAYKIN, S. Neural networks – a comprehensive foundation. 2nd ed. Ontario, Canada: Prentice Hall, 1998. JANG, J.S.R. ANFIS: adaptive-network-based fuzzy inference system. IEEE Transactions on systems, man, and cybernetics, [Arlington, USA], v. 23, n. 3, p. 665–685, may/june 1993. KRUSE, R.; NAUCH, D. Choosing appropriate neuro-fuzzy models. In: EUROPEAN CONGRESS ON INTELLIGENT TECHNIQUES AND SOFT COMPUTING, 2., 1994, Aachen, Germany. Proceedings of EUFIT’94. Aachen, Germany: [s.n.], 1994, p. 552–557, v. 1. SOUZA, F.J. Modelos neuro-fuzzy hierárquicos. 1999. 169 f. Tese (doutorado em engenharia elétrica: sistemas de computação) – PUC, Rio de Janeiro, 1999. 63 CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO Análise da velocidade e atenuação do som no fundo marinho e sua contribuição para a previsão do alcance Sonar Capitão-de-Corveta Helber Carvalho Macedo Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM. E-mail: [email protected] Alberto Garcia de Figueiredo Jr. Departamento de Geologia – Universidade Federal Fluminense (UFF). E-mail: [email protected] João Carlos Machado Programa de Engenharia Biomédica, COPPE – UFRJ E-mail: [email protected] Resumo A velocidade e a atenuação da onda compressional em sedimentos são propriedades que contribuem para o desenvolvimento de modelos geoacústicos do fundo marinho. Os resultados obtidos a partir de tais modelos podem ser amplamente aplicados na previsão do alcance sonar. Um sistema de medição destas propriedades foi desenvolvido e montado em laboratório. Testemunhos de sondagem foram coletados em uma área de plataforma continental, localizada nas proximidades da Ilha do Cabo Frio-RJ. Na descrição dos testemunhos, foram identificados sete tipos de sedimentos: areias grossa, média e fina, areia lamosa, lama arenosa, lama compactada e fluida. Em laboratório, foram executadas 2.550 medições acústicas nos sedimentos, que permitiram construir perfis de velocidade da onda e diagramas de atenuação, em função da freqüência. Os valores medidos para a velocidade de propagação estão de acordo com os tabelados na literatura, e os perfis identificaram interfaces entre camadas de sedimentos. O diagrama de atenuação permitiu uma boa avaliação do comportamento espectral do sinal, principalmente com relação à linearidade. Palavras-chave Geoacústica. Ondas compressionais. Velocidade. Atenuação. The analysis of sound velocity and attenuation in the sea floor and the contribution to sonar prediction Abstract Compressional wave velocity and attenuation are important properties that contribute to the development of sea floor geoacoustic models. Results of such modeling can be widely applied in sonar prediction. In laboratory, an ultrasonic system was constructed to measure compressional wave propagation in marine sediments. Nine (9) piston-cores were collected at Rio de Janeiro continental shelf, offshore Arraial do Cabo. Before splitting the cores, approximately 2.550 measurements were taken. After this, cores were split in two halves and described. Seven (7) types of sediments were found: coarse, medium and fine sands, muddy sand, sandy mud, consolidated and fluid mud. Results permitted to construct sound velocity profiles and 3D attenuation diagram, which showed coherence with data sets taken from literature. Interfaces between sedimentary layers were also identified. The 3D attenuation diagram in frequency domain displayed good information of spectral attenuation. Keywords Geoacoustic. Compressional waves. Velocity. Attenuation. 64 INTRODUÇÃO A previsão do ambiente acústico é de extrema relevância para o planejamento das Operações Navais. Este recurso permite otimizar o emprego dos meios navais, interferindo de modo significativo no processo de tomada de decisão em operações anti-submarino e de ataque. Esta previsão é obtida por meio de modelos matemáticos que, por sua vez, fornecem informações sobre o alcance sonar previsto para uma determinada área, em um determinado período. Pesquisadores como Hamilton (1980), Richardson et al. (2002) e Buckingham (2000 e 2004), mencionam que diversos são os parâmetros e as propriedades necessárias a este tipo de modelagem, dentre os quais destacam-se àqueles relacionados ao fundo marinho, como por exemplo: (1) a identificação do tipo de sedimento ou rocha; (2) a espessura, o formato das camadas e a localização das principais superfícies refletoras; e (3) a definição da velocidade (Vp) e atenuação da onda compressional (P) nos sedimentos. Neste contexto, este trabalho está baseado nos seguintes objetivos: 1 - realizar medições de velocidade (Vp) e atenuação em sedimentos coletados por testemunhos de sondagem; e 2 - relacionar os resultados obtidos com as características sedimentológicas do material coletado, comparando-os com aqueles disponíveis na literatura. Para atender a este propósito, o Instituto de Estudos do Mar Almirante Paulo Moreira (IEAPM), o Laboratório de Geologia Marinha (LAGEMAR – UFF) e o Programa de Engenharia Biomédica da COPPE-UFRJ uniram seus esforços e apoiaram o desenvolvimento desta pesquisa. Para realizar as medições, foi montado um sistema com a capacidade de emitir, receber, digitalizar e REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 AMBIENTE OPERACIONAL armazenar sinais de propagação de ondas “P” em sedimentos, na freqüência fundamental de 2,25 MHz. Os testemunhos de sondagem foram coletados na área de estudos, localizada nas proximidades da Ilha do Cabo Frio, próxima à cidade de Arraial do Cabo – RJ, onde está inserida a Raia Acústica do Centro de Apoio aos Sistemas Operativos – (CASOP). Os resultados obtidos neste trabalho permitiram construir perfis de velocidade do som (Vp) e diagramas de atenuação em 3D, em função da freqüência. Estes dados foram associados aos parâmetros sedimentológicos dos materiais que compõem os testemunhos, principalmente no que diz respeito a granulometria. METODOLOGIA Esta pesquisa foi desenvolvida em cinco etapas: 1 - Montagem, calibração e teste do sistema de medição proposto no primeiro objetivo; 2 - Realização da comissão oceanográfica para a coleta dos nove (9) testemunhos na área de pesquisa, totalizando 12,0 metros de sedimentos; 3 - Execução de 2.550 medições de propagação do som ao longo dos testemunhos (Macedo et al., 2005), para a construção de perfis de velocidade em relação à posição no testemunho e de diagramas tridimensionais da atenuação, em função da freqüência e da posição; 4 - Descrição sedimentológica, fotografia e análise granulométrica dos testemunhos; e 5 - Comparação dos resultados das medições com as características dos sedimentos coletados ao longo do testemunho. Sistema de Medição O sistema de medições desenvolvido (Figura 1) tem como base o experimento de Maa et al. (1997) e de Gorgas et al. (2002), sendo composto por: – uma placa geradora e controladora de pulsos de ultra-som (Matec, modelo SR-9000, Hopkinton, MA, USA), condicionada a um slot de expansão de um computador comum; REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 FIGURA 1 Sistema experimental de medição da velocidade de propagação e atenuação de onda acústica (Macedo et al., 2005). – uma interface de comunicação de dados GPIB – General Purpose Interface Bus (Measurement Computing Corporation, modelo IEE – 488.2, Middleboro, MA, USA); – um osciloscópio digital (Tektronix, modelo TK – 2220, Beaverton, OR, USA), instrumento que permite o controle e o ajuste do mecanismo de aquisição do sinal; e – um par de transdutores de ultra-som, de contato (Panametrics- NDT, modelo V-133 RM, Waltham, MA, USA), freqüência de 2,25 MHz e diâmetro nominal de 6 mm. Estes foram submetidos a testes padrão (TP 103, Panametrics, 2005) e alojados nas extremidades da ferramenta de perfilagem, que tem formato de pinça. As medições foram feitas em duas fases e em planos ortogonais, de modo que cada posição ao longo do testemunho tivesse dois valores. Este método teve como propósito verificar possíveis diferenças nos valores medidos, tendo em vista as alterações provocadas pela heterogeneidade do material. Cada fase foi relacionada a uma linha de medição, referente a um plano. Logo, para cada testemunho foram construídos dois perfis de velocidade. O perfil denominado por “1”, referente ao plano azul, e o perfil “2” para o plano vermelho, ortogonal ao perfil “1”. 65 CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO Na aquisição e no processamento dos dados, foram usados programas específicos desenvolvidos em ambiente LabView e MatLab, respectivamente. Cálculo da Velocidade O método utilizado neste trabalho tem como base a diferença entre os tempos de propagação da onda sonora para uma medição em um tubo de PVC cheio de água, seguido de uma medição no testemunho real contendo sedimento marinho. Esta diferença é denominada atraso entre os sinais (∆t) e é calculada pela equação (1), usada para o cálculo da velocidade de propagação no sedimento (Csed) (Kinsler et al., 1982): -1 æ 1 DT ö Csed = ç ÷ çCágua - L ÷ ø è (1) O “L” é o diâmetro interno do tubo de PVC, tem o valor de 47,4 mm e é fixo para todos os testemunhos. O “Cágua” é a velocidade calculada na água durante a calibração. O valor de ∆ T é calculado no programa de processamento dos sinais (ultra_sed.mat), pelo método da correlação cruzada (equações 2 e 3) entre os sinais de calibração na água e os sinais originados pela propagação no testemunho, descrito pelas equações: propaga através de um meio, cujo valor varia em função da distância percorrida pelo sinal, sendo dependente da freqüência. Neste trabalho, foi empregado o método denominado “método da substituição” (He & Zeng, 2001), que usa como recurso o cálculo da atenuação por meio da razão I0 . I Esta razão foi calculada para sinais que se propagam em meios distintos. O primeiro deles é o sinal propagado em um tubo de PVC com água, idêntico ao testemunho. Este sinal é recebido com uma intensidade “Iágua”. O segundo sinal propagado é o recebido para o testemunho com sedimento, com intensidade de “I sed”. Este método utiliza como referência o valor da atenuação na água, que é próximo de zero e, portanto, desprezível para esta faixa de freqüência. As equações (4, 5 e 6) descrevem este método, onde a atenuação (dB/m) é apresentada em função da freqüência e da distância percorrida pelo sinal (D): I água ( f ) 10 log D I sed ( f ) att dB ( f ) = (4) A equação (5) descreve a proporcionalidade existente entre a intensidade e a amplitude espectral do sinal no domínio da freqüência: 2 1 f e ( x, y ) g e ( x, y ) = M,N o N-1 åf * e M -1 å m =0 (2), e I ( f ) æ A( f ) ö ÷ =ç ÷ I0 ( f ) ç A ( f ) è 0 ø Assim, desenvolvendo as equações (4) e (5), teremos: (m, n) g e ( x - m, y - n) n =0 att dB ( f ) = Á[ f ( x, y ) o g ( x, y )] = ¥ ¥ ò òf * (a ) -¥ -¥ g ( x - a )da exp(- j 2pux)dx (3) Conhecendo-se o “∆t” e a distância entre os transdutores, é possível calcular o valor da velocidade (Vp) para propagação no sedimento. Cálculo da Atenuação Para Kinsler et al. (1982), a atenuação é a redução da intensidade de energia de uma onda acústica que se 66 (5) Aágua ( f ) 20 log D Ased ( f ) (6) O dado coletado no sistema (Figura 1) é o sinal elétrico no domínio do tempo, em volts, correspondente ao pulso de ultra-som (US) recebido pelo transdutor “RC”. Portanto, estes sinais propagados na água e nos sedimentos foram digitalizados e armazenados no osciloscópio. No programa denominado “ultra_sed.mat”, os sinais armazenados da amplitude espectral no domínio do tempo foram convertidos em sinais de amplitude no domínio da freqüência, utilizando o algoritmo “FFT” da Transformada de REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 AMBIENTE OPERACIONAL Fourier. O mesmo programa executou os cálculos das razões de Aágua ( f )/Ased ( f ) e dos valores de atenuação (att), para cada ponto do testemunho e para cada freqüência. Para apresentar estes dados, foram construídos diagramas tridimensionais, com o eixo vertical mostrando o resultado da atenuação (dB/m) e, nos eixos horizontais, a posição em “cm” ao longo do testemunho e o espectro de freqüência. Coleta dos Testemunhos, Granulometria Descrição e Para a coleta dos testemunhos de sondagem, foi utilizado o testemunhador à pistão tipo Kullenberg, montado no AvPqOc “Diadorim” do IEAPM. Foram coletados 9 testemunhos, com diâmetro de 50 mm, e comprimentos que variam entre 60 e 219 cm (Artusi et al., 2005). O método de análise granulométrica adotado foi baseado no processo de peneiramento, para sedimentos grossos (cascalho e areia), e da pipetagem, para a fração fina (lama), (Folk&Ward, 1957). As frações granulométricas dominantes e os teores de lama foram classificados utilizando o diagrama triangular de Shepard (1954), onde são utilizadas proporções relativas de cascalho, areia e lama. Sete (7) tipos de sedimentos foram identificados nos nove (9) testemunhos coletados: areias grossa, média e fina, areia lamosa, lama arenosa, lama compactada (ou consolidada) e lama fluida. Para facilitar a descrição sedimentológica deste material, a legenda abaixo foi criada (Figura 2), tendo como base símbolos geológicos padronizados (US Geologic Survey, 2000). FIGURA 2 Legenda com a identificação dos diferentes tipos de sedimentos identificados neste trabalho FIGURA 3 Testemunho 2. A) Desenho esquemático da litologia do testemunho. B) Perfis de velocidade do som medidos em planos ortogonais (linhas 1 e 2) ao longo do testemunho. RESULTADOS Os resultados mais representativos da velocidade e da atenuação nos sedimentos foram obtidos nos testemunhos 2 (Figuras 3 e 4) e 7 (Figuras 5 e 6). Os perfis de velocidade são apresentados ao lado de uma descrição sedimentológica simplificada do testemunho, construída com base nos resultados das análises granulométricas. O testemunho 2, composto por areia fina e uma camada de areia lamosa pouco espessa, apresenta um perfil muito uniforme. Na areia fina, a faixa de valores de velocidade está entre 1.635 m/s (mínima) e 1.715 m/s (máxima). Na camada de areia lamosa (entre os REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 FIGURA 4 Testemunho 2. Diagrama de atenuação representativo de medidas realizadas em planos ortogonais (linhas 1 e 2) ao longo do testemunho. 67 CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO pontos 23 e 26 cm), o registro sônico mostra uma queda acentuada de valor. O registro da atenuação (Figura 4) é regular e uniforme para as linhas 1 e 2, indicando valores de cerca de 400 dB/m para a freqüência de 1,6 MHz. Os valores máximos de atenuação, cerca de 1.300 dB/m, são registrados entre os pontos 20 e 27 cm, coincidente com a camada de areia lamosa que está inserida no pacote de areia fina. Logo, pode-se afirmar que, na areia fina, os valores medidos estão na faixa de 400 a 700 dB/m, na freqüência de 1,6 MHz. Na areia lamosa, os valores sobem para cerca de 1.300 dB/m, usando a mesma freqüência. O testemunho 7 (Figuras 5 e 6) tem em sua composição camadas de lama fluida e lama consolidada. A ocorrência de conchas e fragmentos é pequena. Uma fina camada de lama arenosa é encontrada nas proximidades do ponto 60 cm, onde pode ser notada uma súbita elevação da Vp, atingindo o valor máximo de 1.639 m/s. Para o estrato de lama consolidada, os valores de velocidade medidos variaram de 1.508 a 1.575 m/s. As camadas de lama fluida forneceram medidas de 1.530 a 1.563 m/s. Quedas nos valores da velocidade também são observadas nas linhas 1 e 2, associadas às interfaces das diferentes camadas. A primeira ocorre na transição de lama consolidada para fluida no ponto 75 cm, quando a velocidade cai de 1.550 para 1.537 m/s. Em seguida, é observada uma elevação da Vp no ponto 130 cm, sucedida por uma queda, também para o valor de 1.537 m/s, no ponto 150 cm. FIGURA 5 Testemunho 7. A) Desenho esquemático da litologia do testemunho. B) Perfis de velocidade do som medidos em planos ortogonais (linhas 1 e 2) ao longo do testemunho. Os maiores valores de atenuação são notados entre o topo e o ponto 80 cm do testemunho 7. Neste trecho, o valor médio medido é de 900 dB/m, para a freqüência de 1,6 MHz. Alguns pontos isolados chegam a atingir 1.000 dB/m. Do ponto 80 até o ponto 170 cm, usando a mesma freqüência, os valores são relativamente mais baixos, estando na faixa de 500 a 600 dB/m e, após 170 cm, uma nova elevação na atenuação é observada, onde os valores atingem 1.000 dB/m. A atenuação se mantém elevada até chegar ao final do testemunho, nas proximidades do ponto 200 cm, a partir do qual decai para cerca de 500 dB/m. FIGURA 6 Testemunho 7. Diagrama de atenuação representativo de medidas realizadas em planos ortogonais (linhas 1 e 2) ao longo do teste. Para cada tipo de sedimento dos testemunhos, foi estabelecida uma faixa de valores medidos para as velocidades (Vp) e para a atenuação. A Tabela 1 relaciona as medidas de velocidade e apresenta um resumo comparativo para os tipos de sedimento. 68 TABELA 1 Faixa de valores de velocidade para cada tipo de sedimento. Tipo de sedimento Areia média Areia fina Areia lamosa Lama arenosa Lama consolidada Lama fluida Velocidade (m/s) Velocidade (m/s) valor mínimo valor máximo 1.655 1.752 1.635 1.715 1.550 1.647 1.570 1.639 1.508 1.575 1.530 1.563 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 AMBIENTE OPERACIONAL A Tabela 2 mostra os valores de atenuação aproximados, para a freqüência de 1,6 MHz. Entretanto, cabe ressaltar que as medidas obtidas não são absolutas. Os valores apresentados significam apenas uma tendência desta propriedade física para a situação específica na qual foi realizada a medição. Pequenas variações na freqüência e até mesmo na posição dos transdutores, são suficientes para alterar medidas de atenuação em meios viscoelásticos. TABELA 2 Faixa de valores de atenuação para a freqüência de 1,6 MHz. Tipo de sedimento Areia média Areia fina Areia lamosa Lama arenosa Lama consolidada Lama fluida Atenuação (dB/m) valor mínimo 1.100 400 1.250 1.150 850 500 Atenuação (dB/m) valor máximo 1.300 700 1.750 1.550 1.150 600 DISCUSSÃO Os métodos de cálculo da previsão do alcance sonar são baseados nas seguintes equações (Urick, 1975): Sonar Ativo: DT = SL – 2 TL + TS – (NL – DI) (7) Sonar Passivo: DT = SL – TL – (NL – DI) (8) Cujos termos são, respectivamente: DT – Limiar de Detecção SL – Intensidade da Fonte TL – Transmission Loss ou Perdas na Transmissão TS – Poder de Reflexão do Alvo NL – Ruído do Ambiente DI – Índice de Diretividade do Alvo A influência provocada pelo fundo marinho é representada nas fórmulas pelo termo “TL”, que considera, entre outras perdas, aquelas provocadas pelas características do fundo. Este parâmetro é calculado por algoritmos, que têm como base de dados de entrada fatores como a densidade do sedimento, a profundidade local, a geometria das camadas e, principalmente, a velocidade e a atenuação das ondas acústicas no material. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 Na areia média, foi medido o maior valor de “Vp” (1.752 m/s), enquanto que os menores resultados foram registrados na lama consolidada (1.508 m/s). Os fatores geológicos mais relevantes, que controlam a velocidade de onda (P) em sedimentos marinhos, são a porosidade, a densidade e a pressão de confinamento. Em geral, existe uma tendência de aumento da “Vp”, com a diminuição da porosidade e um aumento da densidade. Maa et al. (1997) mediram valores de “Vp”, para sedimentos com alta concentração de finos (silte e argila), na faixa de 1.430 m/s a 1.590 m/s, utilizando freqüências de 1 e 2,25 MHz. Richardson e Briggs (2004) analisaram dados oriundos de 4.500 medidas realizadas em testemunhos de sondagem, coletados em 67 posições, em locais de águas rasas. Os valores obtidos por estes autores são semelhantes aos calculados neste trabalho. Medidas de atenuação em meios viscoelásticos, naturalmente, são de difícil obtenção, tendo em vista a variabilidade desta propriedade, em função da freqüência e sua susceptibilidade a ruídos e à anisotropia (Hamilton, 1980). Portanto, o propósito deste trabalho é estabelecer relações entre os resultados das medições com o tipo de sedimento, apresentando valores relativos de atenuação e associando as diferenças encontradas às características do sedimento. Os gráficos em 3D, em função da freqüência de 1,6 MHz, mostraram que os maiores valores de atenuação foram encontrados nas areias lamosas e lamas arenosas. A areia média apresentou uma atenuação menor que as misturas lamosas. De um modo geral, os resultados obtidos estão de acordo com a literatura. Esta explica que os maiores valores de atenuação estão associados aos sedimentos de menor granulometria, e que misturas com alto teor de água (lama fluida) indicam valores baixos de atenuação. Para Hamilton (1972), a granulometria e a porosidade são os parâmetros sedimentológicos que mais influenciam na atenuação. Em areias, onde os grãos são maiores e mais arredondados, a área de contato entre as partículas é menor, conseqüentemente, a rigidez é relativamente mais baixa. À medida que a dimensão dos grãos diminui, a quantidade de partículas por unidade de volume aumenta, aumentando assim as áreas de contato, a rigidez e a atenuação. Sob este aspecto, pode-se considerar a força de coesão, que tem maiores efeitos sobre os siltes e as argilas. No 69 CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO entanto, à medida que sedimentos mais grossos (areias), são incorporados ao pacote de finos (lama), estes fazem com que haja um aumento na heterogeneidade granulométrica e uma diminuição na porosidade. Logo, os materiais grossos perturbam e rompem as estruturas dos agregados argilosos e siltosos que compõe os finos. O efeito desta mistura é o aumento da densidade do sedimento, sem que haja um aumento compatível do módulo de elasticidade. Então, à proporção que a quantidade de material grosso aumenta, uma estrutura sólida é estabelecida pelo contato físico dessas partículas, aumentando a rigidez e a fricção, e diminuindo a porosidade, o que implica em aumento da atenuação. Outro dado relevante a ser citado, é a linearidade existente entre a atenuação (dB/m) e a freqüência, tendência esta observada nas análises dos gráficos da propagação nos testemunhos. Esta análise está de acordo com o preconizado por Hamilton (1972, 1980 e 1985), Simpson et al. (2003) e Buckingham (2004 e 2005). Apesar dos fenômenos físicos relacionados à velocidade e à atenuação serem distintos, no experimento desenvolvido nesta pesquisa, foi possível observar que, para a maioria dos sedimentos, há nitidamente um aumento na velocidade relacionado à diminuição da atenuação e vice-versa. Estes dados estão em conformidade com os das tabelas produzidas por Richardson e Brig gs (2004), resultantes de propriedades e parâmetros geoacústicos oriundos de 4.500 medidas em sedimentos. CONCLUSÕES O sistema de medições desenvolvido neste trabalho, composto pela aparelhagem e pelo programa de processamento de sinais (ultra_sed.mat), mostrou-se adequado para a função de emitir, receber, digitalizar e ar mazenar sinais de propagação de ondas compressionais (P), uma vez que os resultados obtidos estão de acordo com os tabelados na literatura. Os perfis de velocidade permitiram associar os valores de “Vp” com os parâmetros sedimentológicos obtidos na descrição do material coletado pelos testemunhos. Este recurso favoreceu a identificação de interfaces entre diferentes camadas de sedimentos. Foi possível observar que as areias (média e fina) apresentaram velocidades mais altas, quando 70 comparadas com os sedimentos lamosos. No que diz respeito à atenuação, os maiores valores foram encontrados nas areias lamosas e lamas arenosas. Este conjunto de resultados comprova que, para operações em águas rasas, os fundos compostos por sedimentos de maior granulometria (cascalho e areia) apresentam um comportamento de superfícies mais reflexivas, aumentando assim o alcance sonar; enquanto que, os fundos compostos por sedimentos finos (lamas e suas misturas) são superfícies com índices elevados de atenuação, o que implica em uma redução neste alcance. Os diagramas em 3D construídos para os valores de atenuação permitiram uma boa avaliação do comportamento espectral do sinal, no domínio da freqüência, principalmente com relação à linearidade. Este recurso, além de facilitar a análise comparativa do modo de propagação da onda para cada tipo de sedimento, permite inferir resultados de atenuação para a propagação acústica aplicada às diferentes faixas de freqüências, utilizadas nos diversos tipos de equipamentos sonar. AGRADECIMENTOS Ao IEAPM, ao LAGEMAR-UFF e aos integrantes do Programa de Engenharia Biomédica da COPPE-UFRJ, por todo apoio e confiança, fundamentais para o desenvolvimento desta pesquisa. À Comandante Lucia Artusi, pela intensa colaboração. À tripulação do AvPqOc DIADORIM, pelo entusiasmo e profissionalismo. REFERÊNCIAS ARTUSI, L.; FIGUEIREDO Jr., A G.; MACEDO, H. C.; SIMÕES, I. C. V. P. 2005. Estudos geológicos para obtenção dos parâmetros geoacústicos do fundo e subfundo marinhos para aplicações navais. Revista Pesquisa Naval, SDM, n° 18, p. 24 – 31. BUCKINGHAM, M. J. 2004. A three-parameter dispersion relationship for Biot’s fast compressional wave in marine sediment. J. Acoust. Soc. Am. , v. 116, p. 769–776. BUCKINGHAM, M. J. 2005. Compressional and shear wave properties of marine sediments: comparisons between theory and data. J. Acoust. Soc. Am. , v. 117, n. 1, p. 137-152. FOLK, R.L.; WARD, W.C. 1957. Brazos River Bar: A study in the significance of grain size parameters. Journal of Sedimentary Petrology 27:3-27. GORGAS, T. J.; WILKENS, R. H.; FU, S. S.; FRAZER, L. N.; RICHARDSON, M. D.; BRIGGS, K. B.; LEE, H. 2002. In situ acoustic and laboratory ultrasonic sound speed and attenuation measured in heterogeneous soft seabed sediments: Eel River shelf, California. Marine Geology, v. 182, p. 103 – 119. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 AMBIENTE OPERACIONAL HAMILTON, E. L. 1972. Compressional-wave attenuation in marine sediments. Geophysics, Society of Exploration Geophysicists, v. 37, p. 620–646. marinhos e sua aplicação na caracterização das propriedades acústicas do ambiente. 9th International Congress of the Brazilian Geophysical Society, Salvador, BA. HAMILTON, E. L. 1980. Geoacoustic modeling of the sea floor. J. Acoust. Soc. Am. , v. 68, p. 1313–1336. RICHARDSON, M. D.; BRIGGS, K. B. 2004. Empirical predictions of seafloor properties based on remotely measured sediment impedance. High Frequency Ocean Acoustics. Editors: Porter, M. B.; Siderius, M.; Kuperman, W.A. La Jolla, California, USA. American Institute of Physics , p. 12 – 21. HAMILTON, E. L. 1985. Sound velocity as a function of depth in marine sediments. J. Acoust. Soc. Am., v. 78, p. 1348–1355. HE, P.; ZENG, J. 2001. Acoustic dispersion and attenuation measurement using both transmitted and reflected pulses. Ultrasonics, Elsevier, v. 39, p. 27 – 32. KINSLER, L. E.; FREY, A. R.; COPPENS, A. B.; SANDERS, J. V. 1982. Fundamentals of acoustics. John Wiley e Sons, Inc. 3 ed. New York, USA. 479 p. RICHARDSON, M. D. 2002. Variability of shear wave speed and attenuation in superficial marine sediments, in Impact of Littoral Environmental Variability on Acoustic Predictions and Sonar Performance, edited by N. G. Pace and F. B. Jensen, p. 107–114. SHEPARD, F. P. 1954. Nomenclature based on sand– silt –clay ratios. Journal of Sedimentary Petrology, v. 24 (3), p. 151 – 158. KRUMBEIN, W. C.; PETTIJOHN, F. J. 1988. Manual of sedimentary petrografhy. Classic facsimile edition. Tulsa, Oklahoma, U.S.A. Society of Econ. Paleots. and Mineralogists. SIMPSON, H. J.; HOUSTON, B. H.; LISKEY, S. W. 2003. At-sea measurements of sound penetration into sediments using a buried vertical synthetic array. J. Acoust. Soc. Am. v. 114, p. 1281 – 1290. MAA, Jerome P. –Y.; SUN K.-J.; HE Q. 1997. Ultrasonic characterization of marine sediments: a preliminary study. Marine Geology, Elsevier Science, v. 141. p. 183-192. SUGUIO, K. 1973. Introdução à sedimentologia. 1 ed. Edgard Blücher , São Paulo, SP. 317 p. MACEDO, H. C.; FIGUEIREDO Jr., A G.; ARTUSI, L.; SOUZA, S. R. 2005. Análise da propagação de ondas compressionais em sedimentos REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71 URICK, R. J. 1975. Principles of underwater sound. Ed. 2, McGrawHill Book Company, New York, EUA. 455 p. 71 HERCULES DE SOUZA Caixa atenuadora de campos eletromagnéticos para avaliação de sensores magnetométricos Hercules de Souza Doutor e Mestre em Geofísica, Bacharel em Física, Físico Magnetólogo do Departamento de Magnetologia da Base Naval de Aratu da Marinha do Brasil E-mail: [email protected] Resumo Em laboratórios dedicados à pesquisa em eletromagnetismo e em Observatórios Geomagnéticos, faz-se necessária a existência de uma caixa atenuadora de campos eletromagnéticos, para a avaliação do desempenho dos sensores magnéticos que são utilizados nesses ambientes de pesquisa, mais especificamente a estabilidade da medida fornecida pelo sensor com o tempo. Neste artigo, é realizada uma avaliação teórica dos parâmetros importantes para a avaliação dessa caixa atenuadora, dependendo da freqüência de campo que se queira atenuar. Parâmetros como eficiência da blindagem, índices de absorção de reflexão também são considerados para um perfeito dimensionamento dessa blindagem eletromagnética. Palavras-chave Campo eletromagnético. Caixa atenuadora. Eficiência de blindagem. Índice de absorção. Índice de reflexão. Electromagnetic field attenuation box for the evaluation of the magnetic sensors Abstract In both research dedicated laboratories and Geomagnetic Observatories, the existence of an electromagnetic field attenuation box is required in order to evaluate the performance of the magnetic sensors used on these research environments, especially the stability, within the time, of the information provided by the sensor. This paper presents a theoretical evaluation of the important parameters regarded to the attenuation box analysis, according to the field frequency to be attenuated. Parameters such as shield efficiency, absorption and reflection indexes are also regarded to the correct design of this electromagnetic shielding. Keywords Electromagnetic field. Attenuation box. Shield efficiency. Absorption index. Reflection index. 72 INTRODUÇÃO Em laboratórios de Medidas Magnéticas e em Observatórios Geomagnéticos, todos os sensores magnetométricos utilizados devem ser periodicamente avaliados e calibrados para uma maior exatidão das medidas magnéticas realizadas. Nessas avaliações e calibrações, vários aspectos devem ser considerados, dentre eles, a estabilidade do sensor com o tempo. Esse tipo de calibração ou avaliação do sensor exige uma eficiente caixa atenuadora de campos magnéticos. A eficiência da blindagem, o seu índice de absorção e um bom índice de reflexão são aspectos que devem ser considerados quando se está avaliando uma caixa atenuadora de campos magnéticos para emprego na calibração de sensores. São apresentados neste trabalho, a teoria envolvida na propagação de uma onda eletromagnética em meios condutores, o fator de atenuação relacionado à freqüência e à resistividade do material utilizado em uma blindagem eletromagnética, os fatores relevantes no dimensionamento de uma blindagem, chamados de eficiência de blindagem e perda por absorção, e, finalmente as dimensões máximas admitidas para aeração e entrada de cabos, necessárias para que uma blindagem eletromagnética seja eficaz para blindagens de campos geomagnéticos, com uma amplitude de 1,0 µT e freqüências de 100 Hz, níveis que costumam interferir diretamente nas calibrações de equipamentos magneto-sensíveis, com sensibilidade de 1 nT. METODOLOGIA Estudos relacionados à interferência e compatibilidade eletromagnética entre equipamentos têm chamado a atenção de vários pesquisadores, destacando-se os trabalhos de Croisant (1998), Duff (1998 e 1993), Maeda et al. (1994) e Smedt et al. (1998). Esses equipamentos podem funcionar tanto como fontes de campos eletromagnéticos, causando interferências REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77 AMBIENTE OPERACIONAL em outros, quanto como podem ser susceptíveis a campos eletromagnéticos gerados por outros equipamentos. O resultado disso, é que as interações desses vários campos podem causar um mau funcionamento do equipamento em si, gerando resultados errôneos ou até mesmo aleatórios. Em Laboratórios de Medidas Magnéticas e em Obser vatórios Geomagnéticos deve-se ter a preocupação com o acúmulo de componentes elétricos e eletrônicos, para que tais equipamentos não gerem interferências eletromagnéticas, nem sejam susceptíveis a tais interferências, de tal forma que estas não venham a interferir na medida magnética propriamente dita. Para que também se tenha uma boa precisão nas medidas magnéticas realizadas, os sensores magnéticos devem ter uma boa estabilidade com o tempo. Para se testar essa estabilidade, devem ser considerados os campos eletromagnéticos irradiados ou conduzidos por equipamentos eletroeletrônicos e as variações rápidas de campo geomagnético – chamadas de micropulsações. As micropulsações podem ter freqüências que variam de 10 Hz a 100 Hz e amplitudes entre 0,1 e 1.000 nT, Matsushita and Campbell (1967). Assim, além de uma quantidade mínima de equipamentos geradores de campos eletromagnéticos, os Laboratórios e Observatórios Geomagnéticos devem possuir uma caixa atenuadora para ser utilizada em vários propósitos, dentre eles, o teste de estabilidade. O material utilizado em uma caixa atenuadora deve ser capaz de apresentar bom índice de absorção. Isso é conseguido empregando-se materiais com alta permeabilidade magnética, geralmente materiais ferromagnéticos. Essa característica é especialmente importante para baixas freqüências. A caixa atenuadora também deve apresentar um bom índice de reflexão, fator também obtido com materiais ferromagnéticos, devido a sua natureza condutora. Essa característica é importante principalmente para altas freqüências. O índice de reflexão do material é também um fator importante, pois se o mesmo for muito grande, as reflexões ocorridas nas paredes externas da caixa atenuadora, devido aos campos eletromagnéticos externos, afetarão o meio ambiente ao seu redor. A capacidade de uma blindagem é medida através de um parâmetro calculado a partir da razão entre dois REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77 valores de campos eletromagnéticos, um medido com a blindagem e o outro medido sem a mesma. A esse parâmetro dá-se o nome de eficiência de blindagem (ou Shielding Effectiveness – SE) e a sua unidade padrão é o decibel, ou dB. Quando se considera uma onda eletromagnética se propagando em um meio condutor, diferentemente do caso onde esta onda se propaga no vácuo, deve-se considerar o efeito da alta condutividade do meio e as conseqüências das correntes de condução, Souza e Sampaio (2001). Neste caso a energia transmitida pela onda decresce conforme a onda se propaga, devido ao fato das perdas ôhmicas estarem continuamente presentes. Para campos eletromagnéticos variando harmonicamente com o tempo na forma e-iωt , as equações de Maxwell podem ser escritas da seguinte forma: ∇ × E = -iωB, (1) ∇ × Η = J – iωD. (2) Onde E representa a intensidade de campo elétrico (V/m), B representa a indução magnética (Wb/m2), H representa a intensidade de campo magnético (A/ m), D representa o vetor deslocamento elétrico em (C/m2) e J representa a densidade de corrente elétrica (A/m2). Tomando-se o rotacional de (1) e utilizando-se (2) e as equações constitutivas B = µH, J =σE e D = εE, obtém-se: ∇ × ∇ × E = iωµσE + ω2µεE, (3) e ∇2E + i ωµσΕ + ω2µεE = 0, (4) como k2 = iωµσ+ ω2µε, (5) obtém-se ∇2E + k2E = 0. (6) Similarmente ∇2H + k2H = 0. (7) 73 HERCULES DE SOUZA O termo k é conhecido como constante de propagação ou número de onda do meio. Segundo Iakbovskii (1980), o campo eletromagnético variável depende, além da distribuição das fontes de campo e da resistividade do meio, da constante dielétrica e da permeabilidade magnética do meio. Em todas as equações que definem o comportamento das componentes do campo, os parâmetros elétricos σ, ε e µ não entram separadamente nas equações, mas sim através do parâmetro denominado número de onda do meio. Ao se considerar freqüências de milhares de hertz e meios condutores, tem-se σ >> ωε. Neste caso o número de onda se reduz a (8): k2 = iωµσ. (8) A partir deste número de onda, define-se o parâmetro δ, definido como profundidade de atenuação de uma onda plana em um semi-espaço homogêneo, a qual representa a distância na qual o módulo do campo eletromagnético tem seu valor reduzido a e-1 (36,8 %) do seu valor inicial, Hayt (1965), d= 2r wm Quando ω se aproxima de zero, δ se torna infinito. Isto significa que o campo eletromagnético e a densidade de corrente são unifor mes em um condutor. Em freqüências mais elevadas, a profundidade de atenuação (δ) torna-se bastante pequena. Por exemplo, para o cálculo da freqüência na qual a profundidade de atenuação para a água do mar seja de um metro, Souza e Sampaio (2001), considera a permeabilidade magnética do meio igual à permeabilidade magnética do vácuo, neste caso, µ = µ0 e 1/ρ = σ = 4,3 S/m, logo a freqüência será dada por : w, = 2 4,3 ´4 p ´10 - 7 ´d2 resultando em uma freqüência de aproximadamente 60 kHz. O espaço ao redor de uma fonte de campo eletromagnético pode ser dividido em basicamente duas regiões. Se a distância da fonte de radiação está dentro de um limite de λ/2π, onde λ é o comprimento de onda, a região é denominada de campo próximo, “near field”. Para freqüências baixas, esse é quase sempre o caso. Para campos próximos, a fonte é o principal fator determinante de suas características, ou seja, se a fonte possui uma alta 74 corrente e baixa tensão, o seu campo será predominantemente magnético, chamado nesse caso de campo indutivo. Se a fonte apresentar baixa corrente e alta tensão, o seu campo será predominantemente elétrico, chamado nesse caso de campo capacitivo. A região de campos distantes, “far field”, situa-se a partir do limite de λ/2π até o infinito. Na região de campos próximos, a relação entre os campos elétricos e magnéticos não é constante, portanto esses campos devem ser medidos separadamente. Para a situação de campos distantes, existe uma relação constante entre os campos elétricos e magnéticos, de forma que os mesmos devem ser medidos simultaneamente. Para uma freqüência de 300 Hz, que é a faixa de freqüência escolhida para a realização desse estudo, devido à máxima variação do campo geomagnético ser da ordem 100 Hz, o comprimento de uma onda eletromagnética será de, aproximadamente, 1,0 x 106 m. Portanto, pode-se considerar que se está em uma região de campos próximos e, desta forma, os campos elétrico e magnético devem ser medidos separadamente. Segundo Friestedt (1993), uma blindagem de campos magnéticos em baixas freqüências deve ser abordada de forma diferente da abordagem dada para uma blindagem RF, principalmente com relação aos materiais envolvidos. Para a blindagem de campos magnéticos da ordem de 1,0 µT para freqüências de até 300 Hz, deve-se dimensionar a blindagem, para que se obtenha uma relação entre o campo magnético sem a blindagem e com a blindagem de 1000 para 1. Nesta situação, a eficiência de blindagem (SE) é de 60 dB. Essa eficiência pode ser determinada a partir da razão entre o campo elétrico, ou campo magnético, incidente no equipamento sem a blindagem (Eo ou Ho) e com a blindagem, (E1 ou H1). SE = 20 log (Eo /E1), = 20 log (1000) = 60 (9) ou SE = 20 log (Ho /H1) = 20 log (1000) = 60 , (10) A partir de uma atenuação desejada, em dB, e de uma freqüência pré estabelecida, é possível definir o tipo e a espessura do material a ser usado na blindagem. Segundo Duff (1993), existem alguns fatores relevantes REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77 AMBIENTE OPERACIONAL a serem considerados no dimensionamento de uma blindagem. Um desses fatores é a eficiência de blindagem, que também pode ser calculada em função das perdas por reflexão (R dB ) e das perdas por absorção (AdB), incluindo o coeficiente de reflexão interna, ou seja: SEdB = RdB + AdB, (K + 1) 2 , 4K Portanto: (15) (12) f é a freqüência em Hz, µ r e σ r correspondem, respectivamente à permeabilidade magnética e à condutividade elétrica relativas do metal. Essas perdas por absorção (AdB) são diretamente proporcionais à freqüência, em hertz, e à espessura do material utilizado na blindagem, em metros. As perdas por absorção aumentam quando as características de permeabilidade e condutividade do material também aumentam. Zb é a impedância da barreira = √(iωµ/σ) para ωε << σ. Quando uma onda eletromagnética incide sobre uma blindagem, ocorrem basicamente estes dois tipos de perdas. A perda devido à reflexão, ocorrida na superfície da blindagem, é dependente do tipo de campo, ou seja, se este campo é considerado um campo eletromagnético próximo ou distante. A perda por reflexão (RdB) é um tipo de perda que ocorre devido à diferença entre a impedância do campo incidente e a impedância da blindagem, a qual por sua vez está relacionada com a permeabilidade magnética e a condutividade elétrica do material envolvido, e também com a freqüência da onda eletromagnética. Para metais, desde que a condutividade elétrica seja alta, a impedância da barreira passa a ser pequena e, conforme essa condutividade elétrica vai diminuindo, essa impedância tende a aumentar. O outro tipo de perda é devido à atenuação da onda ao passar através do material. Esse tipo de atenuação é a chamada perda por absorção (A), sendo a mesma tanto para os campos eletromagnéticos próximos quanto distantes, onde: (13) Onde γ é o vetor de propagação da onda, podendo ser dividido em uma parte real (α) e outra parte imaginária (β), e t é a espessura do material. Aplicando o logaritmo em ambos os lados de (13) e desconsiderando-se a parte imaginária (β), obtém-se REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77 α é igual ao inverso da profundidade de atenuação δ, α = 1/δ. A dB = 8.68 ×t × p ×f ×m r ×s r K = Zw/Zb, Zw é a impedância da onda = E/H e A = e-γt = e-αt e-jβt (14) (11) Onde, R dB = 20 log10 20logA= 20logeαt ⇒ AdB = 8,68 αt. RESULTADOS Utilizando as Figuras 1 e 2, a seguir, obtidas de Duff (1998 e 1993), pode-se, a partir da Figura 1, obter inicialmente o efeito da blindagem obtida pela perda por absorção, em função da freqüência e da espessura de vários materiais. Para a freqüência de 300 Hz, com uma chapa de ferro com espessura de 3,2 mm, obtémse uma atenuação devido à perda por absorção de aproximadamente 100 dB. Já o cobre, por ter uma permeabilidade magnética menor que do ferro, o seu efeito de blindagem só é significativo para freqüências acima de 10 kHz. A Figura 2 apresenta a eficiência total da blindagem versus a freqüência para os campos elétricos e magnéticos e ondas planas. Nesta figura, por exemplo, para uma lâmina de ferro com espessura de 0,8 mm e freqüência de 300 Hz, obtém-se uma atenuação de aproximadamente 25 dB. Para uma espessura de 5,0 mm, o efeito de blindagem será ainda maior, devendo estar em torno de 60 dB. Conforme foi comentado, as perdas por absorção são diretamente proporcionais à freqüência e às propriedades magnéticas e condutoras dos materiais. A permeabilidade relativa é uma dessas propriedades magnéticas importantes a ser considerada para uma eficiente blindagem de campos eletromagnéticos. A partir dos procedimentos apresentados em Souza 75 HERCULES DE SOUZA (1987), o material a ser usado nessa blindagem pode ser efetivamente testado com relação à sua permeabilidade magnética relativa, a qual também varia com relação à freqüência, devendo, para que se obtenham resultados efetivos, apresentar um valor em torno de 2000 até, aproximadamente, 100 kHz, Duff (1993). A partir das Figuras 1 e 2, observa-se que uma lâmina de ferro com 5,0 mm de espessura pode desempenhar um bom efeito de blindagem para baixas freqüências. Necessita-se, agora, definir as aberturas para entrada de cabos e aeração dessa blindagem. Considerando uma abertura retangular, conforme mostrada na Figura 3, a eficiência de uma blindagem está também relacionada com as dimensões dessa abertura. Essa eficiência pode ser calculada a partir de uma fórmula geral, com uma boa aproximação, a partir de (16), Duff (1998). Onde L é a largura da abertura retangular, S é a altura dessa abertura e t é a espessura da chapa utilizada. A fórmula (16) é válida para L ≤ λ/2, onde λ é o comprimento de onda do fenômeno considerado. SE dB @100 ×20 log L(mm ) ´F( MHz ) + 2 (16) Lö t æ 20 logç1 + ln ÷+ 30 Sø L è FIGURA 1 Blindagem devido a perda por absorção (AdB) vs. a freqüência e a espessura do material. (devido a atenuação por penetração: independente da impedância da onda), Duff (1993). FIGURA 3 Abertura e seus respectivos parâmetros a serem considerados em uma blindagem eletromagnética. t representa a espessura da chapa utilizada para a confecção da blindagem, L o comprimento da abertura e S a altura da abertura. Utilizando (16) e aberturas retangulares com t = 5,0 x 10-3 m, S = 2,0 x 10-2 m e L = 5,0 x 10-2 m, obtémse para 300 Hz, com comprimento de onda de 1,0 x 106 m, uma eficiência de blindagem da ordem de aproximadamente 145 dB. Isso significa que esta abertura, necessária para entrada de cabos e aeração, seria eficaz inclusive para freqüências maiores que 300 Hz, desde que a eficiência de blindagem total, obtida com uma lâmina de ferro com 5,0 mm de espessura, seja de aproximadamente 60 dB. FIGURA 2 Eficiência total da blindagem vs. a freqüência para os campos elétricos e magnéticos e ondas planas, Duff (1993). 76 Sendo assim, uma blindagem confeccionada com uma chapa de ferro com uma permeabilidade relativa de 2000 e espessura de 5,0 mm, com uma abertura de, REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77 AMBIENTE OPERACIONAL aproximadamente, 0,001 m 2 e volume de 0.5 m 3 (volume esse capaz de envolver o equipamento magnetométrico sob teste), será capaz de atenuar campos eletromagnéticos, como os devido às variações rápidas dos campos geomagnéticos, em valores da ordem de 60 dB, com freqüências de aproximadamente 300 Hz, possibilitando, assim, testes eficientes de calibrações de equipamentos magnetosensíveis. REFERÊNCIAS CROISANT, W. J. Resonance effects in electromagnetically shielded enclosures. International Symposium on Electromagnetic Compatibility – Denver, USA.1998. DUFF, W. Fundamental of shielding concepts. International Symposium on Electromagnetic Compatibility – Part II, Denver, USA. 1998. DUFF, W. EMC Guidance for Ship Design Managers. Interference control Technologies, INC. 1993. FRIESTEDT, B. Monitor shielding to control magnetic interference, The International Journal of EMC: 66-69, 1993. HAYT, W. H. Engineering Electromagnetics, Editora Novaro/McGrawHill. 1965. CONCLUSÕES A partir da análise dos parâmetros relevantes para atenuação de campos magnéticos em baixas freqüências, foi possível dimensionar uma blindagem, onde se obtenha uma atenuação da ordem de 60 dB, útil para utilização em calibrações de equipamentos magneto-sensíveis. Os parâmetros aqui considerados podem ser analisados e extrapolados, de tal forma que se possa também dimensionar blindagens que sejam eficientes para atenuação de campos eletromagnéticos em freqüências consideravelmente maiores. Estes parâmetros são úteis também para o dimensionamento de blindagens de outros equipamentos, tais como computadores e dispositivos de controle que estejam sendo afetados por campos eletromagnéticos de baixas freqüências, gerados, por exemplo, por circuitos elétricos, e também para o dimensionamento da blindagem da própria fonte de campo eletromagnético, tais como cabos de energia. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77 IAKBOVSKII, I. V. Exploracion elétrica, Editorial Reverté s. a, Espanha, 3° edic. 1980. MAEDA, Y.; MURAKAWA, K.; YAMAME, H.; TOKUDA, M. Analysis of Electromagnetic fields in and around buildings equpped with shielding screens. IEEE International Symposium on Electromagnetic Compatibility, Chicago, USA., 354-359, 1994. MATSUSHITA, S. AND CAMPBELL, W. H., Physics of Geomagnetic Phenomena. Academic Press, New York, Vol. I e Vol II. 1967. SMEDT, R. et al. Approximate simulation of the shielding effectiveness of a rectangular enclosurer with a grid wall. International Symposium on Electromagnetic Compatibility – Denver, USA. 1030-1034, 1998. SOUZA, H.; SAMPAIO, E. Apparent resistivity and spectral induced polarization in the submarine environment. An. Academia Brasileira de Ciências, 73, pg. 429 – 444, 2001. SOUZA, H. Caracterização de lâminas retangulares, SIMPÓSIO SOBRE MATERIAIS MAGNÉTICOS – Associação Brasileira de Metais. São Paulo, SP. 1987. 77 JOSÉ CORRÊA PAES FILHO, RONALDO CESAR E. DOS SANTOS Ferramenta de simulação de Monte Carlo para solução de problemas de logística José Corrêa Paes Filho GAAGueM – Grupo de Avaliação e Adestramento de Guerra de Minas. Comando do 2º Distrito Naval Avenida das Naus s/n.º , Comércio Comércio – Salvador – BA – 40.015-270 E-mail: [email protected] COPPE/UFRJ Área Interdisciplinar de Computação de Alto Desempenho Cidade Universitária, Centro de Tecnologia, Bloco B sala 100 Caixa Postal: 68506 – 21945-970 – Rio de Janeiro – RJ – Brasil E-mail: [email protected] Ronaldo Cesar E. dos Santos CASNAV – Centro de Análises de Sistemas Navais Praça Barão de Ladário s/ n.º Ilha das Cobras, ed. 8 – 3º Andar – AMRJ Centro – Rio de Janeiro – RJ E-mail: [email protected]. Resumo A Simulação de Monte Carlo tem sido cada vez mais utilizada na solução de problemas logísticos e várias ferramentas têm sido desenvolvidas para atender a esta demanda. Este artigo descreve o SimKit, uma ferramenta para execução de simulações de Monte Carlo através de planilhas de Excel. O artigo descreve, ainda, a filosofia de implementação do SimKit, suas características quanto a geração de números aleatórios, a planilha de resultados da simulação e a especificação de cenários. Um problema clássico de Logística é apresentado e solucionado usando-se o Simulação. Palavras-chave SimKit. Simulação de Monte Carlo. O problema do jornaleiro. Logística. Monte Carlo simulation tool for logistics problems Abstract The use of Monte Carlo Simulation to solve logistics problems is increasing and many tools have been developed to attend the demand. This paper describes SimKit, a tool for performing Monte Carlo simulations via Excel spreadsheet models. The paper presents the design philosophy of SimKit and its features for generating random variables, identifying simulation outputs, and specifying scenarios. A version of the classical Newsvendor Problem is solved using SimKit. Keywords INTRODUÇÃO A simulação é um experimento amostral que é executado por computador [1]. Toda simulação se inicia com um modelo onde são inseridas as variáveis, cujos valores variam aleatoriamente e, portanto, estes valores são desconhecidos e devem ser sorteados de uma população apropriada. O modelo é representado por um programa de computador que gera variáveis aleatórias, executa as computações do modelo e fornece os resultados, normalmente na forma de uma ou mais observações. Todos os modelos de simulação se enquadram nesta descrição, portanto a “simulação em planilha eletrônica” usa apenas a planilha como plataforma para representar a modelagem de um processo de amostragem. A planilha eletrônica, como plataforma para a simulação, apresenta uma série de vantagens, principalmente por estar disponível na maioria dos sistemas operacionais. Por este motivo, nos últimos anos, vários pacotes de simulação para Excel têm surgido. Estes pacotes possuem um apelo comercial grande e seus desenvolvedores não permitem acesso ao código fonte, fato este que torna questionável o uso destas ferramentas para pesquisa. Consciente desta necessidade, surge o SimKit para auxiliar o desenvolvimento de novas pesquisas e o ensino da simulação nos cursos de graduação e pósgraduação, com tecnologia desenvolvida por pesquisadores brasileiros. Algumas instituições, cientes desta necessidade, direcionam seus esforços no sentido de desenvolver estes tipos ferramentas como, por exemplo, o “Arrisca.xls” [2]. EXCEL COMO SIMULAÇÃO PLATAFORMA DE O termo “plataforma de simulação” se refere a um ambiente de software usado para desenvolver, testar e executar experimentos através de simulação [3]. Uma plataforma de simulação tem que ter as seguintes características: SimKit, Monte Carlo Simulation, Newsvendor Problem, Logistics. 78 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83 PROCESSOS DECISÓRIOS 1. 2. 3. Um modo de representar relações matemáticas e lógicas entre as variáveis na forma de computação e designação de valores e algoritmos que descrevam como fazer uma série de computações. Um modo de gerar números aleatórios e observações amostra de várias populações. Um modo de repetir uma série de computações idênticas, implementando assim, replicações. Se alguma destas características não existir, a plataforma não poderá ser usada para simulação. O Excel, uma das planilhas eletrônicas mais populares, possui estas características. Além disso, as seguintes características do Excel permitem um processamento rápido e confiável: 1. Um grande número de funções matemáticas, estatísticas, de banco de dados e financeiros. 2. Representação e acesso a base de dados. 3. Recursos gráficos. 4. Recursos para documentação e apresentação de relatórios, tais como fontes, cores e figuras geométricas que melhoram a apresentação. 5. Automatismo através do VBA (Visual Basic Application). SIMKIT O simulador SimKit (Figura 1) é um suplemento do Excel, criado para ser usado como ferramenta de Simulação de Monte Carlo na solução de problemas em várias áreas, tais como Logística, Finanças e Produção. O SimKit ainda é protótipo e ainda não tem a mesma funcionalidade do @Risk [4], Crystal Ball [5], Insight.xla [6] e outros produtos comerciais, mas já está robusto e pode ser aperfeiçoado para ser usado em problemas específicos. A grande vantagem do SimKit é que este consiste de um arquivo que pode ser obtido por download e pode ser executado em qualquer PC com uma versão recente do Excel, sem requerer privilégios de administrador ou um procedimento especial para instalação. O simulador foi concebido para ser de uso fácil. Em contrapartida, o SimKit executa simulações mais lentamente que produtos comerciais, visto que o código gerador de números aleatórios é concebido em Visual Basic. O SimKit foi desenvolvido com base no modelo de Jonthan Eckestein e Steven T. Riedmueller, da Rutgers REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83 University [7]. O SimKit foi concebido para ser usado em versões para Excel em português e inglês, já que a versão original não funcionava em qualquer versão do Excel. Esta versão é disponibilizada sem nenhum custo para quem desejar usá-la para fins acadêmicos e/ou pesquisa. Os autores não se responsabilizam por usos indevidos e com fins comerciais por profissionais não especializados. FIGURA 1 SimKit versão 1.0 FUNÇÕES GERADORAS DE NÚMEROS ALEATÓRIOS As funções geradoras de números aleatórios foram desenvolvidas com o objetivo de fornecer valores de distribuições específicas e fornecerão, geralmente, diferentes resultados toda vez que forem executadas, dependendo dos argumentos inseridos. FIGURA 2 Funções do SimKit. 79 JOSÉ CORRÊA PAES FILHO, RONALDO CESAR E. DOS SANTOS As funções instaladas geram números das distribuições Binomial, Exponencial, Normal, Poisson, Triangular e Uniforme. Além destas, o SimKit possui funções que geram tabelas de probabilidades. Os geradores foram construídos com base nos modelos apresentados no capítulo 8 do livro “Simulation Modeling and Analysis” [8]. A Figura 2 mostra como se apresentam estas funções no Excel, na categoria “Estatística”. A seguir, são descritas as funções geradoras do SimKit. SimKit_GeraUniforme (a, b) Os dois argumentos são números. Normalmente, é esperado que a seja menor que b (a < b). Assim sendo, o número gerado estará uniformemente distribuído no intervalo [a, b] , ou seja, x é tal que a < x < b. Se a = b, então o valor de a (ou b) será gerado. Se a > b, um valor errado será fornecido. SimKit_GeraNormal (m, s) Os dois argumentos são números. Se s < 0, um valor errado será gerado. Se s é zero, o valor gerado será m. Para os outros casos, um valor aleatório com distribuição normal com média m e desvio padrão s será gerado. SimKit_GeraBinomial (n, p) O primeiro argumento n tem que ser um inteiro não negativo e o segundo argumento p tem que ser um número no intervalo [0, 1]. Caso contrário, um valor de erro será fornecido. Se essas condições forem obedecidas, então o valor fornecido será um inteiro sorteado aleatoriamente de uma distribuição binomial, com n trials e probabilidade p de sucesso para cada trial. Se n = 0, então o valor fornecido será 0 (zero). SimKit_GeraPoisson (m) O argumento m é um número não negativo. Um argumento negativo causará um valor errado como resultado. Um argumento zero causará um valor zero como resultado. Caso contrário, o valor de resultado é aleatoriamente escolhido de uma distribuição Poisson com média m. SimKit_GeraTabela (V, P) O argumento V e P são blocos de células ou listas (por exemplo, “{1,3,7}”) possuindo o mesmo número de células. A função retorna, essencialmente, cada valor em V com a probabilidade especificada pelo elemento correspondente em P. Se os dois argumentos tiverem 80 o mesmo número de células, mas diferentes números de linhas e colunas, a correspondência é determinada correndo-se o primeiro na primeira linha, o segundo na segunda linha e assim por diante. Valores não numéricos atribuídos a P são tratados como se tivessem valor zero. Se os dois argumentos não tiverem o mesmo número de células, se P contiver números negativos, ou se P contiver apenas zeros, um valor errado será fornecido. Se os valores de P não somarem 1, eles são reescalonados, proporcionalmente, para que somem 1. Por exemplo, SimKit_GeraTabela ({1, 2, 3},{0,2, 0,5, 0,3}) retorna 1 com probabilidade 0,2, 2 com probabilidade 0,5 e 3 com probabilidade 0,3. SimKit_GeraExpon (a) O argumento tem que ser um número positivo, ou um valor errado será fornecido. Caso atendidas as premissas, o resultado é aleatoriamente escolhido de uma distribuição exponencial com média 1/a. SimKit_GeraTriangular (a, b, c) Retorna o valor de uma distribuição triangular com mínimo a, moda b, e máximo c. Os argumentos têm que ser números com a propriedade a < b < c, ou um valor errado será retornado. CENÁRIOS Para especificar valores diferentes para as variáveis de decisão para cada corrida, o SimKit possui a função: SimKit_Parâmetros (L, k, nome) O primeiro argumento L é um bloco de células ou uma lista que especifica os possíveis valores assumidos. O argumento nome é um caracter que descreve o parâmetro e é usado no sumário estatístico fornecido pela simulação. O argumento k especifica o número de cenários a serem combinados. Por exemplo, uma célula contendo =SimKit_Parâmetros({1,2,3},1, “nível de estoque”) especifica um parâmetro chamado “nível de estoque”, que muda a cada mudança de cenário, assumindo em primeiro lugar o valor 1, depois 2 e por fim 3. Uma célula contendo = SimKit_Parâmetros({1,8, 2.3, -2},2, “temperatura”) define um parâmetro chamado “temperatura”, que recebe o valor 1 para os dois primeiros cenários, 8 para os outros dois cenários, 2.3 os próximos dois, e REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83 PROCESSOS DECISÓRIOS -2 para os últimos dois. O argumento k permite fazer combinações de valores de vários parâmetros, sem a necessidade de escrever cada combinação numa lista. VALORES DE SAÍDA Para especificar o resultado da simulação, o SimKit usa a função: SimKit_Resultado_Simulação(x, nome) A função retorna o valor x e, durante a execução da simulação, o valor de x encontrado será salvo para uma análise posterior, como descrito a seguir. O argumento “nome” é um caracter string que descreve o resultado da simulação na planilha de resultados. Por exemplo, uma célula contendo = SimKit_Resultado_Simulação (A4+B7,”lucro”) definirá uma saída chamada “lucro”, cujo valor é A4+B7. A palavra “lucro” poderá estar escrita numa célula, sem a necessidade de estar entre aspas. Mas, quando o usuário optar por escrevê-la direto na fórmula, deverá colocá-la entre aspas. EXECUÇÃO DAS SIMULAÇÕES Uma vez construído o modelo, especificados os cenários, caso existam, e os valores de saída, a simulação estará pronta para ser executada. Para executar a simulação, seleciona-se na Barra de Ferramentas do Menu “SimKit” a opção “Executar Simulação”. Assim, uma caixa de diálogo aparecerá (Figura 3). O SimKit analisa a planilha e determina quantos cenários são necessários, colocando este número como “valor padrão” na caixa de cenários. Para um número diferente de cenários, clica-se no botão “Definir como” e coloca-se o número de cenários desejado. A caixa “Número de Repetições” corresponde ao número de repetições que o SimKit usará para recalcular o modelo para cada cenário. O valor padrão é “1.000”, mas é possível atribuir qualquer outro valor inteiro. Existe a opção de fixar a semente do número aleatório usada e também de se usar a mesma semente para cada cenário (usar o mesma semente é uma boa prática). Selecionando-se a opção “Simular”, inicia-se a simulação e “Cancelar” retorna-se ao Excel. A simulação é executada apenas na planilha aberta da pasta em que se está trabalhando. Se o número de cenários é N e o número de repetições é S, então o REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83 SimKit recalcula a planilha aberta NS vezes. Esses recálculos são divididos em N blocos de S recálculos, cada bloco constituindo um cenário. Os dados obtidos, como resultados da simulação, são coletados separadamente para cada cenário e os valores obtidos, por qualquer função SimKit_Parâmetros na planilha, variarão de cenário para cenário, como descrito anteriormente. Uma caixa de mensagem, com uma barra de progresso, é apresentada indicando o progresso da simulação. Para testar o modelo iterativamente, simplesmente aperta-se a tecla “F9”. O Excel executará recálculos, apresentando novos valores para as variáveis aleatórias das funções geradoras. Novos valores serão gerados para cada chamada da função SimKit_Parâmetros. FIGURA 3 Caixa principal de diálogo do SimKit. Quando a simulação termina, há um pequeno intervalo de tempo enquanto os resultados são processados. O sumário estatístico é disponibilizado automaticamente numa planilha “Estatísticas n”, que o SimKit cria na pasta aberta. FIGURA 4 Barra de Progresso. 81 JOSÉ CORRÊA PAES FILHO, RONALDO CESAR E. DOS SANTOS Para cada combinação Resultado-Cenário, um sumário estatístico com médias, desvios padrões, mínimos, máximos e percentuais (em intervalo de 5%) são apresentados. Atualmente, não há nenhuma saída gráfica para a simulação. O usuário pode abortar a simulação quando esta estiver sendo executada (Figura 4), basta clicar no botão “Abortar”, ou simplesmente apertar a tecla “ESC” no teclado. Esta ação pode levar até 5 segundos para que a simulação seja interrompida. O PROBLEMA DO JORNALEIRO O problema exemplo é o clássico problema do “jornaleiro” [9], muito empregado nos cursos de pesquisa operacional. Suponha que uma loja está vendendo um produto que custa R$6,00 e é vendido a R$12,00. O gerente da loja não consegue prever com certeza a demanda para aquele produto. Dados de anos anteriores sugerem que a demanda pode ser modelada por um valor aleatório de uma distribuição Poisson com média 70. O produto que não for vendido é devolvido ao fornecedor, que dá um crédito de R$ 3,00 à loja. Há somente uma oportunidade para se fazer o pedido. O problema então, resume-se em determinar qual o nível de estoque ideal para o produto em questão. A Figura 5 apresenta a solução para o problema usando o SimKit. Nas células B3, B4, B5 e B6 são colocados os valores referentes ao Custo unitário de fornecimento do produto, o preço de venda, o crédito estornado pelo fornecedor por item não vendido e a demanda esperada para o produto, respectivamente. Nas células D3 a D9 são colocados os possíveis níveis de estoque, que são as variáveis de decisão usadas como parâmetros na simulação. Na célula B8 colocamos a função do SimKit que gera um número aleatório da distribuição Poisson com média definida em B6. Nas células D3 a D9 colocamos os níveis de estoques variando de cinco em cinco. A demanda real é modelada por “=SimKit_GeraPoisson(Demanda_Média)”, gerando valores aleatórios da distribuição Poisson com “Demanda_Média = 70”. O nível de estoque é modelado por “=SimKit_Parâmetros(D3:D9;1;”Nível de Estoque”)” com valores variando de 55 a 85. As vendas correspondem à quantidade “=MÍNIMO (Demanda_ Real;Nível_de_Estoque)”, que representa a quantidade mínima entre a demanda e o nível de estoque, ou seja, 82 FIGURA 5 Problema do Jornaleiro. se a demanda for maior que o nível de estoque, só posso vender a quantidade em estoque e, se a demanda for menor, haverá sobras que terão de ser devolvidas ao fornecedor. As sobras que retornam ao fornecedor são modeladas com “=Nível_de_ Estoque-Vendas”. A receita corresponde às “=Vendas*Preço_de_Venda” e o custo do produto é modelado como “=Nível_de_Estoque*Custo_Unitário”. O crédito dado pelo fornecedor corresponde à quantidade de itens devolvidos vezes o valor estornado, modelado por “=Retorno_Fornecedor* Estorno”. O lucro é dado pela Receita mais o Crédito menos o Custo do Produto e definido como a saída da simulação, representada em B18 por “=SimKit_ Resultado_Simulação(Receita+CréditoCusto_do_Produto;”Lucro”)”. Uma vez modelado o problema, executou-se a simulação com 1.000 repetições para cada cenário, como mostra a planilha de resultados gerada pelo SimKit (Figura 6). FIGURA 6 Planilha de Resultados do SimKit. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83 PROCESSOS DECISÓRIOS Analisando a planilha de resultados, vemos que a melhor política é manter um nível de estoque de 75 itens. O SimKit ainda não apresenta resultados gráficos, mas o Excel permite a construção de gráficos a partir dos resultados da simulação, como mostra a Figura 7. REFERÊNCIAS 1. FISHMAN, G. S. (1996). Monte carlo concepts, algorithms and applications. New York: Springer. 2. SALIBY, E. (2003). Arrisca.xls: Ferramenta de Simulação de Monte Carlo – Notas de Aula, COPPEAD, 2003. 3. SEILA, Andrew F. (2002), Spreadsheet Simulation, Proceedings of the 2002 Winter Simulation Conference. 4. @RISK (2002), Risk Analysis Software, Palisade, Inc., http:// www.palisade.com. 5. CRYSTAL BALL (2000), Risk Analysis Software, Decisioneering, Inc., http://www.decisioneering.com. 6. SAVAGE, SAM L. (1998). Insight.xla, Business Analysis Software for Microsoft Excel, – Text and Software, Duxbury Press, Belmont, California. 7. ECKSTEIN, J. & RIEDMUELLER S.T. (2001), YASAI: Yet Another Add-in for Teaching Elementary Monte Carlo Simulation in Excel, INFORMS Transcations on Education 2:2 (12-26). FIGURA 7 Apresentação Gráfica do Resultado. CONCLUSÃO E TRABALHOS FUTUROS 8. LAW, A.M. & KELTON, W.D. (1999), Simulation Modeling and Analysis, 3rd ed. McGraw-Hill series in industrial engineeering and management science. 9. WINSTON, W.L. (2000), Simulation Modeling Using @RISK: Updated for Version 4, Brooks/Cole, Belmont, CA. 10. SALIBY, E. (1989), Repensando a Simulação: a amostragem descritiva, Atlas, Rio de Janeiro, Editora da UFRJ. O SimKit é uma ferramenta criada para uso acadêmico e pesquisa. Sua criação é o resultado de pelo menos quatro anos de pesquisa do primeiro autor deste trabalho e da parceria entre os autores do SimKit. O protótipo SimKit tem se mostrado viável para utilização em cursos de graduação e pós-graduação e, nos próximos anos, o planejado é continuar o desenvolvimento, adicionando interfaces gráficas, implementando novos geradores de números aleatórios, solucionando os problemas de vínculos entre arquivos e implementando diferentes tipos de amostragem, tais como Amostragem Descritiva [10]. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83 83 FLÁVIO COSTA PICCININI A onda de projeto por meio da análise estatística de extremos a partir de dados medidos por satélite Flávio Costa Piccinini Faculdade Salesiana Maria Auxiliadora, FSMA – Macaé, RJ E-mail: [email protected] Resumo A descrição do estado do mar por meio do conhecimento das ondas superficiais de gravidade, principais responsáveis pelo transporte de energia nos oceanos, é de substancial relevância no manejo e gerenciamento das atividades em regiões costeiras e oceânicas. No final do século XX, a altimetria por satélite tornou-se operacional e permitiu o conhecimento das alturas significativas de ondas de modo contínuo e com ampla cobertura. O presente trabalho tem por objetivo utilizar as observações disponibilizadas pelo satélite TOPEX/POSEIDON e, em função destas, estimar por métodos estatísticos os valores de alturas extremas, ou seja, as ondas de projeto, indispensáveis para o dimensionamento de estruturas, para a segurança do homem e proteção do meio ambiente oceânico. Palavras-chave Ondas. Satélite. Altura significativa. Valores extremos. Valor de retorno. The design sea wave using extreme statistical analysis of satellite provided data Abstract The description of sea state by surface gravity waves, major responsible for energy transport throughout the oceans, is of great importance in coastal and oceanic activities performance and management. In XX century end, the satellite altimetry became usage, thus furnishing height of significant waves continuously and with wide cover. The objective of this work is to treat TOPEX/POSEIDON satellite data statistically in order to estimate extreme wave height values, the design waves, indispensable for structure sizing, human being safety and environmental protection. Keywords Wave. Satellite. Significant height. Extremes values. Value of return. 84 INTRODUÇÃO A noção intuitiva de segurança de um sistema estrutural está vinculada à idéia de sobrevivência aos riscos inerentes ao meio a que estiver envolvida a estrutura e a sua corrente utilização. Os fundamentos de segurança, entre outros, residem no princípio de se projetarem estruturas que suportem as elevadas tensões provenientes das ações ambientais mais extremas, durante a sua vida útil e dentro de um custo econômico aceitável. O conhecimento das forças da natureza presentes no ambiente oceânico e os seus efeitos são imprescindíveis para os projetos dos meios flutuantes e das estruturas fixas, costeiras ou oceânicas, a fim se evitar que o esgotamento da capacidade de suporte da estrutura a leve a um estado de ruína. Nesse contexto, insere-se o estudo das severas condições impostas pelo mar, como a probabilidade de ocorrência de elevadas ondas em um determinado período de tempo e espaço. As alturas máximas de onda, por exemplo, para um período de 50 ou 100 anos, é um parâmetro capaz de ser estimado por meio da estatística de valores extremos, cujo propósito é estimar a ocorrência de um valor esperado para um evento extremo, que se sucederá uma vez a cada intervalo de tempo. O presente trabalho utiliza os princípios da análise estatística de extremos para estimar valores de alturas máximas de onda, ou seja, preestabelecer as dimensões de uma onda para períodos de anos também preestabelecidos, e defini-la como a onda de projeto. O conhecimento das ondas oceânicas caracteriza-se como um dos principais parâmetros para descrever o estado do mar, haja vista as intensas pesquisas e estudos de climatologia de ondas no contexto da oceanografia. O conjunto de dados para a referida análise – a amostragem – está composto pelas observações de altura significativa de onda, medidas pelo satélite Topex/Poseidon, relativo a uma série temporal compreendida entre setembro de 1992 e agosto de REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90 PROCESSOS DECISÓRIOS 2002. O espaço geográfico focalizado está definido em cinco áreas no oceano Atlântico. (Figura 3). Na obtenção dos valores de alturas extremas, utilizouse a totalidade dos dados medidos, ajuste pela função de distribuição de Weibull com três parâmetros e inferência dos parâmetros pelo método dos momentos. Finalizando o trabalho, apresenta-se a forma da onda de projeto dimensionada conforme a teoria de Stokes 5°. (Figura 4) OS SATÉLITES E A MEDIDA ALTIMÉTRICA DE ALTURA DE ONDA Há mais três décadas as observações dos oceanos por satélites têm verdadeiramente revolucionado o conhecimento científico sobre o clima global, a modelagem do sistema oceano-atmosfera e apresentando-se como uma poderosa ferramenta para a prática da engenharia de estruturas oceânicas. Especificamente quanto à climatologia de ondas, destacam-se os satélites acoplados com o radar altimétrico, que mede com acuracidade de poucos centímetros as ondulações dos oceanos, por meio de instrumentos com sensores ativos de microondas acoplados aos satélites, destacando-se o radar altímetro (RA-2), o esclerômetro e o radar de abertura sintética (SAR). O radar altímetro de dupla freqüência (POSEIDON2) mede com precisão a distância entre o satélite e a superfície do oceano. Transmite permanentemente ondas eletromagnéticas de alta freqüência (acima de 1700 pulsos por segundo), que retornam por reflexão da superfície do oceano, conforme exposto na Figura 1. A distância medida é função do tempo em que viajam as ondas eletromagnéticas. Desse modo, o retorno do sinal fornece medidas com suaves variações, ascendentes ou descendentes conforme o estado do mar. A partir dos anos 90, com os satélites ERS-1 e ERS2 da Agência Espacial Européia e com o satélite Topex/Poseidon, uma significativa quantidade de dados tornaram-se disponíveis. A missão Topex/ Poseidon foi uma ação conjunta do Centre National d’Estudes Spatiales da França com a National Aeronautics and Space Administration – NASA. O lançamento ocorreu em 10 de agosto de 1992, em Kourou, na Guiana Francesa, a bordo do foguete REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90 (Fonte: AVISO – Archiving, Validation and Interpretation of Satellite Oceanographic data) FIGURA 1 Visualização esquemática da medida da topografia do oceano. Ariane, cujo objetivo principal era acompanhar os padrões de circulação oceânica e, principalmente, a medida do nível dos oceanos, a qual obteve pleno sucesso até agosto de 2002, quando passou a navegar em outra órbita, face o lançamento do satélite JASON-1. O Topex/Poseidon realiza 127 revoluções ao redor da Terra, a 1335 km de altitude, que são repetidas a cada 9.91 dias, a uma velocidade de 5,8 m/s, cujo plano orbital (ângulo que as passagens formam com o equador) é de 66°. Cada revolução do satélite ao redor da Terra é dividida em dois segmentos, com orientações projetadas sobre o planeta, noroestesudeste e sudoeste-nordeste, referidas como passagens descendentes e ascendentes. Os dados de altimetria não formam imagens, mas uma grade que acompanha a órbita do satélite, formando um padrão do tipo grade ou rede-de-pesca sobre o oceano, representado pela Figura 2, a seguir. A separação entre essas linhas “paralelas” é de 315 km no equador, diminuindo em direção aos pólos. Os dados de satélites, como os de altimetria, podem ser obtidos no site http://podaac.jpl.nasa.gov/ – (Physical Oceanography Distributed Active Archive Center – PO.DAAC), que é um dos órgãos responsáveis por arquivar e distribuir dados relevantes do estado físico dos oceanos. 85 FLÁVIO COSTA PICCININI Valor de retorno (Ht) É uma altura máxima de onda que retornará em um intervalo de tempo. Por exemplo, a onda de 100 anos é uma onda com uma altura – valor de retorno – que será igualada ou superada em média a cada período de 100 anos. Sendo esse o período de retorno, que é o tempo médio decorrido entre as ocorrências de um evento que excede ou iguala-se ao valor de retorno, o qual é derivado da função de distribuição. Esses conceitos presumem um clima de onda prédefinido, inalterado, durante 50 ou 100 anos, o que é improvável na natureza. Uma outra menção apropriada enseja que, para 50 ou 100 anos, há uma probabilidade de dois por cento ou um por cento, respectivamente, de ocorrer uma onda com altura maior que a onda extrema estimada, no período de um ano. Amostragem É um conjunto específico de dados que embasa a análise estatística. No presente trabalho são as observações de altura significativa de onda medidas pelo satélite. FIGURA 2 Formato em grade da trajetória percorrida pelo satélite METODOLOGIA Análise de alturas extremas de ondas CONCEITOS BÁSICOS Os conceitos básicos de altura significativa de onda, período de retorno, valor de retorno e amostragem, estão adotados no presente trabalho, conforme a seguir descritos: Altura significativa de onda (Hs) É definida como: Na teoria estatística, dados extremos referem-se a máximos ou mínimos de uma amostra independente de dados. Ao longo dos anos, vários métodos estatísticos para a análise de valores extremos têm sido desenvolvidos e várias funções de distribuição aplicadas para ajustar uma amostragem. O período de retorno (P) O método usualmente empregado para estimar um valor de retorno de altura de onda, para um n-ano, considerando uma amostra com elevada densidade de dados, é ajustar a distribuição em um determinado período de anos e extrapolar a probabilidade de ocorrência para o tempo desejado. Este método é comumente utilizado para medidas de dados in situ, e dessa forma tem sido aplicado com pleno sucesso para dados altimétricos de satélite. (Carter, 1993; Barstow, 1995). É definido como o tempo em anos em que as ondas máximas retornarão. A curva da função de densidade de probabilidade para a distribuição de Weibull mostra que, para Hs = 4 (òS( f ) df ) (1.1) onde S(f) é a freqüência espectral da onda. Comumente é adotada como a média de 1/3 das maiores elevações de onda de uma série temporal, medidas, por exemplo, por uma bóia. 86 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90 PROCESSOS DECISÓRIOS estimadores favoráveis, a cauda superior da curva aproxima-se de zero. Portanto, é considerada a apropriada para estudar variáveis que tem limites de grandeza como aqueles associados aos ambientes climáticos naturais, como ventos, ondas, chuvas, terremotos. (Holmes e Moriarty 1999). A análise com dados extremos foi primeiramente apresentada por Fisher e Tippett (1928), que estabeleceram três tipos de distribuições assintóticas de valores extremos, tipo I, II e III, conhecidas como Gumbel, Fréchet e Weibull, respectivamente. Entretanto, a principal dificuldade resultante foi identificar o tipo de distribuição que apresentasse os mais fiéis valores extremos projetados para uma referida amostra de dados. A distribuição de Weibull A distribuição de Weibull é um dos métodos mais usuais na análise de valores extremos de altura significativa da onda para uma distribuição de longo termo. É uma das distribuições preferidas e utilizadas em trabalhos desenvolvidos em renomados centros de estudos de climatologia de ondas, como, por exemplo no Wave World Atlas (WWA), elaborado pelo OCEANOR – Oceanographic Company of Norway ASA e no Global Wave Statistics Online, software desenvolvido pelo BMT Fluid Mechanics Limited – England. A função de Weibull com três parâmetros tem como função de distribuição: é æ x-b ök ù F (x) = 1-exp- ê ç ÷ú a è øú ê ë û No presente trabalho, os estimadores pontuais foram deduzidos pelo método dos momentos, para o ajuste da função de distribuição de Weibull. O método dos momentos é baseado na simples concepção de que os momentos da distribuição (média, variância, assimetria, entre outros) dependem do valor dos parâmetros, que podem ser estimados dos valores estatísticos da própria amostra. Portanto, os parâmetros de locação b, escala a>0, e forma k>0, podem ser expressos em termos de média (ì), variância (ó 2) e assimetria (ã), m = b + aG (1 + 1 k ) (2.3) s 2 = a 2 {G(1 + 2 k ) - G 2 (1 + 1 k )} (2.4) {G (1 + 3 k ) - 3G (1 + 2 k )G (1 + 1 k ) + 2G (1 + 1 k )} {G (1 + 2 k ) - G (1 + 1 k )} 3 g= 2 (2.5) Temos, portanto, os momentos m: m1 = ì m2 = ó2 m3 = ã ( 2 . 6 a , b, c ) (2.2) Conforme exposto na Introdução e considerando como um evento A uma onda máxima que se iguale ou exceda um determinado valor x, cuja probabilidade P(A) é dada por 1-F(x), e T o tempo aleatório entre ocorrências consecutivas de eventos A, o período de retorno do evento A é o valor médio ô da variável T, ou seja, t sendo k, a, e b os parâmetros de forma, escala e locação para b d” x < ∞ REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90 32 Estimação do período de retorno (2.1) e, função de densidade de probabilidade k-1 é æ x - b ök ù k æx - b ö f (x )= ç ÷ exp ê- ç ÷ú aè a ø êè a ø û ú ë Estimação dos parâmetros = 1 1 = P( A ) 1-F ( x) sendo ô expresso em anos. 87 FLÁVIO COSTA PICCININI Estimativa do valor de retorno de altura de onda: O valor de retorno (Hs), associado ao período de retorno ô, é obtido a partir da solução da equação F(Hs) = 1-P (3.8) 1 k HS = b + a é ë- ln (1 - F (H St) )ù û sendo b e k > 0 (3.9) Admitindo-se ondas com persistência de 3 horas, haverá 2922 registros de Hs por ano, portanto em t anos a probabilidade de não excedência do valor de retorno será: 1 ou seja, para t.2922 1 F(Hs50 ) = 1 = 0.9999932 50x2922 F(hst ) = 1 - 50 anos A Tabela 2 apresenta as alturas significativas máximas anuais, cujos valores foram extraídos diretamente da amostragem de cada QMD. A Tabela 3 apresenta os valores dos parâmetros e dos momentos calculados em função das equações 2.3 a 2.6. Os valores dos momentos: média, variância e assimetria foram obtidos por meio de programas de funções estatísticas. O valor do parâmetro de forma (k) é obtido pela equação 2.5), o valor de escala (a) é definido pela equação 2.4) e o valor de locação (b), pela equação 2.3). A Tabela 4, a seguir, expõe os resultados mais relevantes do presente trabalho. São as alturas significativas máximas de onda (HS), relativas aos períodos de retorno indicados em anos e que foram obtidas por meio da equação 3.9). Os valores estão expressos em centímetros. TABELA 1 Apresenta a quantidade de registros da amostragem por QMD RESULTADOS E DISCUSSÃO Os resultados da análise estatística para a obtenção de valores extremos máximos, por meio da aplicação da distribuição de Weibull, estão a seguir expostos. Como descrito, foi considerada uma amostra com elevada densidade de dados, pois contemplou a totalidade dos registros apresentados na Tabela 1. 88 Números de registros 147.133 QMD 1 303 2 339 15°S 35°W 119.578 3 375 25°S 35°W 145.426 4 411 412 35°W 45°W 118.725 5 35°S 35°S OBSERVAÇÕES COLETADAS DENTRO DA SÉRIE TEMPORAL E ESPACIAL Os registros de altura significativa de onda que compõem a amostragem para a análise estatística, utilizados na análise de extremos, foram medidos pelo satélite Topex/Poseidon, durante o período de setembro de 1992 a agosto de 2002, e referidos para cada uma das cinco regiões do oceano Atlântico, identificadas pelos Quadrados de Marsden (QMD), conforme pode ser observado na Figura 3. Cada região citada abrange uma área de 5° x 5°, com centros definidos pelas coordenadas estabelecidas na Tabela 1. Coordenadas dos centros dos QMD (LAT/LONG) 04°S 32°W Região 144.178 TABELA 2 Valores máximos anuais de altura significativa de onda (Hs), expressos em metros. QMD 303 1993 3,3 1994 3,3 1995 3,2 1996 3,6 1997 3,7 1998 3,8 1999 3,6 2000 2,9 2001 3,6 2002 2,9 339 3,9 3,9 3,5 4,2 3,8 4,1 3,7 3,8 4,1 3,1 375 6 5,2 5 6 5,7 5,8 5,4 4,9 5,4 4,4 411 8,9 7,8 6,9 8,7 7,8 9,2 9,1 7,6 7,5 8,9 7,5 7,7 8,8 8,1 7,7 7,3 7,9 7,1 8,1 7,8 412 TABELA 3 Parâmetros e momentos para a distribuição de Weibull. Parâmetros escala locação (a) (b) 74,66 122,14 forma (k) 2,0690 média (μ) 188,28 339 85,70 104,73 1,6829 181,25 2187,59 375 113,66 109,71 1,4769 212,51 5013,49 1,099 411 161,45 134,06 130,76 129,37 1,3485 1,1998 278,84 255,48 12317,99 11142,76 1,271 1,521 QMD 303 412 Momentos variância assimetria (σ2) (γ) 1124,51 0,587 0,880 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90 PROCESSOS DECISÓRIOS TABELA 4 Valores de retorno (Hs) obtidos utilizando-se a distribuição de Weibull. QMD 303 5 anos 344,8 339 375 411 412 10 anos 352,4 20 anos 359,8 30 anos 364,0 50 anos 369,2 100 anos 376,1 433,2 447,1 460,7 468,4 478,0 490,8 634,9 660,3 685,2 699,5 717,3 741,1 993,9 1.011,6 .1039,8 1.064,4 1.084,8 1.116,7 1.110,8 1.146,9 1.143,3 1.184,9 1.186,7 1.235,9 Os valores expostos mostram com clareza que a altura das ondas está fortemente relacionada com a latitude da região observada. No QMD 303, em latitude próxima de 04° Sul – região do nordeste brasileiro – além da pouca altura das ondas, a elevação dessa altura no período de retorno entre 5 e 100 anos é pequena, próxima de 10%. Na latitude 25° Sul – próxima da região da bacia de campos – QMD 375, a altura das ondas representa quase o dobro das alturas observadas no QMD 303, entretanto, significativamente menores que as alturas registradas ao sul do Brasil, representados pelos QMD 411 e 412, onde são registradas ondas com alturas superiores a 10 metros e que atingem mais de 12 metros. Os resultados relativos à posição geográfica dos QMD podem ser também visualizados na Figura 3, onde são expressos os valores de alturas significativas extremas para períodos de retorno de 10, 50 e 100 anos. A partir dos resultados, podemos definir a forma da onda de projeto utilizando a teoria de Stokes 5°, relativa à maior altura encontrada, isto é, uma onda centenária (período de retorno a cada 100 anos) com altura significativa estimada de 12,36 metros, na região do sul do Brasil, para um período de onda estimado de T=14 segundos. FIGURA 3 Apresenta as regiões dos QMD analisados com as respectivas alturas de retorno. CONCLUSÃO A medida das ondulações do oceano, por meio do radar altimétrico acoplado em satélites, fornece com grande precisão informações sobre o ambiente oceânico. A aplicação destes dados, em uma função de distribuição de Weibull com três parâmetros, e a inferência pelo método dos momentos, consolida os resultados obtidos, por terem sido gerados em procedimentos seguros, confiáveis e plenamente aceitos no meio científico. A estimativa de valores extremos de altura significativa para uma onda de projeto, certamente, em muito contribuirá para as atividades desenvolvidas no ambiente oceânico. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90 89 FLÁVIO COSTA PICCININI REFERÊNCIAS 1. BARSTOW, S.F.. Validation of the Topex/Poseidon Altimeter Measurements of Significant Wave Height and Wind Speed, OCEANOR Rep. No. 95053, 1995. 2. CARTER, D. J. T.. Health and Safety Executive. Offshore Technology Report, London, 1993. 3. CARTER, D.J.T., P.G. CHALLENOR AND M.A. SROKOSZ.. An assessment of GEOSAT wave height and wind speed measurements, J. Geophys. Res., Vol. 97, 1992. 8. HOLMES, J.D.; MORIARTY, W.W. Application of the generalized Pareto distribuition to extreme value analysis in wind engineering. Journal of Wind Engineeirng and Industrial Aerodynamics, v.83, p.1-10, 1999. 9. MATALAS, N. C.., HYDROLOGIST VIENNA, 709 Glyndon St., S.E., 2001 10. OVE DITLEVSEN, Stochastic Wave Loads on Tubular Offshore Structures -Models for dynamics and reliability analysis. Department of Civil Engineering Technical University of Denmark, april 2001. 4. GLOBAL WAVE STATISTICS ONLINE, BMT Fluid Mechanics Limited, England. 11. PICCININI, F. C.. Um Estudo do Carregamento Hidrodinâmico sobre Estruturas Oceânicas Esbeltas. Departamento de Engenharia Oceânica, Rio Grande, RS, FURG, janeiro 2003. Dissertação de Mestrado. 5. GODA, Y.. Random Seas and Design of Maritime Structures. 2. ed. World Scientific Publishing, Singapore, 2000. 12. SMITH, R.L.. Environmental Statistics. Department of Statistics University of North Carolina, Chapel Hill, USA, julho 2001. 6. GUIDE TO WAVE ANALYSIS AND FORECASTING, 2. ed. Secretariat of the World Meteorological Organization – Geneva – Switzerland, 1998 13. WORLD WAVES ATLAS – Oceanographic Company of Norway ASA OCEANOR, 2001. 7. HAVER, S.. On the Prediction of Extreme Wave Crest Heights, Statoil, Stavanger, Norway, 2000. 90 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90 PROCESSOS DECISÓRIOS Sistema de apoio àa decisão com informações georreferenciadas: uma aplicação em software livre Marcelo Felipe Moreira Persegona Universidade de Brasília – Centro de Desenvolvimento Sustentável CDS/UnB Instituto de Ensino Superior de Brasília – IESB E-mail: [email protected] Suboficial (AD-PD) Maria Isabel Araújo Silva dos Santos Estado-Maior da Armada – Subchefia de Logística e Mobilização – Divisão de Ciência e Tecnologia Universidade de Brasília – Centro de Desenvolvimento Sustentável CDS/UnB E-mail: [email protected] Isabel Teresa Gama Alves Universidade de Brasília – Centro de Desenvolvimento Sustentável CDS/UnB E-mail: [email protected] Resumo Este trabalho apresenta o aplicativo SAD/WebGIS – Sistema de Apoio à Decisão com Informações Georreferenciadas, como uma ferramenta de auxílio aos tomadores de decisão de órgãos públicos ou empresas, na elaboração, implantação e acompanhamento de projetos e/ou programas governamentais, bem como, a capacidade de criar mapas com múltiplas camadas de informações e de distintas origens (shapes e fotografias de satélite). Sua aplicação tem se mostrado importante na realização de avaliações espaciais do território e no estudo de fenômenos em diversas áreas de interesse. O aplicativo apresentado foi desenvolvido em plataforma livre, seguindo a tendência atual do governo brasileiro na adoção deste tipo de solução. Palavras-chave Sistemas de informação. Georreferenciamento. Apoio a decisão. Tecnologia da informação. Decision support system with geographic referenced information: a free software application Abstract This work presents the SAD/WebGIS – Decision Support System with Geographic Referenced Informations as an auxiliary tool to decision makers when elaborating, implantating and following up projects and/or programs in public and private agencies or companies. The SAD/ WebGIS is able to create maps with multiple layers of information of different sources, such as shapes and satellite photos. This system was of great importance to the evaluation of a geographical areas and in the study of phenomena that has occurred in this particular areas. This application was developed on the general public license software, in particular on Linux platforms, following the brazilian government tendency in adopting free software solutions. Keywords Information systems. Geographic reference. Decision support. Information technology. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95 INTRODUÇÃO O Estado Moderno, seguindo a corrente da era do conhecimento, tem como uma de suas principais funções prover informações. Nesse contexto, passa a depender de um ciclo integrado de ações, ou seja, a coleta, a produção, a ordenação, o armazenamento e a distribuição de informações. Assim, disponibilizar à sociedade informações sobre serviços públicos vem se constituindo em uma estratégia gerencial para maior efetividade na execução de políticas públicas. Tendo o entendimento que o grau de democratização do Estado pode ser medido pela sua transparência, o que pressupõe o direito à informação e à privacidade do cidadão, quanto maior o acesso à infor mação governamental, mais democrática e liberal torna-se a relação do Estado com a sociedade, o que propicia ao cidadão maior conhecimento e participação nos processos decisórios de seu país. O uso de um sistema de informações georreferenciadas possibilita um melhor entendimento sobre as cidades, as regiões e os países, pela representação visual dos dados tabulares, possibilitando a percepção de tendências e de informações, que no formato textual não seriam percebidas, devido ao grande volume de dados a serem analisados. Esse trabalho apresenta o aplicativo SAD/WebGIS – Sistema de Apoio à Decisão com Informações, como ferramenta estratégica para a criação de políticas públicas, bem como para a concepção do planejamento estratégico. OBJETIVOS DO SISTEMA O SAD/WebGIS foi desenvolvido com o propósito de contribuir para a ampliação da observação e análise dos recursos e acontecimentos no espaço geográfico brasileiro. Utiliza informações georreferenciadas úteis aos tomadores de decisão governamentais como parte da gestão do conhecimento – possui ferramentas capazes de armazenar, recuperar, integrar, manipular, 91 MARCELO FELIPE MOREIRA PERSEGONA, SUBOFICIAL (AD-PD) MARIA ISABEL ARAÚJO SILVA DOS SANTOS, ISABEL TERESA GAMA ALVES analisar, e, principalmente, associar dados espaciais1 a um banco de dados textual e/ou de imagens. Possibilita o estudo, a partir mapas temáticos 2 e personalizados pelo usuário, de um cenário complexo e heterogêneo a ser gerenciado pelo planejamento territorial brasileiro. DESENVOLVIMENTO DO SISTEMA O georreferenciamento utiliza técnicas matemáticas e computacionais para tratamento de informações geográficas, juntamente com os dados textuais tabulares, incorporando ferramentas de Sistemas de Informações Geográficas (SIG) e Sensoriamento Remoto3, com destaque para o Processamento Digital de Imagens (PDI). O SAD/WebGIS foi desenvolvido em duas versões, uma na plataforma proprietária Windows e outra em plataforma livre. A interface de navegação do sistema é bastante amigável e capaz de ser utilizada em qualquer computador, pois está baseada nos mesmos programas utilizados na Internet, ou seja, no ambiente Web. O sistema permite, por meio de um conjunto mínimo de ferramentas e modelos de dados, disponibilizar informações georreferenciadas, onde os usuários poderão consultar ou navegar as informações integradas a um banco de dados textual, por mapas digitalizados4, fotografias aéreas ou bases cartográficas digitais. Também permite a comparação entre as informações armazenadas, as camadas temáticas de interesse do usuário e as imagens de satélites disponíveis, gerando novos mapas personalizados. Cabe ressaltar que o processo de plotagem agrega maior qualidade e precisão à informação gerada, permitindo maior presteza, efetividade e transparência na análise a ser realizada pelo usuário. Toda informação associada direta ou indiretamente a um objeto específico cuja localização pode ser referenciada geograficamente. 2 Mapas criados automaticamente pelo sistema, em que a abstração cartográfica é realizada com base nos atributos dos elementos. 3 Conjunto de processos e técnicas utilizados para medir propriedades eletromagnéticas de uma superfície ou de um objeto, sem que haja contato entre o objeto e o equipamento. 4 Representação no plano, normalmente em escala pequena, dos aspectos geográficos, naturais, culturais e artificiais de toda a superfície, de uma parte ou de uma superfície definida por uma dada divisão político-administrativa ou por uma dada divisão operacional ou setorial. 1 92 O acesso ao SAD/WebGIS pode ser via Internet ou Intranet, cabendo a observação do grau de sigilo das informações e política de segurança quanto aos dados que serão disponibilizados. As informações utilizadas no sistema podem ser provenientes de outros sites da Internet ou bases de dados de órgãos governamentais, por exemplo: Instituto Nacional de Pesquisas Espaciais (INPE), Empresa Brasileira de Pesquisa Agropecuária (EMBRAPA), Departamento Nacional de Produção Mineral (DNPM), Centro de Imagens e Informações Geográficas do Exército (CIGEx), Ministério das Comunicações (MC), Instituto Brasileiro do Meio Ambiente e dos Recursos Naturais Renováveis (IBAMA), Fundação Nacional do Índio (FUNAI), entre outros, o que denota a capacidade do sistema para integrar diferentes tipos de informações. A Figura 1, a seguir, apresenta um exemplo de uso do sistema SAD/WebGIS. No mapa gerado no exemplo, foram selecionadas as camadas5 temáticas Brasil, municípios de fronteira, barragens, Amazônia legal, região da seca e rios intermitentes. O núcleo é o programa de WebGIS (MapServer6) que é programado em um arquivo texto, chamado mapfile, onde ficam as instruções de localização dos dados geocodificados (banco de dados textuais, imagens raster7 e temas shapesfiles8); posição geográfica em latitude e longitude ou UTM; definições de consulta a banco de dados; e os nomes que aparecerão nas legendas e rótulos. Os arquivos templates proporcionam a interface da aplicação, definindo a posição de ferramentas de zoom, consulta, cores, logos etc. O MapServer é um software Divisão temática dos elementos de dados georreferenciados. Cada nível representa, geralmente, um conjunto específico de elementos. 6 MapServer é um conjunto de ferramentas e recursos OpenSource para a criação de aplicações espaciais (geográficas) em ambientes web. O sistema foi construído com auxílio de outros projetos Free Software ou OpenSource e pode ser compilado na maior parte de sistemas UNIX/Linux, Windows e MacOS. 7 Representação de elementos geográficos. Os dados são armazenados e exibidos como linhas horizontais e verticais de células uniformemente divididas – pixels. Essas imagens descrevem features, embora não possuam discernimento delas como entidades independentes. 8 Representação vetorial, onde a localização e a aparência gráfica de cada objeto são representadas por um ou mais pares de coordenadas. Essa representação pode ser feita por três tipos básicos de elementos: pontos, linhas ou áreas (polígonos). As coordenadas geográficas são valores numéricos, através dos quais podemos definir a posição de um ponto na superfície da Terra, tendo como ponto de origem para as latitudes o Equador e o meridiano de Greenwich para a origem das longitudes. 5 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95 PROCESSOS DECISÓRIOS FIGURA 1 Mapa gerado no SAD/WebGIS – Fonte: O autor de visualização, ou seja, ele apenas apresenta dados e não tem a capacidade de alterá-los. Caso seja necessário realizar alterações, faz-se necessária a utilização de softwares de geoprocessamento, como o ArcGIS e o Erdas Imagine. Uma aplicação MapServer pode “linkar” (pular) para outra aplicação MapServer. As etapas de desenvolvimento do SAD/WebGIS foram: 1 a. processamento dos arquivos shapefiles e raster, utilizando os softwares de geoprocessamento. Estes arquivos foram armazenados em uma estrutura de diretórios e interpretados na etapa seguinte pelos arquivos mapfile. 2 a. codificação dos arquivos mapfile, usando uma linguagem de definição do mapfile. Estes arquivos foram criados, ou seja, programados por um técnico. Foram criados os arquivos templates na linguagem HTML, que permitiu a apresentação dos dados na aplicação WebGIS. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95 3a. interpretação do MapServer. O software MapServer interpretou e executou o arquivo mapfile, gerou a aplicação WebGIS com base nos templates, arquivos shpefile e raster, e apresentou-os no navegador. A Figura 2, a seguir, ilustra as etapas de desenvolvimento do sistema SAD/WebGIS. Os equipamentos utilizados no desenvolvimento e acesso ao Sistema de Apoio a Decisão com Infor mações Georreferenciadas possuíam as características técnicas, abaixo descritas: – Servidor: com dois processadores, barramento de 64 bits, 1 Gb de memória RAM e HD 200 Gb. – Estação de desenvolvimento: processador AMD Duron de 1800 MHz, 256 Mb DDR de memória RAM e HD 40 Gb. – Estação de trabalho: qualquer computador com navegador de Internet. O sistema em plataforma livre utilizou: – Sistema Operacional Unix Like. 93 MARCELO FELIPE MOREIRA PERSEGONA, SUBOFICIAL (AD-PD) MARIA ISABEL ARAÚJO SILVA DOS SANTOS, ISABEL TERESA GAMA ALVES FIGURA 2 Etapas de desenvolvimento do SAD/WebGis. Fonte: CARVALHO, 2004 – Servidor Web APACHE 4.3. – MapSer ver para visualizar as camadas de informação georrefenciadas e ler os bancos de dados relacionados às camadas. – Interface do aplicativo desenvolvido em HTML. A versão para plataforma proprietária (Windows) utilizou: – Sistema Operacional Windows XP. – Servidor Web ISS 5.0. com as opções desejadas, compilar e copiar o código binário gerado para o diretório CGI-BIN gerado na instalação do servidor Apache. O sistema SAD/WebGIS, possui integração com Perl, Java, JavaScript, Python, PHP, ASP e ColdFusion. A aplicação desenvolvida utiliza HTML para a interface e JavaScript para as consultas textuais ao banco de dados, bem como para a otimização de ferramentas a serem utilizadas nos mapas temáticos gerados. Uma versão do SAD/WebGis está acessível no endereço: http://200.130.0.16/WebGis/pnot/limpartmp.php – Interface do aplicativo desenvolvido em HTML. – MapSer ver, para visualizar as camadas de informação georrefenciadas e ler os bancos de dados relacionados às camadas. Cabe destacar a existência de duas diferenças entre as duas versões: – no que se refere à programação do arquivo mapfile, que é interpretado pelo programa MapServer; e – na instalação no servidor da aplicação. A versão Windows necessita que sejam salvas as bibliotecas (DLL) do MapServer em um diretório do Windows, que dependerá do tipo de servidor de páginas HTML utilizado (IIS ou Apache). Já na versão com servidor Linux ou FreeBSD, basta configurar 94 CONCLUSÃO O SAD/WebGIS permite a captura, armazenamento, manipulação, análise e disponibilização de informações referenciadas geograficamente, agregando: • efetividade – ao permitir o acesso a grande quantidade de informações; • integridade – ao permitir o controle de acesso simultâneo aos dados geográficos; e • persistência e independência – ao permitir a manutenção das informações independentemente dos aplicativos que acessam os dados. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95 PROCESSOS DECISÓRIOS Adicionalmente, apresenta a vantagem de utilidade no foco social, baixo custo ou nulo no desenvolvimento, liberdade de acrescentar a quantidade de informações que forem julgadas necessárias e compará-las, sem importar a origem dos dados, obsolescência nãoprogramada, robustez, adaptabilidade, suporte fácil e amigabilidade. A concepção do sistema permite o manuseio de qualquer tipo de informação georreferenciada, tais como, shapes, pontos, linhas e imagens raster de satélites. Pode ser usado para múltiplas finalidades, onde a sua utilização se diferenciará apenas pelo tipo de dados armazenados. Não requer um treinamento específico para a sua utilização, por ter sido desenvolvido em interface de navegador de Internet, o que reduz o tempo de treinamento dos usuários, por ser uma tecnologia que a maioria dos usuários já possui conhecimento. A tecnologia empregada no desenvolvimento do sistema permite que seja instalado em qualquer tipo de servidor de páginas de HTML, não necessitando a aquisição de licenças de algum software específico, caso seja instalado a versão em plataforma livre. Portanto, possui portabilidade e interoperabilidade, devido ao uso de aplicações de Internet. REFERÊNCIAS CARVALHO, Carlos Alberto, 2004. Desenvolvimento de Aplicações WebGIS em MapServer. EMBRAPA, Campinas. FERREIRA, Anderson Soares, 2004. Guia de instalação do FREEBSD. EMBRAPA, Campinas. FREGONA, Marcelo, 2004. Mapas. CPqD, Campinas. GATTO, Sandro Danilo, 2004. O CpqD e Software Livre em GIS: ISIG/WEB e SIGPPT-RadCom. CPqD, Campinas. GISData, 2004. GISData. http://www.gisdata.com.br GISMaps, 2004. GISMaps. http://www.gismaps.com.br MAGALHÃES, Geovane C. “et al”, 2004. Sistema de Informações Geográficas. CPqD, Campinas. MANEGUETTE, Arlete A. C., 2003. Introdução à Cartografia Temática. UNESP, Presidente Prudente. ______________, 2004. Visita guiada ao software de cartografia temática Philcarto 4. UNESP, Presidente Prudente. MAPSERVER, 2004. MapServer Documentation Project. http:// mapserver.cttmar.univali.br NOGUEIRA, R. N. “et al”, 1997. Georreferenciamento de mapas temáticos e imagens de satélite no aplicativo IDRISI. Revista Brasileira de Agrociência, 3, nº3, pág 99-106, Santa Maria. PERSEGONA, M. F. M.; BURSZTYN, M. e ALVES, I. T. G., 2006. Adicionando valor a la Información: Representando la Información en Mapas Geográficos para Apoyo a la Toma de Decisión. In: VII Taller Internacional sobre Inteligencia Empresarial y Gestión del Conocimiento en la Empresa. Intempres 2006 Venezuela. Baruta: Fundación Instituto de Estudios Avanzados (I.D.E.A.). PERSEGONA, M. F. M.; PRADO, M. O.; ALVES, I. T. G.; DIAS, F. A. A. e OLIVEIRA, S. A., 2006. La utilización de informaciones georreferenciadas para Inteligencia Competitiva: Propuesta de una Herramienta. In: Congreso Internacional de Información, Havana. Taller Internacional sobre Inteligencia Empresarial y Gestión del Conocimiento en la Empresa. Havana: IDICT. TEIXEIRA, Marta Duarte, 2004. Padrões OpenGIS Componentes Open Source. CPqD, Campinas. THÉRY, Hervé, 2004. Curso: SIG – Cours HT1. Disponível no endereço: http://www.atmos.ggf.br TOURNEAU, François-Michael Le, 2004. Curso de Informações Georreferenciadas. Disponível no endereço: http:// www.fmlt.org WANIEZ, Philippe, 2004. Philcarto. Disponível no endereço: http:/ /perso.club-internet.fr/philgeo REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95 95 MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO O uso da simulação na avaliação operacional da defesa antiaérea de um navio de guerra Mauricio José Machado Guedes Centro de Análises de Sistemas Navais, Marinha do Brasil E-mail: [email protected] Resumo Este artigo apresenta uma simulação de Monte Carlo com o objetivo de, inicialmente, auxiliar na identificação dos parâmetros que quantificam o desempenho de um sistema de defesa antiaérea de um navio de guerra, e a contribuição de cada parâmetro no cálculo da probabilidade de um navio sobreviver a um ataque de mísseis (Ps) e, posteriormente, obter as linhas de ação que maximizem Ps em cada cenário. A quantificação dos parâmetros necessários para o cálculo de Ps são obtidos de um processo de Avaliação Operacional (AO) do navio, tarefa bastante dispendiosa. Considerando que uma maior precisão na obtenção dos parâmetros leva a maiores custos, a construção de um modelo que indique quais parâmetros medir e a precisão com que devem ser medidos, é de vital importância para uma utilização otimizada dos recursos disponíveis. Palavras-chave Modelagem. Simulação. Avaliação operacional. Área: simulação. Using simulation to assist the operational analysis of a warship air defence Abstract This article presents a Monte Carlo simulation to, firstly, identify the parameters that quantify a ship air defence system performance, and the relevance of each parameter to the survival probability evaluation of a single warship against a missile attack (Ps) and, secondly, to obtain the course of action that maximize Ps in a given scenario. The required parameters to calculate Ps are quantified by carrying out an Operational Test&Evaluation (OT&E) process. This is an expensive task, taking in account that the tests become more and more expensive as the parameters required accuracy increases. Thus, a model that leads to the best parameter choice and its precision is paramount to cut expenditure of the whole process. Keywords Modeling. Simulation operational. Test: evaluation. 96 INTRODUÇÃO Com a crescente complexidade dos sistemas que compõem os meios da Marinha do Brasil (MB), a Avaliação Operacional (AO) de um navio tornou-se uma tarefa cada vez mais dispendiosa, exigindo cada vez mais o auxílio das ferramentas da pesquisa operacional (PO) [MB (2004)]. A AO difere de um processo de aceitação de equipamento por ter uma abordagem sistêmica. Enquanto a aceitação se limita a verificar a aderência do funcionamento de um equipamento às especificações, a AO verifica os vários equipamentos que são necessários para a consecução de uma tarefa, visando otimizar o seu emprego, em condições as mais reais possíveis de operação. Isto é, o foco de uma AO é a missão, que fornecerá os cenários de utilização do navio. O cenário é a descrição imaginária que será utilizada para simular um ambiente real de operação do navio. Na construção do cenário, são criadas linhas de ação, que são procedimentos a serem seguidos para cumprir a missão. A partir das linhas de ação, são construídos os modelos de emprego, que serão o guia para as simulações que obterão as informações necessárias a respeito das características do sistema e seu desempenho operacional [Braga (1979)]. As simulações a serem conduzidas são digitais ou analógicas, que servirão para aumentar o conhecimento sobre os desdobramentos de uma linha de ação, e utilizando o próprio equipamento no mar e o apoio necessário. Os modelos de emprego, chamados de táticas, são estudados visando sua otimização. Mas, para isso, é necessário a obtenção dos parâmetros de desempenho dos sistemas, não isoladamente, mas integrados entre si e com o elemento humano, no cumprimento de uma determinada missão. O desempenho é medido pelas chamadas Medidas de Eficácia Operacional (MEO). Sua quantificação é realizada por meios de testes com os sistemas operando em condições tão reais quanto possível, o que implica em um alto custo, pois envolve a operação de navios, aeronaves, submarinos e outros REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102 PROCESSOS DECISÓRIOS dispositivos necessários como apoio. A condução dos testes no mar é uma atividade dispendiosa, e deve ser usada com a máxima eficiência. A obtenção das MEO implica em procedimentos repetitivos para o levantamento de estatísticas confiáveis, e fica claro que quanto maior a precisão requerida, mais dispendioso será sua obtenção. Para a utilização racional dos recursos disponíveis, é preciso se concentrar nas variáveis que afetam a MEO procurada e separar as variáveis que não afetam, ou afetam pouco, o resultado final. A concentração dos esforços na obtenção das variáveis mais importantes leva a uma substancial economia de recursos. Além disso, alguns parâmetros são virtualmente impossíveis de serem obtidos na prática, por envolver um custo altíssimo ou por ter um grau de risco inaceitável, e devem ser obtidos a partir da composição de outras MEO que, associadas de maneira correta, informarão o resultado da MEO procurada. Este artigo descreve o procedimento para a obtenção dos parâmetros necessários à obtenção de P s, a probabilidade de um navio em sobreviver a um ataque de mísseis. Ps é a MEO principal a ser determinada. Ela é de difícil obtenção, pois não se pode, na prática, reproduzir exatamente todas as fases de um engajamento anti-aéreo. Esse trabalho usa simulação para melhor esclarecer a dinâmica do problema e os relacionamentos entre as variáveis, e auxiliar na seleção das MEO que quantificarão o desempenho dos sistemas de defesa antiaérea do navio na destruição dos incursores. Nesse estágio, o objetivo é descobrir as variáveis que influenciam na determinação de Ps em um cenário de alvos múltiplos. Nesse estágio, o objetivo da simulação é melhorar o entendimento do problema, e não obter dados quantitativos [Ignall e Kolesar (1979)]. Laboratory’s [SEAROADS (2006)] e o SADM da BAE Systems [Chapman e Benke (2000)], mas esses sistemas são de pouca valia se os parâmetros de desempenho dos sistemas não são conhecidos, além de terem sido desenvolvidos com objetivos diferentes dos da MB. Foram também elaboradas abordagens mais gerais com o objetivo de explicitar melhor o problema da defesa antiaérea, inclusive sem apoio computacional [Hostbeck (1999)]. METODOLOGIA Este estudo foi desenvolvido para obter os parâmetros relevantes na determinação da probabilidade de um navio sobreviver a até quatro incursores se aproximando (fechando) a baixa altitude contra o navio, com uma velocidade de cerca de 500 nós, cada um deles separados por seis segundos [Shephard (1988)]. O navio modelado aqui tem três radares, um de busca aérea e dois de direção de tiro (DT). O radar de busca aérea não tem arco cego (região não coberta pelo radar devido à superestrutura da navio), e os radares DT têm um arco cego de 60° a ré de suas posições. Seus alcances são considerados como sendo o horizonte radar para um incursor em vôo rasante (altitude < 50 pés). O navio tem dois sistemas de defesa, um lançador de mísseis superfície-ar (MSA) na popa e dois canhões anti-aéreos, um em cada bordo. O navio deve manobrar para desmascarar os alvos, se estiverem em arco cego. A decisão da guinada obedece a um algoritmo (ver Figura 3), que tem por objetivo minimizar o tempo para o engajamento e maximizar Ps. O cenário de ataque é o seguinte: a) Radar de busca do navio detecta incursor Identificar os parâmetros que quantificam o desempenho dos sistemas de defesa antiaérea é o primeiro passo para o estabelecimento de táticas para enfrentar a ameaça de mísseis, e é de vital importância para a sobrevivência do navio. b) Navio identifica incursor como inimigo Algumas firmas desenvolveram e vendem sistemas para o auxílio ao planejamento e desenvolvimento de táticas de defesa aérea, como, por exemplo, o SEAROADS da TNO Physics and Electronics e) É decidido qual armamento usar (MSA ou canhão) REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102 c) Radar de busca envia TI (indicação do alvo) para o radar DT d) Radar DT adquire e rastreia o alvo f) Navio engaja o incursor 97 MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO O cenário mais simples é um navio atacado por um único incursor. Algum tempo após o incursor cruzar o HR, ele é detectado. Ele tem que ser identificado como inimigo e rastreado pelo radar de direção de tiro. Após um período de tempo, que pode ser relativamente longo se o navio precisar desmascarar o alvo, um MSA é lançado contra o incursor. Após o tempo previsto de interceptação, é necessária uma avaliação se o incursor foi destruído. Se não foi, é necessário lançar outro MSA ou, dependendo da distância, engajar o incursor com o canhão anti-aéreo. A situação se torna mais complicada na presença de mais de um incursor. Como a guiagem do MSA é do tipo semi-ativa, o radar DT que está guiando o MSA só é liberado após a interceptação do alvo. Assim, outro incursor só poderá ser engajado com o radar DT restante. Assim, o tempo para o rastreamento será dependente se o incursor estiver no arco cego do radar DT restante. Se estiver, o navio terá de guinar, mas sem comprometer a ação em andamento contra o incursor já engajado. A tática empregada na manobra do navio para o engajamento das ameaças impactará fortemente em P s , pois os arcos cegos dos radares DT e do armamento anti-aéreo poderão implicar em manobras do navio para o desmascaramento do alvo. A necessidade de engajar dois mísseis incursores fará com que o navio aumente a área de reflexão radar vista pelo incursor, já que a intersecção dos arcos livres dos radares DT força o navio a assumir uma atitude aproximadamente de través ao incursor. Uma conseqüência disso é que o navio vai aumentar sua área de reflexão radar para o incursor, aumentando assim sua probabilidade de acerto, já que a zona de intersecção dos arcos livres dos radares DT ocorre pelo través do navio. A simulação utiliza vários elementos na modelagem dos cenários de emprego da defesa antiaérea. Eles estão descritos a seguir. probabilidade de mau funcionamento, isto é, a probabilidade do míssil impactar e não explodir. Navio Será considerado sozinho, sem alarme aéreo antecipado. Assim, dependerá somente de seus sensores para detecção de incursores. É dotado dos equipamentos e sistemas descritos a seguir. A Figura 1 apresenta a localização dos equipamentos utilizados na simulação. Radar de Busca Para um navio sozinho, a área que pode ser esclarecida por seus sensores é limitada pelo horizonte radar (HR), que é definido como a maior distância de detecção por causa da curvatura da Terra, isto é, no caso da defesa aérea, o ponto mais cedo possível em que é possível uma detecção. Essa distância depende da altura da antena do radar de vigilância e a altura da aeronave ou míssil incursor Radar de Direção de Tiro É um radar de grande precisão para a orientação das armas do navio. Recebe a indicação de alvo vinda do radar de busca e, após um tempo, adquire e passa a rastrear o alvo. Esse tempo é dependente da qualidade da posição do alvo passada pelo radar de busca, do alinhamento do sistema e do software de controle do radar DT. Míssil Superfície-Ar (MSA) O MSA considerado aqui é do tipo semi-ativo, isto é, é necessário que um radar mantenha o alvo iluminado até a interceptação. Isto significa que o MSA aloca um radar de DT até a interceptação com o alvo. Canhão Anti-Aéreo É considerado que o canhão não tem sistema independente de acompanhamento do alvo, e por isso Incursor O incursor será um míssil ou uma aeronave em vôo rasante (<50 pés), desenvolvendo cerca de 500 nós em vôo retilíneo fechando contra o navio. Tem uma probabilidade de sucesso, que varia de acordo com a área do alvo apresentada a ele, e engloba a 98 FIGURA 1 Posicionamento dos elementos usados na simulação REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102 PROCESSOS DECISÓRIOS depende dos radares DT do navio. Com isso, ele concorre com o MSA no uso dos radares DT. É uma arma de curto alcance. Os armamentos e sensores têm os seguintes arcos cegos, representados na Figura 2. Os arcos cegos dos canhões não estão representados para não sobrecarregar a figura. O arco cego de cada canhão é o setor de 180o do bordo oposto a cada um. Tempos Existem os tempos necessários para decisão e aqueles inerentes ao sistema do navio. Os tempos de decisão são aqueles relacionados com o fator humano, como identificação da ameaça e comando de manobra do navio. Esses tempos são dependentes de adestramento. Quanto mais adestrado estiver o comandante nas táticas disponíveis para cada situação, menor será o tempo de decisão. O ambiente também influi. Por exemplo, operações próximas a rotas aéreas comerciais dificultam a avaliação das ameaças aéreas e tendem a aumentar o tempo de decisão [Liebhaber (2000)]. FIGURA 2 Arcos cegos dos sensores e armamento Os tempos do sistema do navio são os requeridos para desempenhar as funções necessárias ao engajamento do alvo. Tática As táticas, ou linhas de ação, de emprego do armamento de defesa aérea são desenvolvidas para maximizar Ps. Existem várias linhas de ação possíveis. Dentre elas, usando a experiência e o bom senso, é possível eleger algumas que seriam as candidatas à melhor tática. Como existem várias situações possíveis, um conjunto de linhas de ação deverá ser testado para o reconhecimento das melhores em cada situação. Um exemplo parcial (apenas até o engajamento pelo MSA e sem considerar os canhões) de linha de ação está apresentado na Figura 3. RESULTADOS E DISCUSSÃO Foi usada a simulação orientada a eventos e, quando o navio está manobrando, por incrementos fixos no tempo. Essa opção foi motivada pela necessidade de visualização passo a passo da manobra do navio, melhorando o entendimento de cada algoritmo de manobra implementado. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102 FIGURA 3 Fluxograma de Decisão 99 MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO A linguagem utilizada foi o FORTRAN 95 com a parte gráfica da própria linguagem (QWIN). Nesse estágio, não é ainda necessário o desenvolvimento de uma apresentação realista do cenário, servindo a parte gráfica para verificar a consistência do código. A Figura 4 apresenta um exemplo, utilizando dados fictícios, do desenrolar da simulação no caso em que três mísseis incursores estão fechando contra o navio. A Figura 4a mostra o início da simulação. O círculo maior delimita o alcance do MSA, e o círculo menor o alcance do canhão. A linha cheia indica a proa do navio e as linhas pontilhadas mostram os arcos cegos dos radares e armamento (ver Figura 2). Vê-se um incursor já detectado (os eventos são marcados por bolas pretas) e outro se aproximando ainda sem ser detectado. FIGURA 4 Um exemplo da simulação do engajamento de três incursores. A Figura 4b mostra um incursor já rastreado por um radar DT e outro já detectado. pretende determinar como cada um desses parâmetros contribue para Ps, e assim indicar o grau de precisão com que eles precisam ser levantados em testes reais. A Figura 4c apresenta três mísseis detectados, sendo dois rastreados. Na mesma Figura, pode-se ver que um míssel já foi engajado e que o terceiro incursor está esperando a liberação de um radar DT para ser rastreado. Vê-se ainda nessa figura que um incursor está se aproximando pelo arco cego do MSA, obrigando o navio a manobrar para desmascarar o incursor. Um elemento de vital importância a considerar é a árvore de decisão empregada, que condiciona os parâmetros que devem ser investigados e influencia no seu relacionamento. Assim, é importante encontrar primeiro a melhor, ou melhores, linhas de ação a empregar para as situações selecionadas e, para estas, listar os parâmetros (e sua precisão) a serem obtidos da AO, em testes reais. Na Figura 4d, vê-se que o navio já desmascarou o incursor que se aproximava pelo arco cego do MSA. Um incursor já foi neutralizado (liberando um radar DT), um MSA está a caminho da interceptação do segundo incursor, e o terceiro incursor está sendo rastreado pelo radar DT que foi liberado após a neutralização do primeiro incursor. A título de exemplo, apenas alguns desses parâmetros estão descritos, de forma geral, a seguir. Na Figura 4e, um MSA destruiu o segundo incursor (liberando um radar DT), e o outro MSA está próximo da interceptação do terceiro incursor. Finalmente, a Figura 4f apresenta os três mísseis incursores destruídos, sem a necessidade de engajamento pelos canhões. Parâmetros Vislumbrados Durante a construção da simulação, vários parâmetros foram sendo identificados e incorporados à simulação, considerados necessários ao estudo do problema de defesa antiaérea do navio. A utilização da simulação 100 a) Tempo para detectar após cruzar o HR É o tempo transcorrido entre o incursor cruzar o HR e ser detectado pelo radar de vigilância. Esse tempo é dependente das condições meteorológicas, do estado do radar, do estado do mar e do tamanho do incursor. b) Tempos de reação do armamento É o tempo entre o comando (que pode ser automático ou manual) e a sua execução pelo armamento. Esse tempo é dependente do sistema computacional do navio, composto de tempos de processamento e tráfego de dados, e do tempo gasto pelo armamento para se posicionar. Os arcos cego, tanto dos sensores quanto do armamento, também influenciam nesse tempo, por exigir que o navio manobre para desmascarar um alvo. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102 PROCESSOS DECISÓRIOS c) Tempo de reação de rastreamento É o tempo entre a identificação e a decisão com a qual o radar DT rastreia o alvo. Esse tempo leva em conta o tempo de decisão propriamente dito, que é, considerando a marcação do incursor e o radar DT que está disponível , decidir qual radar DT (AV ou AR) usar. Se o incursor estiver se aproximando pelo arco cego do radar DT escolhido, soma-se o tempo de guinada do navio. d) Tempos de reação de decisão São tempos que o decisor necessita para julgar a situação e expedir uma ordem. São fortemente dependentes do cenário de operação e do adestramento do decisor. e) Probabilidades de acerto As probabilidades de acerto podem ser avaliadas a partir da solução de tiro para o canhão e para o MSA. É necessário também verificar a precisão da solução de tiro sob altas taxas de guinada do navio. Sua precisão depende, principalmente, dos sensores utilizados para obter a posição do alvo e dos algoritmos implementados para resolver a solução de tiro. f) Taxa de Guinada É a variação do rumo do navio no tempo. É dependente do tipo do navio e da velocidade em que é feita a guinada. É importante porque, no caso de um incursor se aproximar por um setor de arco cego dos sensores ou do armamento, vai impactar diretamente nos diversos tempos de reação. CONCLUSÕES Este trabalho está em andamento, mas já permitiu a identificação de parâmetros não percebidos inicialmente. Por exemplo, a implementação da simulação mostrou que a decisão de como o navio manobra influi fortemente na MEO principal (Ps), por alterar os tempos de reação dos sensores e armas. A utilização da simulação para vislumbrar cenários e ajudar a determinar como e em que grau cada variável do problema se relaciona e sua contribuição para o resultado final desejado, está se mostrando bem sucedida. Além disso, a simulação está permitindo uma familiarização com a cinemática do problema, auxiliando na elaboração dos testes reais, de modo a REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102 torná-los mais objetivos para a obtenção dos parâmetros desejados. O uso da simulação está permitindo economia na condução de uma AO inerentemente dispendiosa, permitindo que os testes reais se concentrem em obter, com a precisão necessária, os parâmetros que efetivamente influam no problema. Após a simulação ter auxiliado na identificação das MEO e seus relacionamentos, os próximos passos são a verificação e a validação do modelo, para que, de posse dos resultados da AO, possam ser conduzidas simulações, de modo a identificar procedimentos (táticas) que maximizem Ps em cada cenário. Depois desse passo, esse trabalho poderá evoluir para um simulador de treinamento, sendo então necessário o desenvolvimento de uma apresentação gráfica mais elaborada. REFERÊNCIAS BRAGA, M.J.F., Avaliação Operacional de Sistemas, Revista Marítima Brasileira, Marinha do Brasil, jul/ago/set 1979. CHAPMAN, S.J., BENKE K.K., Assessment of Ship Air Defence Performance by Modelling and Simulation, BAE SYSTEMS Austrália, 2000. HOSTBECK L., Methods for evaluation of Air-Defence Systems on Surface ships, Defence Research Establishment, Division of Defence Analysis, 1999. IGNALL E. E KOLESAR P., On Using Simulation to Extend OR/MS Theory: The Symbiosis of Simulation and Analysis, in Current Issues in Computer Simulation, New York, EUA, Academic Press, 1979. Cap. 15, p. 223233. LIEBHABER, M.J., SMITH, C.A.P., Naval Air Defense Threat Assessment: Cognitive Factors and Model, 2000 (www.pacific-science.com/ AppliedCognition/BFA%20CCRTS-00-LS.pdf). MARINHA DO BRASIL (MB), EMA-333, Sistemática para Avaliação Operacional na Marinha do Brasil, Estado Maior da Armada (EMA), 2004. SHEPHARD, R.W. et alli., Applied Operations Research: examples from defence assessment, Plenum Press, EUA, 1988. US NAVY, Naval Operations Analysis, EUA, Naval Institute Press, 2 a edição, 1977. Internet: AeroSpaceweb, Missile Guidance, http://www.aerospaceweb.org/ question/weapons/q0187.shtml, 2006. SEAROADS: Simulation, Evaluation, Analysis and Research on Air Defence Systems, http://www.tno.nl/defensie_en_veiligheid/ militair_optreden/ operational_analysis/searoads_simulation,_eval/ index.xml, 2006. 101 MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO GLOSSÁRIO AA: antiaéreo AEW: “Aerial Early Warning” – Alarme Aéreo Antecipado AO: avaliação operacional AR: a ré AV: a vante Cenário: é a descrição imaginária que será utilizada para simular um ambiente real de operação do navio DT: direção de tiro hard-kill: neutralização do incursor por destruição HR: horizonte radar MAS: míssil ar-superfície MB: Marinha do Brasil 102 MEO: medida de eficácia operacional mima: milha marítima » 1.852 metros MSA: míssil superfície-ar MSS: míssil superfície-superfície PO: pesquisa operacional Ps: probabilidade de sobrevivência do navio Radar de busca: Principal radar do navio, para busca aérea e de superfície sea-skimmer: vôo em baixa altura (< 50 pés) sobre a superfície do mar soft-kill: neutralização do incursor por despistamento (eletronicamente) TI: “target indication”, indicação da posição do alvo para um radar DT REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102 PROCESSOS DECISÓRIOS Um sistema de inferência nebuloso para apoio a tomada de decisão do analista de crédito de empresas de crédito pessoal Paulo Soares Barreto Filho Faculdades IbmecRJ Maria Augusta Soares Machado Faculdades IbmecRJ E-mail: [email protected] Resumo O analista de crédito tem como tarefa analisar o perfil de um cliente, com o objetivo de emitir um parecer sobre sua situação e, então, decidir se este merece ou não o crédito solicitado. Analisando o perfil desse cliente em potencial, é possível ter bons indicadores se será um bom pagador, ou se será um cliente inadimplente. Com a intenção de auxiliar o analista de crédito de empresas especializadas em crédito pessoal, este trabalho tem o objetivo de implementar e avaliar uma metodologia, usando conceitos de matemática nebulosa, inteligência computacional e um banco de dados como fonte de conhecimento. Palavras-chave Crédito pessoal. Inadimplência. Matemática nebulosa. A fuzzy inference system for support the decision making of credit’s analyst of personal credit’s enterprises Abstract Financial corporations need to manage their credit portfolio in a effective way, avoiding losses to their customers and shareholders .With competition growth among banks in the fight for clients, they saw the contraction of profit margin associated to credit operations , being forced to enlarge their client´s base to improve earnings . To this end , it´s necessary that corporations develop fast and reliable methods to aid in the decision making process. This paper describes , through Fuzzy Logic methods , an expert system to automate the decision making mechanism, typical of financial institutions working in the personal credit segment . Keywords Fuzzy logic. Credit analysis. Fuzzy systems. Fuzzy inference. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109 INTRODUÇÃO Toda vez que uma empresa resolve conceder crédito a um cliente, seja ela uma pequena loja de bairro, uma mercearia, um banco ou uma empresa especializada em conceder crédito, é feita uma análise da situação desse cliente, pessoa física ou jurídica, para tentar identificar se será ou não um cliente inadimplente. Assim como as empresas que concedem crédito, seus métodos de análise e clientes são bem diferentes. Os métodos utilizados para analisar um futuro cliente vão desde simples confiança, verificação de sua situação financeira atual, consulta a bancos e empresas que possuam seu cadastro, até métodos computacionais e sistemas especializados em análise de crédito. Como em algumas empresas especializadas, a análise de credito é fundamental para a sobrevivência do negócio, este trabalho propõe uma nova metodologia para analisar o problema. Este trabalho propõe um sistema baseado em conceitos de lógica nebulosa, para tentar tornar a tarefa de analisar o perfil do cliente mais rápida, correta e eficaz, tentando diminuir o nível de inadimplência da empresa. Crédito é uma palavra que possui vários significados e usos; pode significar confiança, boa reputação ou boa fama. Também podemos defini-la como o ato de disponibilizar uma quantia em dinheiro a um terceiro, com a promessa de pagamento futuro, acrescido de juros ou não. No comércio, o crédito facilita a venda de mercadorias, permitindo que os clientes comprem, levem a mercadoria no ato e paguem em parcelas. Essa modalidade é chamada de crédito direto ao consumidor. Desta forma, algumas empresas conseguem obter um resultado financeiro melhor (ganho com o parcelamento das vendas) do que o resultado operacional (ganho com a venda de mercadorias), por causa do valor das taxas de juros cobradas. Na indústria, como no comércio, o crédito facilita a compra de equipamentos, matéria-prima e produtos manufaturados, fazendo com que o número 103 PAULO SOARES BARRETO FILHO, MARIA AUGUSTA SOARES MACHADO de compradores potenciais aumente. Nos bancos, é uma das vertentes de seu negócio básico, a intermediação financeira. O banco capta dinheiro com clientes que têm recursos disponíveis e os repassa aos tomadores de recursos em forma de empréstimo. Assim, seu lucro é obtido com a diferença entre o que ele recebe do tomador e quanto ele paga do aplicador/investidor. Em todas as modalidades de crédito e, em todas as empresas que trabalham direta ou indiretamente com crédito, existe uma política que norteia toda operação. Nesta política, basicamente devem ser definidos: a quem e de que modo será feita a concessão, e que quantia será concedida a um, ou a um grupo, de indivíduos. O processo de concessão de crédito para pessoas físicas ou jurídicas é muito parecido, todos têm um fluxograma bem semelhante. A pessoa física tem sua fonte de renda e suas despesas, que podem ser de curto ou longo prazo. Ela tem que tentar fazer com que sua receita seja suficiente para honrar suas despesas. Muitas vezes, a falta de controle, o surgimento de despesas imprevistas ou outros fatores, fazem com que exista a necessidade de se buscar um suprimento de dinheiro extra para preencher uma lacuna em seu orçamento. Nesta situação, é que surge o profissional de crédito com a missão de analisar se esse proponente merece que a empresa/instituição conceda a ele os recursos de que necessita. Há também a situação do proponente estar procurando recursos para investimento. Neste caso, a análise é feita de maneira um pouco diferente, mas os princípios são os mesmos. A análise de crédito consiste em atribuir valores a um conjunto de fatores que permitam a emissão de um parecer sobre determinada operação de crédito. Para cada fator individual é emitido um valor subjetivo (positivo ou negativo). Se o conjunto de fatores apresentarem valores positivos em maior número do que os negativos, a tendência é de que o parecer seja favorável à concessão do crédito, senão o analista não deve concedê-lo. Existem diversos fatores que são utilizados na análise, como caráter e capacidade. Analisando esses fatores é possível emitir um parecer. Os fatores possibilitam uma idéia do provável comportamento do cliente, ou seja, analisando seu passado, tenta-se 104 prever seu comportamento futuro, tentando assim só conceder crédito aos que demonstrem maiores e melhores chances de honrar seus compromissos. Por isso, outro fator de vital importância nessa análise são as garantias. Apesar de uma operação de crédito não dever ser baseada somente nas garantias, esse é um fator fundamental na análise do crédito, pois ele pode dar a certeza de que, no caso de um sinistro, nosso capital investido retornará mais rápido. De acordo com o que foi descrito, todas as empresas que, de alguma for ma, emprestam dinheiro aos seus clientes, fazem uma análise prévia de seu perfil, sejam elas uma empresa ou uma pessoa física. Essa análise pode ser baseada em simples conhecimento pessoal, ou seja, apenas na confiança, ou pode se valer de um longo estudo sobre sua situação financeira. Com o intuito de auxiliar o analista no momento da concessão do crédito, este trabalho pretende apresentar uma nova metodologia, a fim de facilitar o trabalho desse analista, além de torná-lo menos impreciso e totalmente imparcial. MATEMÁTICA NEBULOSA Na metade da década de 60, começou a ser desenvolvida uma nova teoria com o objetivo de tornar o desenvolvimento e a análise de problemas complexos de controle mais tratáveis. Essa nova teoria foi proposta pelo professor Lotfi Zadeh, em artigo publicado em 1965. Zadeh, professor de engenharia elétrica e ciências da computação na Universidade da Califórnia em Berkeley, observou que as regras que muitas pessoas usavam para fazer inferências eram inconsistentes, ou seja, essas pessoas não conseguiam explicar as regras que elas próprias usavam [6].Como exemplo, pode-se citar o fato de muitas vezes simplesmente olhando para uma pessoa desconhecida ser possível dizer quantos anos ela tem, qual o seu peso, altura, etc. Se questionados sobre quais as regras foram utilizadas para chegar a essas conclusões, não haveria uma resposta clara e objetiva, pois se chega a essas conclusões utilizando apenas a intuição. Assim, a grande contribuição dessa nova teoria é a possibilidade de capturar, em um modelo matemático clássico, conceitos intuitivos [11]. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109 PROCESSOS DECISÓRIOS Toda essa metodologia, apresentada por Zadeh em 1965, ficou conhecida como Fuzzy Logic. Como toda nova idéia, essa também foi bastante criticada no início, sendo depois bem aceita por engenheiros e cientistas da computação [6]. Assim, a nova metodologia foi sendo utilizada em diversos países, e, em cada um, teve seu nome modificado de acordo com a língua oficial. Em Portugal, é chamada de Lógica Difusa , em espanhol, também foi traduzida como Lógica Difusa ou Lógica Borrosa . Já em Português, temos duas denominações bastante utilizadas: Lógica Difusa [11] e Lógica Nebulosa [4]. Neste trabalho, adotarse-á a terminologia Lógica Nebulosa. Um bom exemplo para ilustrar o conceito de lógica nebulosa é o problema dos três copos [11]. Convidados a descrever a situação dos três recipientes mostrados na figura abaixo, utilizando apenas os predicados CHEIO e VAZIO, como deveriam ser descrita a condição do recipiente do meio? (Figura 1). (Matlab® Toolbox). Os sistemas de inferência nebulosos são sistemas fundamentados em regras que utilizam variáveis lingüísticas nebulosas para executar um processo de tomada de decisão [1]. A Figura 3 mostra um modelo geral, indicando os cinco blocos principais de um sistema de inferência nebuloso [6]. FIGURA 1 O problema dos três copos Afinal, o recipiente do meio está CHEIO ou VAZIO? Na verdade, pode ser dito que o recipiente está meio CHEIO e meio VAZIO. O problema é que normalmente as coisas não são classificadas dessa forma, sempre se tenta classificar as coisas de maneira exata ou abrupta [11], muitas vezes descartando os estados inter mediários. Um conhecedor da metodologia proposta por Zadeh analisaria da seguinte forma: • O recipiente do meio está CHEIO com grau 50% e VAZIO com grau 50%. • O recipiente da direita está CHEIO com grau 0% e VAZIO com grau 100%. • O recipiente da esquerda está CHEIO com grau 100% e VAZIO com grau 0%. O programa Matlab® possui uma ferramenta para implementação de sistemas de inferência nebulosos, chamada Fuzzy Logic Toolbox. Essa ferramenta possui onze tipos de funções de pertinência já programadas. Como o Matlab® foi utilizado para implementar o sistema proposto por este trabalho, a Figura 2 mostra um exemplo de cada função de pertinência existente no programa (Matlab® Toolbox). Normalmente, a lógica nebulosa é empregada na construção de sistemas, chamados Sistemas de Lógica Nebulosa [3] ou Sistemas de Inferência Nebuloso REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109 FIGURA 2 Funções de pertinência existentes no Matlab®. FIGURA 3 Blocos principais de um sistema de inferência nebuloso. 105 PAULO SOARES BARRETO FILHO, MARIA AUGUSTA SOARES MACHADO O Sistema de inferência nebuloso tem como entrada valores precisos, não nebulosos, que são mapeados pelas funções de pertinência estabelecidas na construção do sistema. Essa é a etapa de nebulização. Essa etapa fornece parâmetros nebulosos a uma máquina de inferência, que processa uma série de regras do tipo SE-ENTÃO, constituída de proposições, envolvendo termos de variáveis lingüísticas. Ao final do processamento das regras, o valor nebuloso, que foi obtido como resposta, é denebulizado se a máquina de inferência tiver como saída valores nebulosos, obtendo-se assim uma saída precisa novamente. Se a máquina de inferência tiver como saída valores precisos, esses já são respostas do sistema [3],[6],[7]. Cabe aqui ressaltar que, neste trabalho, foram utilizadas as palavras Nebulização e Denebulização em substituição às palavras fuzzification e defuzzification, empregadas por diversos autores [12],[13], e em substituição às palavras fuzzificação e defuzzificação [11], utilizadas por alguns autores brasileiros. As palavras serão assim utilizadas para que não haja qualquer dúvida, já que neste trabalho foi adotada a nomenclatura Lógica Nebulosa ao invés de Lógica Difusa. A base de regras é a parte do sistema que contém o conjunto de regras ou proposições, todas nebulosas. As variáveis antecedentes ou conseqüentes são variáveis do tipo lingüísticas e os valores possíveis dessas variáveis são representados por conjuntos difusos [2],[9],[10],[11]. As regras ou proposições devem estar no formato SE – ENTÃO, correlacionando as variáveis antecedentes e conseqüentes. METODOLOGIA Neste trabalho, toda a informação utilizada na criação das funções de pertinência e das regras foi extraída de um banco de dados de uma grande empresa brasileira especializada em crédito pessoal. A amostra do banco de dados utilizada contém todos os clientes da empresa, ou seja, pessoas que conseguiram algum empréstimo, no período de novembro de 2001 a outubro de 2002. Extraindo o conhecimento desta forma, qualquer alteração de comportamento dos clientes da empresa deverá ser refletida pelo banco de dados imediatamente. Assim é possível sempre fazer essa 106 análise com uma amostra atualizada do banco de dados, e conseguir que o sistema responda sempre de modo a mostrar o que está ocorrendo com os clientes da empresa naquele momento. Primeiramente, foi extraída uma amostra do banco de dados da empresa. Na retirada desta, não foi utilizado um filtro, ou seja, todos os clientes da empresa, no período estudado, estão na amostra com todas as informações disponíveis [5]. Após a retirada da amostra, os dados de todos os clientes foram carregados em uma planilha Excel®. O próximo passo foi, então, analisar as informações disponíveis e retirar aquelas que não seriam utilizadas no decorrer do trabalho. Para isso, foram criados filtros nas colunas, a fim de que os registros incompletos ou as informações digitadas incorretamente fossem retirados. Desta forma, restaram ainda, aproximadamente 35.500 perfis de clientes. As informações utilizadas neste trabalho foram: Estado Civil (casado, solteiro, divorciado e viúvo), Tipo de Profissão (assalariado, autônomo, funcionário público e aposentado), Renda em Reais (menos de R$ 500,00, entre R$ 500,00 e R$ 800,00, entre R$ 800,00 e R$ 1.100,00, entre R$ 1.100,00 e R$ 1.400,00 e mais de R$ 1.400,00), Idade (menos de 30 anos, entre 30 e 40, entre 40 e 50, entre 50 e 60 e mais de 60 anos) e Porcentagem que a prestação do empréstimo compromete da renda do cliente (menos de 10%, entre 10 e 15, entre 15 e 20, entre 20 e 25 e mais de 25%). A situação do cliente pode ser Adimplente ou Inadimplente. Após a mineração de dados, foi criada uma outra planilha, onde foram elaboradas fórmulas simples para verificar a quantidade de cada um dos itens escolhidos na planilha inicial que continha o banco de dados. Após toda essa contagem, foi utilizada a teoria de probabilidade para encontrar os valores de todos os itens relacionados com a Situação do cliente, como por exemplo, a quantidade de cientes Adimplentes e Inadimplentes por Estado Civil, Tipo de Profissão ou Faixa Etária. Nesse caso, foi utilizada a noção de probabilidade da interseção entre dois eventos mutuamente exclusivos, por exemplo, quantos clientes são Assalariados e Adimplentes. O resultado é mostrado na Tabela 1, a seguir. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109 PROCESSOS DECISÓRIOS Consolidação das Informações Retiradas do Banco de Dados Situação Adimplente 72,19% 25678 Inadimplente 27,81% 9891 100,00% Adimplente Inadimplente Tipo de Profissão Assalariado 36,55% 13002 25% 8960 11% 4042 Autônomo 18,09% 6433 12% 4364 6% 2069 Func. Público 16,69% 5937 12% 4377 4% 1560 Aposentado 28,67% 10197 22% 7977 6% 2220 100,00% 72,19% 25678 27,81% 9891 #### 6433 5937 #### #### Adimplente Inadimplente 8% 2815 4% 1326 19% 6660 8% 2978 17% 6034 6% 2309 10% 3401 3% 1165 19% 6768 6% 2113 72,19% 25678 27,81% 9891 4141 9638 8343 4566 8881 #### Salário (R$) Menor que 500,00 11,64% De 500,00 a 800,00 27,10% De 800,00 a 1.100,00 23,46% De 1.100,00 a 1.400,00 12,84% Maior que 1.400,00 24,97% 100,00% 4141 9638 8343 4566 8881 Adimplente Inadimplente Estado Civil Solteiro 31,65% 11259 21% 7607 10% 3652 Casado 57,00% 20276 44% 15488 13% 4788 Divorciado 6,69% 2378 4% 1515 2% 863 Viúvo 4,66% 1656 3% 1068 2% 588 100,00% 72,19% 25678 27,81% 9891 Idade (anos) Menor que 30 14,29% Entre 30 e 40 23,23% Entre 40 e 50 24,97% Entre 50 e 60 19,41% Maior que 60 18,10% 100,00% 5083 8263 8881 6905 6437 Prestação / Salário (%) Menor que 10 12,16% 4327 Entre 10 e 15 20,20% 7186 Entre 15 e 20 30,26% 10762 Entre 20 e 25 22,30% 7932 Maior que 25 15,07% 5362 Adimplente Inadimplente 9% 3292 5% 1791 16% 5612 7% 2651 18% 6314 7% 2567 15% 5311 4% 1594 14% 5149 4% 1288 72,19% 25678 27,81% 9891 Adimplente 9% 3203 15% 5313 21% 7631 16% 5533 11% 3998 Inadimplente 3% 1124 5% 1873 9% 3131 7% 2399 4% 1364 TABELA 1 Consolidação das Informações Retiradas do Banco de Dados A criação das funções de pertinência foi baseada nas informações retiradas do banco de dados, mostradas na tabela 1. Essas funções descreverão todos os valores dos graus de pertinência dos elementos do universo em discussão, em relação a um dado subconjunto difuso. A escolha da função de pertinência deve ser feita analisando todo o problema, pois qualquer que seja a função escolhida, o mais importante é que ela retrate com máxima fidelidade o conceito apresentado e o comportamento dos elementos do universo em estudo [11]. FIGURA 5 Função de pertinência para Tipo de Profissão O primeiro passo foi a criação das funções de pertinência. Todas as funções de pertinência são mostradas nas figuras 4, 5, 6, 7 e 8, a seguir. FIGURA 6 Função de pertinência para Salário FIGURA 4 Função de pertinência para Estado Civil FIGURA 7 Função de pertinência para Idade REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109 107 PAULO SOARES BARRETO FILHO, MARIA AUGUSTA SOARES MACHADO TESTES E RESULTADOS FIGURA 8 Função de pertinência para comprometimento da renda Após a criação das funções de pertinência para as variáveis de entrada, foi criada a função de pertinência para a variável de saída Situação, como mostrado na Figura 9. FIGURA 9 Função de pertinência para situação No caso da variável de saída, foram criadas as funções de pertinência apenas para o sistema de inferência que utiliza o Modelo Mamdani em sua máquina de inferência, pois quando é utilizado na máquina de inferência o modelo Sugeno, as saídas são do tipo linear ou constantes. Neste trabalho, foram utilizadas saídas do tipo constante com o valor correspondente à porcentagem de cada situação, ou seja, Inadimplentes 0.28 e Adimplentes 0.72. Após a criação das funções de pertinência, todas as regras foram inseridas no sistema. A última etapa da implementação foi a configuração do sistema, o modelo utilizado para denebulização foi o centróide e os demais parâmetros utilizados não foram alterados, permanecendo a configuração padrão do sistema. 108 O passo seguinte à implementação do sistema, foi seu teste automatizado, o qual foi realizado utilizando os dados do mesmo banco de dados usado na criação do sistema. Foram escolhidos aleatoriamente os perfis de 100 clientes adimplentes e 100 inadimplentes. Esses perfis foram inseridos no sistema, produzindo uma resposta, que foi comparada com a situação do cliente descrita no banco de dados. Os resultados obtidos com a utilização do sistema concordaram com o que está descrito no banco de dados em, aproximadamente, 80% das vezes, tanto utilizando o sistema de inferência com o modelo Mamdani quanto com o modelo Sugeno. Esse resultado foi obtido analisando todos os dados como um conjunto único de teste e não escolhendo o melhor resultado entre as amostras de clientes adimplentes e inadimplentes. Os resultados obtidos foram comparados com o nível de inadimplência da empresa, pois, este nível, mostra o quanto eficiente é o resultado da análise que a empresa faz quando concede o empréstimo aos seus clientes. Assim, pode-se dizer que o sistema obtém resultados um pouco mais satisfatórios do que a análise realizada pela empresa, pois esta possui um procedimento para análise do cliente em potencial e tenta emitir um parecer sobre este. Se o parecer não é favorável, de acordo com a política da empresa, o crédito não é concedido. Então, pode-se afirmar que o procedimento conseguiu emitir um parecer correto em aproximadamente ,72% das vezes, pois 28% dos clientes da empresa tornaram-se inadimplentes. TRABALHOS FUTUROS Após esses os resultados obtidos, a empresa está implementando um sistema especialista piloto para automatizar a análise de crédito, com a finalidade de auxílio à decisão minimizando o risco na concessão de crédito pessoal. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109 PROCESSOS DECISÓRIOS REFERÊNCIAS 1. WAGNER, ADILÉIA , “Extração de Conhecimento a Partir de Redes Neurais Aplicada ao Problema de Cinemática Inversa na Robótica”, Rio Grande do Sul. Dissertação (Mestrado em Computação Aplicada) ,UNISINOS, 2003. 2. ÁLVAREZ, CARLOS J. V.; CANTOR, DIEGO A. R. , “Automatización de una Lavadora Industrial de Ropa Utilizando Técnicas de Control Lógico Secuencial y Lógica Difusa”, Bogotá. Monografia (Graduação em Engenharia Eletrônica), Pontifica Universidad Javeriana, 2001. 3. FILHO, BERNARDO , O.; NASCIMENTO, CARLOS AUGUSTO S. A. do; RIBEIRO, JOÃO A. , “Sistema de Informação Geográfica para Auxiliar a Implantação e Avaliação de Provedores de Internet (SIGAIAPI)”, Rio de Janeiro, Departamento de Engenharia de Sistemas e Computação. FEN/UERJ, 2002. 4. BRAGA, M. J. F.; BARRETO, J. M.; MACHADO, M. A. S. , “ Conceitos de Matemática Nebulosa na Análise de Risco”, Rio de Janeiro, Editora Arte & Rabiskus, 1995. 8. LÓPEZ, IHOSVANY A.; SANTIAGO, ORESTES L.; GALDEANO, JOSÉ L. V., “ Una Aplicación de control difuso para secado de tabaco en hojas”, Granada, Departamento de ciências da computação e inteligência artificial, Universidad de Granada, 2002. 9. MUKAIDONO, MASAO , “Fuzzy Logic for Beginners”, Singapura, Editora World Scientific, 2001. 10. MUKAIDONO, MASAO; INTAN, ROLLY, “On Knowledgebased Fuzzy Sets”. In: International Journal of Fuzzy Systems. Vol. 4, Nº 2. Junho, 2002. 11. OLIVEIRA JÚNIOR, HIME A. , “Lógica Difusa: Aspectos Práticos e Aplicações”, Rio de Janeiro, Editora Interciência, 1999. 12. WEBER, ROSINA , “ Sistema Especialista Difuso para Análise de Crédito”, Santa Catarina. Dissertação (Mestrado em Engenharia de produção), UFSC, 1999. 13. YAGER, RONALD R.; FILEV, DIMITAR P. , “Essentials of Fuzzy Modeling and Control”, Nova Iorque. John Wiley & Sons Editores 1994. 5. BUSSAB, W. O., “ Análise de Variância e Regressão”, 2ª ed. São Paulo, Editora Atual, 1990. 6. COSTA, ALEX da; RODRIGUES, ANTONIO G.; SIMAS, ETIENE P. L. et al. , “Lógica Fuzzy: Conceitos e Aplicações”, Rio Grande do Sul. Centro de Ciências Exatas e Tecnológicas, UNISINOS, 2003. 7. JÚNIOR, DAVID; CORRAR, JUIZ J., “ Mensuração do Risco de Mercado Utilizando Lógica Fuzzy”, São Paulo, Departamento de Economia, FEA/USP, 2002. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109 109 CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES Gerenciamento da mudança organizacional Capitão-de-Fragata (T) Sérgio Luís Dutra de Lamare Centro de Análises de Sistemas Navais (CASNAV) E-mail: [email protected] , [email protected] Maria Lucia Novaes Simões Psicóloga (PNUD/PMSS) E-mail: [email protected] Resumo Organizational change management As pessoas, em geral, movem-se num processo de mudança organizacional dentro de um esquema personalizado de aceitação. Não importa quão positiva possa parecer a mudança. Será mais produtivo enfrentá-la que tentar ignorála. Nesse processo, a liderança deve assumir uma posição de participação e de comprometimento para que todos os níveis da organização se sintam engajados nessa transformação, garantindo a identidade institucional e vislumbrando a excelência no desempenho, numa visão de cenário mais longo. As pessoas precisam estar, permanentemente, sendo informadas das mudanças organizacionais, para conhecer ao que se quer aderir a fim de que seja considerado o conjunto de crenças e valores impressos e expressos na história de vida de seus colaboradores. Procurou-se identificar em conteúdos expressivos da literatura científica, se estratégias implementadas numa organização atuarão, preventivamente, nos efeitos indesejáveis porventura advindos da mudança organizacional, identificando falhas e corrigindo-as de modo a minimizá-los. Foram consideradas, também, situações em que persistem esses efeitos de modo localizado na organização, recomendando-se, para tanto, uma intervenção pontual para reduzi-los ou eliminá-los, e, assim, preservar o processo de transição para o novo como estratégia de melhoria da gestão. Abstract Palavras-chave Mudança organizacional. Resistência. Estratégia de melhoria da gestão. People interact with an organizational transition process in an individual way, which may be defined as an acceptancerejection process. In general, they preserve their own nature rejecting the transformations within the organization, no matter how hard or positive it should be. Dealing with the transformations, instead of ignoring them, is more productive. During this process, the leader/manager should participate and be committed to it, motivating all levels of the organization. Organizations are made of persons and they should be permanently informed about any change occurring in it, so a new stance can be built. Everyone in the organization has a life history and all the individual beliefs and values should be considered during this transformation. Many reference texts were consulted to verify the use of different strategies implemented within an organization. Those strategies are used to prevent inevitable undesirable effects, which may occur due to the organizational changes. They are also used to identify and correct failures. Specific situations, where the undesirable effects may occur, were considered. For example, it may occur in isolated sectors of the organization. In this case, to preserve the transition process, a punctual intervention is recommended to minimize or to eliminate the problem. The intervention should work as a new strategy for the improvement of key-techniques. Keywords Organizational transition. Acceptance-rejection process. Strategy for key-techniques improvement. 110 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116 PROCESSOS DECISÓRIOS INTRODUÇÃO A mudança é um fator fundamentalmente histórico, posto que inevitável. Mudar paradigmas significa mudar com eles o próprio mundo, que passará a ter diferenciais notáveis (KUHN, 1994). Isto porque, segundo Kuhn (1994), “a emergência de um paradigma afeta a estrutura do grupo limitado ao campo da mudança, posto que são adotados novos instrumentos, procedimentos que orientarão e nortearão os olhares desse grupo adepto ao novo paradigma para novas direções”. Há os que resistem e continuarão a resistir às mudanças. Para Kuhn, os resistentes serão, naturalmente, excluídos do contexto e suas convicções serão simplesmente ignoradas, pois terão que passar a atuar de forma isolada ou unir-se a algum outro grupo. Tudo o que uma pessoa tem a possibilidade de vivenciar, pode também rejeitar de modo inconsciente, seja imediatamente ou algum tempo depois. Pois tudo o que não se adapta ao seu autoconceito oficial ou que evoca ansiedade, seja qual for a reação, ela pode rejeitar. O novo assusta, intimida, coloca a capacidade de compreensão e aceitação à prova, porque inconscientemente pode significar uma negação à prática de crenças e valores adotados e tidos, até então, como imutáveis. A Revolução Industrial, que teve início na segunda metade do século XVIII, na Inglaterra, proporciona um excelente exemplo nesse sentido, já que ela explicitou a mudança, por ter provocado transformações profundas, rápidas, caracterizadas pela irreversibilidade e que resultaram em alterações substanciais de ordem econômica, política e social, marcando a transição entre feudalismo e capitalismo (GALBRAITH, 1991). Com a invenção da máquina a vapor, por James Watt, surgiram as cidades fabris, onde se concentravam fábricas de tecidos, com máquinas de fiação e teares movidos a vapor. A substituição das ferramentas pelas máquinas, da energia humana pela energia motriz e do modo de produção doméstico pelo sistema fabril causou um enorme impacto sobre a estrutura da sociedade, num processo de transformação acompanhado por uma notável evolução tecnológica. Isto porque, anteriormente à Revolução Industrial, o cenário era predominantemente rural. Até então, o artesão garantia, primordialmente, sua subsistência familiar com trabalhos esculpidos, confeccionados e montados à REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116 mão, um a um, utilizando-se de insumos advindos do mundo animal e vegetal (GALBRAITH, 1991). E o escasso excedente era comercializado a preço elevado, com pouco acesso de consumo pela maioria, enfatizando as diferenças sociais. Esse cenário foi sendo gradativamente substituído pela máquina, que, com a ajuda do homem, passou a produzir bens de consumo em maior escala, e, portanto, a custos menores, obedecendo a uma linha de produção e disponibilizando-os, em razão disso, a um maior número de pessoas. Esse instinto generalizado de mudança técnica que marcou, à época, a produção em série, subjugou o ser humano a situações muitas vezes desgastantes: ou ele se adequava às novas concepções e condições de trabalho ou se tornava demasiado reativo, colocandose numa situação de descompasso e desarmonia com o novo cenário. Mudanças bruscas de paradigmas, a despeito de trazerem enormes benefícios à sociedade – progresso, comodidade, cooperação, interação, troca – se não bem trabalhadas, muitas vezes submetem o ser humano à aceitação e à prática de novas realidades, quer queira, quer não, provocando desgastes acentuados nas suas relações interpessoais, principalmente. O principal propósito deste trabalho é tratar especificamente de mudanças nas organizações dentro do contexto da inevitabilidade, com o fim de promover um maior bem-estar entre os que delas participam – liderança e colaboradores – para a superação de situações que contradizem convicções engessadas, e que exigem, portanto, criatividade e adaptação a distintas modalidades de gestão, de receptividade a novas informações e tecnologias, a diferentes formas de se relacionar e de disponibilizar produtos e serviços ao cliente (percepção). Torna-se imprescindível desenvolver no grupo social das organizações a capacidade de aceitar e usufruir novas realidades organizacionais de maneira pró-ativa e participativa, para que ocorra uma integração de forma plena, prazerosa e mais consciente, sem disputas pessoais e envolvimentos emocionais. DESENVOLVIMENTO A influência das mudanças nas organizações Várias formas de funcionamento das organizações vêm sendo exercitadas, testadas, com a finalidade de 111 CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES promover ajustes e arranjos estruturais a cada nova realidade. O grupo social de uma organização, até mais da metade do século passado, considerava-se a razão de ser da organização. Os processos de trabalho adaptavam-se subliminarmente a ele como um meio de se atingir sua eficiência e eficácia, e, por fim, a efetividade. O paradigma vigente não se sustenta mais nessa assertiva. Isto porque hoje a empresa tem que ser rentável, competitiva e criativa, se privada, e voltada para os cidadãos e a sociedade, se pública, ambas por meio de uma cadeia de relacionamentos, que envolvem metas e objetivos institucionais, e contemplem, também, suas necessidades e interesses (SHELL, 2001). Na abordagem de Shell (2001), as relações são fundamentais para que se atinjam as metas e, podem, inclusive, induzir a que se modifiquem. Na essência, esses relacionamentos guardam uma frágil dinâmica interpessoal: a confiança. Sem ela, situações novas ficam mais difíceis de serem implantadas e a troca de incentivos à mudança torna-se substancialmente vulnerável. Geralmente as pessoas nas organizações tendem a enfrentar e solucionar problemas dentro de um modelo reativo (CHUNG, 2002). Na verdade, parece que é preciso que aconteça um fato desconfortável, concreto, para que elas o resolvam. Isto endossa uma tradição – porque não dizer, quase que consagrada? – de que o trabalho é feito dentro de um constante quadro de ameaças e não de oportunidades. E mais. Inconscientemente, as pessoas acreditam que foram contratadas e que não são pagas para resolverem problemas. Sentem-se excessivamente cobradas, principalmente num quadro de mudança circunstancial. Não têm o hábito de atuar com pró-atividade, de exercitar a iniciativa, a criatividade, o conhecimento, num clima sadio de relações, pois se sentem sem tônus para tanto. Isso acontece quando a liderança é autoritária, centralizadora. Para as lideranças democráticas e descentralizadoras, os colaboradores estão bem informados e são participativos. Shell adverte que se deve estar atento ao planejamento da ação a ser empreendida numa perspectiva calcada no poder e na influência. Isto porque, geralmente, os colaboradores ficam condicionados a uma rotina a qual já estão habituados e qualquer fato novo os incomoda, tornando-os reativos por não estarem preparadas psicologicamente para agir e aceitar 112 situações novas, diferenciadas, e que passam a ser percebidas como uma sutil imposição. Agrava-se mais ainda a postura adotada por alguns gestores, que, desprovidos de habilidades para tratar diferenças individuais, poderão contribuir para o surgimento de desgaste antecipado na credibilidade ao novo, em prejuízo de uma aceitação mais ampla, sem traumas, exigências e conflitos desgastantes. A credibilidade é uma força subjacente às mais diversas interpretações e permite identificar elementos que poderiam desencadear comportamentos desagradáveis nas pessoas, como, por exemplo, tornarem-se inacessíveis à aceitação de conceitos e novas práticas (FIORELLI, 2001). Resistir às mudanças nas organizações tem, geralmente, nos mecanismos de defesa, a manifestação maior de se tentar reagir a elas, considerando que o ser humano “possui seu próprio senso autônomo de identidade e sua própria definição de quem é ou o que é.” (LAING, 1960). Ressalta-se que sua carga genética, aliada ao seu perfil psicológico, delineado na primeira infância, é que irão definir realmente a sua capacidade de sublimação, superação, na fase adulta, ao se deparar com situações novas, inesperadas, e que irá descrevê-lo como uma pessoa pró-ativa, reativa, ou simplesmente apática. É justamente na sua fase produtiva que o ser humano se depara mais freqüentemente com situações de riscos, perguntando-se, inconscientemente, se vale a pena corrê-los. É fato que, a partir daí, serão explicitados comportamentos que demonstrarão a sua capacidade de enfrentar novas situações, sem receios de que venha sofrer alguma frustração, pois vê algum ganho, mesmo com eventuais perdas; ou de utilizar a fuga como um mecanismo de defesa ante a iminência do desmoronamento de suas estruturas internas, levando-o à práticas de ações e atitudes reativas, ou de simplesmente adotar uma postura de aparente aceitação, abdicando-se de participar e de colaborar ativamente em oportunidades que o levarão ao crescimento e desenvolvimento pessoal e, conseqüentemente, organizacional. A Figura 1, a seguir, demonstra um quadro de mudança circunstancial, dentro de uma perspectiva baseada na baixa credibilidade. Quando o indivíduo passa a integrar e participar ativamente de uma organização, sua vida praticamente REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116 PROCESSOS DECISÓRIOS se resume a uma dupla finalidade: assegurar os meios para a sua sobrevivência e dela extrair, também, o prazer, para que possa vivê-la de forma agradável e plena. Cada indivíduo obtém resultados diferenciados, devido a dois fatores variáveis: o vigor das forças emocionais que carrega internamente e inconscientemente (o duo amor e ódio); e a influência do ambiente no decurso de sua vida, fatores esses que estarão em constante interação, desde o seu nascimento até a sua morte. Nesse contexto, ininterruptamente, a atitude e o comportamento das pessoas sofrem constantes alterações nos acontecimentos organizacionais (LAING, 1960) pelas influências que recebem de fatores internos e externos, exigindo ajustes, o que faz com que a organização assuma um caráter adaptativo (PINA E CUNHA, 2002). No estudo realizado por Pina e Cunha, e Rego, o dia a dia nas organizações expressa o clima organizacional dentro de uma cultura de valores, hábitos e crenças, de modo relativo e dependente de interesses pessoais e políticos, restritos ao domínio de “territórios”, a reformatação de redes e alianças, impasses e conflitos. De certa forma, as pessoas ficam presas a uma cultura e clima organizacional que contemplam mudanças, com característica planejada ou inesperada, dentro de uma dinâmica circunstancial. E este quadro tem revelado o quanto é fundamental estar atento aos aspectos psicológicos de seus profissionais. Em geral, as organizações prescindem de um quadro de diagnósticos e conhecimentos dedicados a prever e a interpretar as reações das pessoas que delas fazem parte, e, por causa disso, muitas vezes são enquadradas como organizações que possuem características estigmatizadas, estereotipadas, que levam a um corporativismo e estilos de gestão perversos. Segundo Pina e Cunha, e Rego (2002), há trabalhos que guardam características pela presença de constantes desafios e situações de risco. Outros se condicionam a uma rotina, norteada por padrões e normas preestabelecidas. Há trabalhos que precisam de pessoas no comando de equipes. Outros exigem um perfil de profissional mais independente e com capacidade de gerir suas atividades, pelo fato de carregar intrinsecamente um espírito nato de iniciativa. Notase aí uma diversidade de situações e de comportamentos que, se não forem bem tratados irão levar irremediavelmente o grupo social da organização REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116 FIGURA 1 Quadro de mudança circunstancial x baixa credibilidade a conflitos desgastantes. Isto porque (PINA E CUNHA, 2002) a liderança tem a tendência de definir diretrizes e objetivos estratégicos sem a consulta prévia e o consenso daqueles que as integram; outros querem testar novos processos de trabalho que não estão compatíveis com a realidade da organização, deixando os integrantes da equipe assustados com os riscos que terão que assumir; alguns querem marcar seu estilo na organização sem que avaliem os efeitos indesejáveis que poderão trazer à equipe; e há aqueles que apenas determinam as ações, numa demonstração clara de que detêm o poder da informação, explicitando o papel dos integrantes do grupo como meros executores. Essas são algumas das situações vivenciadas pelas pessoas, diariamente, nas organizações e que não estão condicionadas a estilos de comando padronizados, rígidos, pois se mesclam e se alternam de acordo com o momento organizacional e estilo de gestão, interferindo profundamente nas suas relações sociais, tornando-as complexas, conflituosas, e, inviabilizandoas, muitas vezes. Boas práticas de gestão auxiliam nos processos de mudança As mudanças estão alicerçadas no desempenho institucional. A auto-avaliação e o planejamento de melhorias da gestão, por meio de critérios preestabelecidos, comprometem a liderança e os colaboradores a partir do exercício da crítica quanto à efetividade da instituição. É um forte antídoto para minimizar resistências a mudanças, pois contempla a proposição de um plano de melhoria da gestão autoavaliada, proporcionado por uma análise criteriosa dos processos de trabalho, da disseminação das informações na organização, levando à reflexão sobre 113 CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES a qualidade do atendimento ao cliente, suas expectativas e a visão que esse cliente tem dos produtos e serviços oferecidos. Os procedimentos para a auto-avaliação direcionamse para a análise das práticas de gestão da organização por meio de três construtos básicos: o método, que é orientado pelos fatores adequação, pró-atividade, refinamento e inovação; a aplicação, orientada pelos fatores disseminação e continuidade; e resultados, orientados pelos fatores relevância, desempenho e tendência. Diz-se que a verificação da efetividade da organização está excelente, quando, em última instância, reflete o seu desempenho em um maior grau de aderência nesses construtos. Esses procedimentos baseiam-se em critérios de excelência (liderança, estratégias e planos, clientes e sociedade, infor mação, pessoas, processos e resultados), utilizados como ferramenta de avaliação continuada da gestão, e preconizados tanto pelo Programa Nacional da Qualidade (FPNQ, 2005) – setor privado, quanto pelo Programa Nacional de Gestão Pública e Desburocratização (GESPÚBLICA, 2006) – setor público, com foco orientado para resultados, de modo a explicitar crescentes níveis de desempenho institucional, estando, para tanto, contextualizados no princípio da busca incessante da melhoria contínua da gestão. O envolvimento da alta administração da organização é fundamental no processo de auto-avaliação da gestão, que deverá designar uma equipe de trabalho, constituída de colaboradores das unidades organizacionais. Essa equipe, em geral, tende a assumir, posteriormente, papel primordial na implementação do plano de melhoria da gestão, por estar caracterizada uma tendência natural de seus integrantes explicitarem vontade de atuar como agentes potenciais de transformação, incidindo diretamente nos locais de trabalho, sinalizando e inteirando a alta administração de temas e situações que exigem maiores cuidados e atenção para o sucesso das oportunidades de melhoria propostas, de modo contínuo, sistematizado e objetivo, e, assim, elevar a qualidade dos seus serviços em benefício do cidadão e da sociedade. Critérios de Excelência em Gestão Liderança A credibilidade, o envolvimento e o comprometimento são condições essenciais para que 114 a liderança crie uma relação de confiança com seus colaboradores. Merecem destaque nessa relação: a ética, a honestidade de propósitos, a inspiração empreendedora, a visão direcionadora e a competência. Estratégias e Planos Uma organização ágil e flexível está atenta às mudanças de cenário e dá respostas rápidas, revendo sua visão de futuro e estratégias, se necessário. Pratica um planejamento coerente com os objetivos da organização, fator crítico de sucesso na superação de eventuais desajustes. Cidadãos e Sociedade As lideranças tendem, geralmente, a pensar que já conhecem as necessidades dos clientes, o que freqüentemente não corresponde à realidade. É preciso ouvir a voz dos clientes, para conhecer suas necessidades e expectativas, identificar os requisitos mais importantes e estabelecer a melhor maneira de satisfazê-los. Informação e Conhecimento A base para a tomada de decisão nos diversos níveis da organização centra-se na análise sistemática de fatos e dados gerados em cada um de seus processos. A informação relaciona-se à eficácia no gerenciamento e no desempenho, influenciando diretamente nas condições de competitividade da organização. Para tanto, deverá estar permanentemente atenta a tudo o que influencia os ambientes interno e externo, para melhor subsidiar as avaliações dos seus resultados, que garantirão a continuidade de um novo ciclo de melhorias. Pessoas O sucesso de uma organização depende fortemente de seus colaboradores, devendo-se criar oportunidades para a criatividade, a inovação, o compartilhamento de conhecimentos, com a valorização do capital intelectual que representam. Processos O mapeamento e a análise dos processos finalísticos e de apoio levam a um melhor entendimento do funcionamento da organização, permitindo definições corretas de responsabilidades, utilização eficiente de recursos, prevenção ou solução de problemas, além REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116 PROCESSOS DECISÓRIOS da eliminação de atividades redundantes e da nítida identificação do perfil de cada cliente. É importante identificar quais fatores causam impacto substancial nos resultados, para que sejam evitados e/ ou minimizados, ou maximizados, conforme o caso. Resultados O monitoramento dos resultados da organização é uma prática que per mite acompanhar o seu desempenho. Esse monitoramento é feito pela utilização de indicadores financeiros, de qualidade, de produtividade, tido como instrumentos de avaliação e controle dos resultados de uma ação planejada. Os efeitos gerados pelas práticas de gestão e pela dinâmica do ambiente externo devem ser confrontados com as metas estabelecidas na fase de definição das estratégias e planos, para eventuais correções de rumo. A estrutura dos sete critérios que compõem o Modelo de Excelência em Gestão Pública do GESPÚBLICA com as relações de causa e efeito, composto pelos critérios Liderança, Estratégias e Planos, e Cidadãos e Sociedade formam um bloco que pode ser denominado de planejamento, por guardarem intensa relação entre si. Os critérios Pessoas e Processos representam a execução do planejamento. O critério Resultados explicita o grau de efetividade: a satisfação dos clientes, o controle do orçamento e das finanças, a gestão das pessoas, a gestão dos fornecedores e das parcerias institucionais, e o desempenho dos serviços e produtos e dos processos de trabalho. E, finalmente, a Informação e Conhecimento, critério que permeia os demais e que constitui a base das ações planejadas e executadas para a tomada de decisão em função das análises críticas realizadas, atuam de modo ininterrupto, no modelo, dentro do princípio do aperfeiçoamento contínuo. O Plano de Melhoria da Gestão (PMG) define um “estado futuro desejado” para a organização, pública ou privada, e permite o monitoramento dos resultados parciais e globais em função das metas estabelecidas, geralmente para um ano. Viabiliza uma resposta mais rápida às mudanças, reconhece o bom desempenho de processos e equipes de trabalho, concede coerência ao processo decisório e propicia uma gestão participativa e o envolvimento de todos. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116 Esse estágio ocorre dentro de um clima favorável, em que as pessoas envolvidas sentem-se mais predispostas a colaborar, reagem favoravelmente às inovações, e tornam-se visivelmente receptivas e pró-ativas. Inevitavelmente entram em estado de franca cooperação. E, naturalmente, conscientemente, passam a interagir com outras pessoas, de forma a alavancar ações para a melhoria contínua do contexto do qual fazem parte, por estarem irreversivelmente predispostas às mudanças e à aceitação de novos paradigmas, tornando-se agentes potenciais de transformação. Observa-se que suas ações ganharão visibilidade, gerando, consequentemente, satisfação com o trabalho que fazem, pelos resultados explícitos do efetivo desempenho institucional. CONCLUSÃO O contexto social da organização contempla pessoas vindas de núcleos familiares e níveis sócio-culturais diferentes, trazendo consigo histórias de vida bem próprias, singulares, tornando-o bastante diversificado. Os colaboradores, além de ter que se ajustar às regras da organização, expressas nos direitos e deveres, têm que se adaptar e se integrar ao ritmo comportamental adotado pelo grupo maior, para que não se sintam à margem do processo social e produtivo desse grupo. Esse comportamento linear, entretanto, é compensado na maneira como as pessoas atuam na cadeia emissorreceptor-transmissor (CHUNG, 2002), na forma como recebem uma mensagem, a decodificam e, posteriormente, respondem-na. Se a mensagem recebida não está adequada à sua estrutura emocional e intelectual, elas poderão reagir negativamente, de modo passivo ou não, criando uma situação de resistência, por sentirem contraposição a determinados paradigmas seus. São pessoas que, geralmente, têm conceitos cristalizados e vêem o que querem ver, sentem o que querem sentir e fazem o que querem fazer, mesmo que não demonstrem sua insatisfação explicitamente. Essa dissonância pode causar resultados negativos. O processo de mudança vem ocorrendo, gradativamente, e, cada vez mais intensamente, muitas vezes propiciando que a revisão organizacional esbarre em fortes resistências. E essa resistência ao novo é inerente ao ser humano, com o agravante de assumir, muitas vezes, caráter inconsciente. Para que esse 115 CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES processo seja bem sucedido, é necessário o envolvimento de todos os colaboradores, explicandolhes a importância da mudança, sendo, para tanto, imprescindível que haja uma definição muito clara dos objetivos a serem alcançados, o que exige um sério comprometimento de todos, principalmente da liderança, de modo a inspirar credibilidade e confiança, fatores indispensáveis para que a mudança seja bem sucedida. Para sanar situações, tidas como bloqueadoras da próatividade e da receptividade, recomenda-se o estabelecimento de uma comunicação clara (PEARL, 1999), precisa, franca, em nível mais profundo. A superficialidade das relações nas organizações tem gerado desgastes expressos pela má vontade e alta reatividade. Em razão disso, propõe-se a utilização de ações estratégicas que atuarão, positivamente, quando a mudança assumir conotação de inevitabilidade. A adoção de um criterioso planejamento deve contemplar, além dos objetivos e meios para que a mudança aconteça, um programa de sensibilização que permeie todos os níveis da organização, levando os colaboradores a compreender e a aceitar, conscientemente, os benefícios advindos da transformação prestes a ocorrer. Caso persistam fatores desagregadores ou dificultadores à aceitação do modelo proposto, é de todo conveniente rever os focos de resistência e atuar pontualmente sobre eles, com ações de sensibilização, que contemplem revisão de atitudes e comportamentos, para restabelecer e garantir ampla credibilidade e aceitação do novo. REFERÊNCIAS CHUNG, Dr. Tom. A Qualidade Começa em Mim – Manual Neurolingüístico de Liderança e Comunicação. Novo Século Editora. Osasco – SP, 2002. FIORELLI, José Osmir. Psicologia para Administradores. Editora AtlasSP. 2ª edição, 2001. FLYNN, Barbara B.; SCHROEDER, Roger G.; SAKAKIBARA, Sadao. A Framework for Quality Management Research and an Associated Messurement Instrument. Journal of Operations Management, Vol. 11, p. 339-366, 1994. FPNQ, Fundação para o Prêmio Nacional da Qualidade. Critérios de Excelência. São Paulo-SP, 2005. GALBRAITH, John Kenneth. The Age of Uncertainty. Editora Pioneira. 8ª edição, 1991. GESPÙBLICA, Programa Nacional de Gestão Pública e Desburocratização. Documento 1, Instrumento para Avaliação da Gestão Pública – ciclo 2006. Secretaria de Gestão, Ministério do Planejamento. Brasília-DF, 2006. GIL, Antônio Carlos. Métodos e Técnicas de Pesquisa Social. São Paulo. Editora Atlas, 1994. GRANDZOL, John R., GERSHON, Mark. Which TQM Practices Really Matter: An Empirical Investigation. Quality Management Journal. 97(4), p.43-59. Quality Press, Milwaukee, Wisconsin, 1997. HAIR, Joseph F.; ANDERSON, Ralph E.; TATHAM, Ronald L .; BLACK, Willian C. Multivariate Data Analysis. Fourth Edition, Ed. Prentice Hall, New Jersey, 1995. HARRISON, Michael I.; SHIROM, Arie. Organizational Diagnosis and Assessment. Ed. Sage Publications, Inc. Thousand Oaks, California, 1999. KUHN, Thomas S. The Structure of Scientific Revolutions. Copyright The University of Chicago Press. 3ª. Edição, 1994. LAING, R.D. The Divided Self. Tavistock Publications 11 New Fetter Lane, London E.C. 4. 4a. edição, 1960. PEARL, Judea. Graphs, Causality, and Structural Equation Models, Cognitive Systems. Laboratory, Computer Science Department, University of California, Los Angeles, CA 90024, 1999. PINA E CUNHA, Miguel; REGO, Armênio. As Duas Faces da Mudança Organizacional Planejada e Emergente. Universidade Nova Lisboa e Universidade de Aveiro. Portugal, 2002. SHELL, Richard G. Bargaining for Advantage. Negócio Editora, 2001. WEIL, Pierre; TOMPAKOW, Roland. O Corpo Fala. Editora Vozes. 49ª edição. Ed. Petrópolis – RJ, 1986. 116 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116 SENSORES E GUERRA ELETRÔNICA Estratégias de detecção multiusuário para minimizar a interferência em sistemas de comunicação sem fio DS-CDMA Deolinda Fontes Cardoso Centro de Análises de Sistemas Navais – CASNAV – MB Praça Barão de Ladário s/ nº, Ilha das Cobras, Edifício 8, 3º andar Centro Rio de Janeiro – RJ – CEP 20091-000 [email protected] Tiago Travassos Vieira Vinhoza Centro de Estudos em Telecomunicações da PUC-Rio – CETUC Rua Marques de São Vicente nº 225 – Gávea Rio de Janeiro – RJ – CEP 22453-900 [email protected] Resumo DS-CDMA (Direct-Sequence Code Division Multiple Access) é uma das tecnologias mais promissoras para multiplexar usuários em sistemas de comunicações sem fio, atuais e futuros. Na tecnologia CDMA os usuários são separados por códigos distintos e, assim, todos podem transmitir ao mesmo tempo e, ainda, cada usuário utiliza todo o espectro de freqüência disponível para transmissão. Este artigo descreve a técnica de detecção multiusuário ótima (de máxima verossimilhança) proposta por Verdu, para minimizar os efeitos adversos da interferência de múltiplo acesso em sistemas de comunicações. Além disso, nós apresentamos alguns métodos sub ótimos baseados em heurísticas e meta heurísticas para resolver o problema NP-Hard da detecção multiusuário ótima. Palavras-chave Sistemas de comunicações, técnicas de múltiplo acesso; Detecção multiusuário (MUD); Interferência de Múltiplo Acesso (IMA), métodos heurísticos, detecção multiusuário ótima. Multiuser Detection Strategies to Minimize the Interference in Wireless Communication Systems DS CDMA Abstract Direct-Sequence Code Division Multiple Access is a promising wireless communication technology. In DS-CDMA systems all users signals overlap in time and frequency and cause mutual interference. This article describes the optimal multiuser detector (maximum likelihood) proposed by Verdu in order to minimize the effects of multiple access interference in wireless communication systems. In addition, we present several sub-optimum methods based in heuristics and meta-heuristics for solving the NP-Hard optimal multiuser detection problem. INTRODUÇÃO O sistema CDMA implementado com espalhamento por seqüência direta DS-CDMA (Direct Sequence CDMA) é considerado a técnica mais popular e promissora para multiplexar usuários em sistemas de comunicações. Na tecnologia CDMA, os usuários são separados por códigos distintos, ao invés de bandas de freqüências ortogonais. Desta forma, todos os usuários podem transmitir ao mesmo tempo e cada usuário utiliza todo o espectro de freqüência disponível para a transmissão. Por esta razão, os sistemas CDMA também são conhecidos como Spread-Spectrum Multiple Access (SSMA), ou simplesmente, comunicações com espalhamento de espectro. Na literatura, existem diversas variações da tecnologia CDMA, dentre as quais, podemos citar: FH-CDMA Frequency Hopping-CDMA, que utiliza saltos de freqüência, muito utilizados em aplicações militares; MC-CDMA Multicarrier-CDMA, que utiliza múltiplas portadoras; e WCDMA Wideband-CDMA, que utiliza maior largura de banda. Nos últimos anos, observou-se um crescente interesse na tecnologia DS-CDMA, principalmente, devido às propriedades atrativas para as comunicações sem fio, tais como: bom desempenho em canais com múltiplos percursos; boa capacidade em ambientes com rajadas ou surtos de erros e desvanecimento; e flexibilidade na alocação de canais. O maior obstáculo que limita a capacidade e desempenho dos sistemas CDMA é a Interferência de Múltiplo Acesso (IMA). Esta fonte de interferência é resultante da impossibilidade de manter a ortogonalidade entre os sinais dos usuários na recepção. Outros fatores como efeitos do canal de transmissão e possíveis desajustes no tempo contribuem para incrementar os efeitos adversos da IMA [1]. Keywords Communication Systems; Multi-user detection; Multiple Access Interference (MAI); heuristics search methods, optimum detection. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122 117 DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA Além da IMA, outras fontes de interferência afetam o desempenho dos sistemas CDMA, entre os quais estão: a IBE – Interferência de Banda Estreita; a IES – Interferência entre símbolos e o ruído no receptor. Dessa forma, a demodulação de um usuário desejado, em uma rede CDMA, requer o processamento do sinal recebido, de modo a combater os diferentes tipos de interferência presentes [2]. O receptor ótimo ML (Maximum Likelihood) [3], capaz de minimizar a probabilidade de erro, é considerado NP-Hard, limitando, assim, o uso exclusivo de métodos exatos. Por esta razão, métodos aproximados ou heurísticos são utilizados para fornecer soluções com tempos de conclusão quase ótimos. A: Espaço de Decisões; Existem diversas técnicas para a formulação de soluções sub-ótimas. As principais técnicas adotam desde heurísticas de construção (como a heurística de List Scheduling , considerada greedy mas de complexidade atrativa) até as meta heurísticas. FIGURA 1 Diagrama do Modelo Matemático Este artigo está organizado da seguinte maneira: na seção 2, são apresentados conceitos da teoria da decisão para a construção do modelo matemático utilizado na detecção multiusuário. Na seção 3, é apresentado o modelo básico do canal síncrono CDMA para K usuários; na seção 4, é analisada a detecção multiusuário ótima e sub-ótima, apresentando as estratégias heurísticas que podem ser adotadas. Os resultados comparativos dos métodos, baseados em heurísticas de busca, são descritos na seção 5. As conclusões deste estudo são apresentadas na seção 6, e a seção 7 lista a bibliografia relevante a este trabalho. A TEORIA DA DECISÃO NA DETECÇÃO MULTIUSUÁRIO Modelo Matemático No projeto do receptor, em um sistema de comunicações, é fundamental construir o modelo matemático do problema e do ambiente envolvido. A Figura 1 apresenta o diagrama do modelo matemático utilizado neste trabalho. Os principais elementos do modelo são: Ω : Espaço de Sinais ou conjunto de hipóteses iniciais; Γ: Espaço de Observações; 118 p(y|s): Função densidade de probabilidade condicional; e D(a|y): Função de decisão que caracteriza o decisor. O modelo geral consiste de um espaço abstrato dimensional suficiente, conhecido como espaço de sinais Ω composto de elementos s. É assumido que a ocorrência de elementos, nesse espaço, apresenta funções de densidade de probabilidade π (s), conhecidas como probabilidades à priori dos sinais ou das hipóteses iniciais. Essas funções especificam probabilidades ou densidades de probabilidades dos sinais transmitidos. O receptor que captura o sinal está habilitado para observar somente versões distorcidas, devido ao ruído, das formas de onda transmitidas e não os próprios elementos do espaço de sinais. O segundo elemento do modelo é o espaço de observações Γ, composto por elementos y , que correspondem às observações ou possíveis entradas do receptor. Em adição, é também necessário definir o espaço de decisão A, composto por elementos a (escolhas disponíveis ao receptor), que representam o conjunto de possíveis decisões a serem tomadas, depois de observado o valor y ∈ Γ no espaço de observações. Uma vez definidos os elementos do modelo, o problema consiste em verificar, primeiro, um valor y no conjunto de observações e, assim, o receptor ótimo toma uma decisão Dj (j=1,...k) com uma probabilidade P(Dj |y=Y)=fj(Y). O conjunto destas funções forma uma regra de decisão. A escolha de uma particular regra de decisão depende de um critério de decisão arbitrário para o sistema decisório. Sob as condições dadas, queremos encontrar o receptor ótimo que melhor determina qual sinal foi transmitido. O receptor REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122 SENSORES E GUERRA ELETRÔNICA ótimo é aquele que minimiza a probabilidade do erro, ou da mesma forma, maximiza a probabilidade do acerto. P(acerto) = 1-P(erro). MODELO DO SISTEMA CDMA Neste trabalho, nós adotamos um canal vetorial CDMA síncrono com K usuários, que transmitem em um canal com um único percurso comum, que sofre a interferência de ruído aditivo gaussiano branco (RAGB). Sob esses aspectos, é suficiente considerar que o sinal recebido existe apenas dentro do intervalo [0,T] [3]. A forma de onda contínua r(t) que chega ao receptor pode ser expressa por: Onde as amplitudes wk½ dos K usuários formam a matriz diagonal: W=Diag(w1½,..., wK½) R é a matriz de correlação K x K com elementos dados por: T Rij = òsi (t ) s j (t )dt onde i, j = 1,2,....K 0 O vetor z contém amostras de ruído gaussiano e tem média zero e matriz de autocorrelação dada por: E[zzT] = ó2R = Rz r (t ) = åwk1 / 2 d k sk (t ) + n(t ) O vetor y constitui um conjunto de estatísticas suficientes para estimar o vetor de dados transmitidos d. onde sk(t) é a sequência de espalhamento do k-ésimo usuário; DETECÇÃO MULTIUSUÁRIO (MUD) K k =1 dk ∈ {-1,1} é o símbolo de informação transmitido pelo k-ésimo usuário; n(t) é o ruído gaussiano com densidade espectral de potência ó2; e Cada forma de onda é considerada zero fora do intervalo [0,T]. Os símbolos de informação dos usuários são assumidos serem independentes e equiprováveis. A amostra de saída do filtro casado à seqüência de espalhamento do usuário k é: T y k = òr (t ) sk (t )dt 0 t Î[0, T ], k = 1,2,..., K O vetor contendo amostras da saída do filtro casado é definido como y=[y1, y2,..., yK]T Definindo-se o vetor de dados transmitidos como d=[d1, d2,..., dk]T Tem-se que o vetor na saída do filtro pode ser expresso por: y = RWd + z REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122 No receptor, a demodulação de determinado usuário requer o processamento do sinal, de forma a suprimir os efeitos adversos da interferência de múltiplo acesso IMA. Esta interferência é considerada o maior obstáculo ao desempenho e aumento da capacidade dos sistemas CDMA. O projeto de receptores, capazes de minimizar a interferência, tem sido exaustivamente investigado. Detectores do tipo convencional, que empregam um filtro casado à seqüência de assinatura, são ineficientes para suprimir a IMA e, ainda, são demasiadamente sensíveis às diferenças de potência entre os sinais recebidos. O efeito decorrente dessas diferenças é chamado de near-far (perto-longe) e ocorre quando os transmissores possuem localizações diferentes em relação ao receptor [3]. A MUD é a estratégia mais promissora para aumentar a capacidade e o desempenho de sistemas CDMA, através da minimização dos efeitos adversos da Interferência de Múltiplo Acesso (IMA). Nesta estratégia, desde que os códigos e as amplitudes dos usuários sejam conhecidos pelo receptor, a informação dos vários usuários é usada de forma conjunta, com o intuito de melhorar o processamento do sinal de cada usuário. Em [4], o autor apresentou o detector multiusuário ótimo, que consiste em minimizar a probabilidade do erro através da ML (Maximum Likelihood). O problema ML não é trivial, e sim 119 DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA considerado NP-Hard com elevada complexidade (exponencial com o número de usuários), sendo proibitivo para sistemas DS-CDMA. Além disso, a solução ótima requer sincronização e o conhecimento das amplitudes e das seqüências de códigos dos usuários, sendo praticamente inviável, em termos de complexidade computacional, para aplicações práticas [5]. Em decorrência, isto motivou o desenvolvimento de métodos aproximados ou heurísticos para o problema da detecção multiusuário [6]. Tais métodos fornecem resultados satisfatórios com desempenho próximos do ótimo. Detecção multiusuário ótima O receptor multiusário ótimo é aquele que fornece a estimativa de maxima verossimilhança para a sequência de bits transmitida: d’ = arg max p(y|d) com d ∈ {-1,1}k Considerando que o canal é RAGB, a função negativa da log-likelihood, baseada na função densidade de probabilidade condicional p(y|d), é proporcional a d’ = dTWRWd – 2yTWd No caso binário, o problema ML (Maximum Likelihood) é descrito pela seguinte expressão: d’ = arg min dTWTRWd – 2yTWd com d ∈ {-1,1}k A solução dessa expressão requer a procura em todas as 2K possíveis combinações dentre os componentes do vetor d. Assim, para fazer decisões que maximizam a verossimilhança (maximum likelihood) em um problema de detecção multiusuário, é preciso resolver o problema de minimização binária, conhecido na área de otimização, como o problema da programação quadrática binária (BQP). Este problema, e por conseguinte, o problema ML é considerado NP-Hard, com complexidade que aumenta exponencialmente com relação ao número K de usuários. Por essa razão, o problema da detecção multiusuário é considerado um problema de otimização combinatória, com um conjunto finito de possíveis soluções exatas ou aproximadas. 120 Detecção multiusuário sub-ótima A detecção multiusuário sub-ótima pode ser dividida em detecção multiusuário aproximada e em detecção multiusuário heurística. A detecção multiusuário aproximada ocorre quando o algoritmo utilizado possui limite de pior caso conhecido. Por outro lado, a detecção heurística utiliza critérios identificados empiricamente ou intuitivamente como responsáveis por algum fator de desempenho na recepção. A detecção multiusuário heurística pode ser classificada em duas grandes categorias. Na primeira, encontram-se a as heurísticas de Construção que utilizando um modelo para o sistema, constroem, a cada passo, um único resultado como resposta para uma determinada entrada. Heurísticas desta categoria, geralmente, são utilizadas quando o tempo de construção do resultado é considerado um fator crucial e de grande importância ao objetivo final. Na outra categoria, encontram-se as heurísticas de construção e busca, nas quais vários resultados são criados, durante a execução do algoritmo, na busca da melhor solução final. Um aspecto importante de algoritmos pertencentes a esta categoria é que, apesar de consumirem um tempo mais significativo para fornecer a solução final, os resultados podem apresentar melhor qualidade que os produzidos pelas heurísticas de construção acima descritas. Isto porque, as heurísticas de construção e busca podem gerar diversas soluções, durante a sua execução, com a finalidade de, a cada passo, melhorar cada vez mais a solução resultante da iteração anterior. Dentro desta categoria, podemos citar os métodos de busca de propósito geral, que objetivam encontrar uma boa solução, através da aplicação de heurísticas modeladas para um determinado problema, conhecidas como meta heurísticas. Por serem de caráter geral, as meta heurísticas possuem mecanismos que permitem percorrer o espaço de busca do problema escapando dos mínimos locais. São exemplos clássicos de meta heurísticas: Algoritmos Genéticos; Simulated Annealing; Busca Tabu e Variable Neighborhood Search. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122 SENSORES E GUERRA ELETRÔNICA RESULTADOS EXPERIMENTAIS O trabalho de Tan e Rasmussen [7] apresenta alguns métodos de otimização para solucionar, de forma exata ou aproximada, o problema da detecção multiusuário ótimo. São comparados 6 métodos de busca heurística com o receptor ótimo ML – Maximum Likelihood, são eles: DEC – Detector Decorrelator; SD-1 Slowest Decent; DEC-LS Decorrelator com Local Search; GRE-1 heurística Greedy; RTS – Reactive Tabu Search (M=15); e ILS – Iterated Local Search. Maiores detalhes podem ser verificados em [7]. O objetivo dos experimentos é avaliar a detecção multiusuário, baseada em métodos de otimização, investigando quanto os desempenhos sub-ótimos, em relação à Taxa de Erro de Bit (BER), se aproximam do desempenho ótimo ML. O canal de transmissão do sistema CDMA é considerado síncrono e perturbado por RAGB, onde todos os usuários transmitem com a mesma potência. A Figura 2 ilustra o desempenho dos detectores baseados em busca heurística para dois sistemas distintos. O primeiro sistema apresenta carga de 10 usuários e ganho de processamento (fator de espalhamento) de 32. Nesse sistema, o detector RTS com 15 interações se aproxima do desempenho do detector ótimo em FIGURA 2 Comparação da Taxa de Erro de Bits média versus Razão Sinal Ruído para os detectores baseados em busca heurística em sistemas com K=10 e K=24 usuários e N=32. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122 termos da BER. O detector ILS precisa de 40 iterações para se aproximar do desempenho ótimo. O detector greedy GRE-1 apresenta o mesmo desempenho BER que o detector ILS. Os detectores DEC-LS e SD-1 também conseguem boas aproximações, sendo o de pior desempenho o detector DEC. No segundo sistema, aumentou-se a carga para 24 usuários, mantendo o mesmo ganho de processamento de 32. O detector de busca tabu RTS, para manter o mesmo desempenho anterior, precisou realizar 150 iterações; enquanto o detector ILS precisou de 250 iterações. O detector GRE-7 não consegue se aproximar do desempenho ML, mantendo complexidade similar ao primeiro teste. Os detectores DEC-LS, SD-24 e DEC apresentam desempenhos pobres quando a carga no sistema aumenta. CONCLUSÕES Neste trabalho, nós apresentamos uma breve introdução ao sistema CDMA, considerado um dos métodos mais eficientes para multiplexar usuários em sistemas de comunicações sem fio. O maior obstáculo ao desempenho, desses sistemas, é a interferência de múltiplo acesso – IMA, resultante da impossibilidade de manter a ortogonalidade entre os sinais dos usuários na recepção. A detecção multiusuário (MUD) é a estratégia desenvolvida para suprimir os efeitos adversos da IMA, aumentando a capacidade de sistemas CDMA. Infelizmente, a detecção multiusuário ótima padece de uma complexidade exponencial proibitiva para aplicações práticas, sendo considerada um problema NP-Hard. Por este motivo, nos últimos anos observou-se um grande esforço de pesquisa para desenvolver receptores sub-ótimos, que minimizam os efeitos adversos da IMA, com baixos requisitos de complexidade e desempenhos próximos ao detector ótimo. Dentre as possíveis soluções sub-ótimas, os métodos heurísticos de construção e os métodos heurísticos de construção e busca promovem soluções bastante atrativas e satisfatórias. Nossa investigação, baseada em [7], permitiu observar que os métodos heurísticos de busca: LS – Local Search e SD – Slowest Decent são muito rápidos, porém, incapazes de escapar de mínimos locais. A fim de evitar tais situações, podem ser empregados os métodos ILS Iterated Local Search e RTS Reactive Tabu Search. Estes métodos são 121 DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA específicos para procurar ótimos globais, entretanto, não podem garantir que a melhor solução global encontrada, apos determinado critério, seja a solução ótima global do problema. Na instância de testes realizados para um número de usuários K = 10, K = 24 e ganho de processamento N = 32, ambos os métodos RTS e ILS têm desempenho similar ao desempenho do receptor ótimo ML (Maximum Likelihood), com taxa de erro de bit (BER) indistinguível. O método de busca tabu é bastante efetivo em termos da BER e eficiente, em termos da complexidade computacional, quando comparado com as heurísticas LS e ILS. Além disso, quando o número de usuários aumenta, a busca tabu é a mais efetiva e eficiente que as outras. O objetivo deste trabalho foi investigar a eficiência de alguns métodos sub-ótimos, baseados em busca heurística, para o problema da detecção multiusuário. Os métodos foram comparados, com o intuito de mostrar quanto se aproximam do desempenho ótimo da Máxima Verossimilhança ML, em termos da taxa de erro de bit (BER). REFERÊNCIAS [1] DE LAMARE, R. C.; SAMPAIO NETO, R. Reduced-rank Interference Suppression for DS-CDMA using Adaptive Interpolated FIR Filters with Adaptive Interpolators. In: Proceedings IEEE International Symposium on Personal Indoor and Mobile Radio Communications (PIMRC), Barcelona. CD-ROM, 5 páginas, 2004. [2] DE LAMARE, R. C.; SAMPAIO NETO, R. . Adaptive Decision Feedback Multiuser Detectors with Recurrent Neural Networks for DS-CDMA in Fading Channels. In: Proceedings IEEE International Conference on Telecommunications (ICT), Fortaleza. CD-ROM, 5 páginas. 2004 [3] VERDU, Sérgio. Multiuser Detection. Livro Didático. Cambridge University Press. 1998. [4] VERDU, Sérgio. Computacional Complexity of Optimum Multiuser Detection. Algorithmica, vol.4, 303-312, 1989. [5] MOSHAVI, S. Multi-User Detection for DS-CDMA Communications. IEEE Communications Magazine. Outubro de 1996. [6] ALRUSTAMANI, A e VOJCIC B. R. Greedy multiuser detection over single-path fading channel. In Proc. IEEE Int. Symposium Spread Spectrum Techiques and Application, (New Jersey, USA) 708-712, 2000. [7] TAN, P. H.; RASMUSSEM, L. K. Multiuser Detection in CDMA – A Comparison of Ralaxations, Exact, and Heuristic Search Methods. IEEE julho de 2003 AGRADECIMENTOS Os autores apresentam um agradecimento especial ao Professor-Orientador Raimundo Sampaio Neto e ao Professor Weiler Alves Finamore, ambos do Centro de Telecomunicações da PUC-Rio, pelas valiosas contribuições para este trabalho. 122 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122 SENSORES E GUERRA ELETRÔNICA Morfologia matemática como ferramenta de análise de imagens infravermelhas Sergio Rodrigues Neves Grupo de Guerra Eletrônica Instituto de Pesquisas da Marinha (IPqM) E-mail: [email protected] Resumo Imagens infravermelhas adquiridas por sistemas ópticos navais possuem importância tática relevante no combate de ameaças, tais como mísseis com guiagem a infravermelho, em que a detecção, através de equipamentos MAGE, não é impossível. As técnicas de processamento de imagens são usadas, basicamente, para melhorar a aparência de uma imagem para a visão humana e preparar a imagem antes de se fazerem medições de suas características. As medições e extração de características que permitam o acompanhamento e identificação de um alvo numa imagem infravermelha tem uma poderosa ferramenta na morfologia matemática. Este trabalho tem como objetivo fazer um resumo das técnicas da morfologia matemática aplicáveis a imagens infravermelhas, com o objetivo de extração de característica para classificação de alvos. Palavras-chave Infravermelho. Processamento de imagens. Morfologia matemática. Mathematical morphology as a tool for infrared images analysis Abstract Infrared images acquired by naval optical systems have a relevant tactical importance on dealing with threats like infrared guided missiles, which are not detected by conventional electronic warfare equipments. Image processing techniques are basically used for improve the image appearance to human vision, or in order to prepare the image for characteristics measure. The characteristics measures that allow the target’s tracking and identification on an infrared image or sequence has a powerful tool on mathematical morphology. In this work we summarize mathematical morphology techniques that can be used on infrared image characteristics extraction to target classification. Keywords Infrared. Image processing. Mathematical morphology. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 INTRODUÇÃO A morfologia matemática pode ser definida como uma teoria para a análise da forma e da estrutura [1] [2] [3] [4]. A morfologia é matemática no sentido em que é baseada em teoria dos conjuntos, geometria integral e álgebra de reticulados; mas não é só uma teoria: é também uma poderosa ferramenta para a análise de imagens. Sua origem se remonta a meados dos anos 60 e ao estudo de materiais porosos de G. Matheron. Em seu trabalho pioneiro (Eléments pour une théorie des milieux poreux – 1967), Matheron propôs as primeiras transformações morfológicas. Quase que simultaneamente, em 1972, o desenvolvimento e a comercialização de um “hardware” especialista por J. C. Klein e J. Serra permitiu o uso dessas transformações para a solução de problemas práticos de análise de imagem. A partir dessas primeiras definições e formalizações de operações morfológicas para a investigação da geometria de objetos em uma imagem binária, foi idealizada toda uma teoria por G. Matheron e J. Serra [4]. De uma maneira geral, podem ser considerados dois tipos básicos de imagens às quais se aplicam as operações morfológicas: imagens binárias e em tons de cinza. Na morfologia aplicada a imagens binárias (os únicos valores de pixel possíveis são 0 ou 1 – branco e preto), na vizinhança de cada pixel da imagem original é testada uma configuração de pontos pretos e brancos (o elemento estruturante), de acordo com uma proposição específica (por exemplo: o elemento cabe no objeto ou toca o objeto). Na morfologia aplicada em imagens em tons de cinza, que é o caso das imagens em infravermelho, além do procedimento descrito para as operações binárias, é importante o conhecimento do valor dos pixels envolvidos tanto na imagem original, quanto no elemento estruturante, para a execução das operações de mínimo ou ínfimo (∧) e máximo ou supremo(∨). Essas operações podem ser definidas para cada ponto x de duas imagens f e g de domínios idênticos, como indicado na Figura 1, a seguir. 123 SERGIO RODRIGUES NEVES ( f ∨ g )( x) = max[ f ( x), g ( x)] e ( f ∧ g )( x) = min[ f ( x), g ( x)] (a) (b) (c) (d) FIGURA 1 Da esquerda para a direita: (a) imagem de entrada f, (b) imagem de entrada g, (c) operação de máximo ou supremo e (d) mínimo ou ínfimo. Note que na operação de máximo, o vídeo sintético que se encontra perto do branco (valor mais alto na escala de cinza) é conservado, enquanto na operação de mínimo este se perde. OPERAÇÕES BÁSICAS DA MORFOLOGIA As operações morfológicas são, basicamente, comparações com um elemento estruturante escolhido de acordo com um conhecimento a priori das estruturas geométricas a serem analisadas, e cuja finalidade é retirar ou alterar a forma dos objetos que estão relacionados (maiores, menores ou iguais) de alguma maneira a estes elementos estruturantes. De uma maneira geral, podemos classificar as operações morfológicas em três grandes grupos: filtragem, segmentação ou medidas de imagens. Todas essas operações são construídas através de dois operadores fundamentais da morfologia: a erosão e a dilatação. Elemento Estruturante O elemento estruturante é um conjunto plenamente conhecido e definido (forma e tamanho), usado para ser comparado ou medido na imagem a ser estudada a partir de uma transformação. Seu formato e o tamanho permitem o teste e a quantização da maneira em que este está ou não contido na imagem. O elemento estruturante é referenciado como plano quando ele é bidimensional e é, normalmente, utilizado para operações com imagens bidimensionais; e como não plano, volumétrico ou de escala de cinza, quando se refere a elementos estruturantes compostos por pequenas imagens em tons de cinza, aplicáveis a operações em imagens em tons de cinza. Os operadores morfológicos fundamentais necessitam da especificação de uma origem para cada elemento 124 estruturante. O formato e o tamanho dos elementos estruturantes devem ser adaptados às propriedades geométricas dos objetos das imagens a serem processadas. Por exemplo, quando o interesse é a extração de objetos lineares em uma cena, elementos estruturantes lineares são os mais adequados. Na maioria dos casos, os elementos estruturantes devem ser o mais simples possível (Figura 2). (a) (b) (c) FIGURA 2 Elementos estruturantes planos isotrópicos para grade retangular e hexagonal. (a) cruz elementar, (b) quadrado elementar e (c) hexágono. A origem destes elementos estruturantes é o seu centro. Apesar de ser possível estabelecer tipos muito diversos de elementos estruturantes, somente um número limitado destes é usado em aplicações práticas. Alguns destes são: – Segmentos de linhas – usados para extrair estruturas alongadas de imagens. – Aproximação digital de discos – devido à sua isotropia, discos são elementos estruturantes muito utilizados. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 SENSORES E GUERRA ELETRÔNICA Várias aproximações de discos são possíveis, como a cruz elementar e o quadrado elementar vistos na Figura 2. – Par de pontos – a erosão pelo par de pontos permite caracterizar o estado de dispersão de uma estrutura [2]. – Elementos estruturantes compostos – compreendem dois elementos estruturantes disjuntos que possuem a mesma origem. Erosão Uma das primeiras perguntas que podem ser feitas para a comparação entre um elemento estruturante e um objeto é: “o elemento estruturante está totalmente dentro do objeto?”. O objeto erodido é o lugar geométrico dos centros dos elementos estruturantes onde esta resposta é afirmativa (vide Figura 3). Isso qualifica a erosão binária com os seguintes efeitos [2]: diminuir os objetos; eliminar objetos menores que o elemento estruturante; aumentar os buracos; e permitir a separação de objetos próximos. FIGURA 3 Erosão do objeto A pelo elemento estruturante B. Considerando X como o conjunto a ser erodido e B como o objeto estruturante escolhido, a erosão (εB) pode ser definida como o lugar geométrico dos pontos x nos quais B é incluído em X, quando sua origem está posicionada em x [1]: ε B ( X ) = {x B x ⊆ X }. Essa equação pode ser reescrita como uma interseção de translações do objeto, com essas translações sendo determinadas pelo elemento estruturante [1]: ε B ( X ) = I X −b . A translação de uma imagem f por b∈B um vetor b (fb) é definido por fb (x) = f (x – b). A definição de erosão binária pode ser estendida diretamente em tons de cinza: a erosão de uma imagem f por um elemento estruturante B é definida como o mínimo ou ínfimo das translações de f pelos vetores REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 –b de B. Considerando ponto a ponto f −b Assim, o valor da erosão em um [1]:ε B ( f ) = b∧ ∈B pixel x é o valor mínimo da imagem na janela definida pelo elemento estruturante, quando sua origem está f ( x + b) . em x [1]: [ε B ( f )]( x) = min b∈B Os efeitos da erosão em tons de cinza são [2]: escurecer a imagem; alargar e engordar os vales (padrões escuros); conectar vales próximos; reduzir e às vezes eliminar picos (padrões claros); e separar picos próximos. Dilatação A dilatação é o operador dual da erosão e está baseada na seguinte pergunta: “O elemento estruturante toca o objeto em análise?”. Onde a resposta é afirmativa, o objeto é acrescido do elemento estruturante, compondo assim o objeto dilatado (vide Figura 4). Os efeitos da dilatação binária são então [2]: engordar o objeto; preencher pequenos buracos; e conectar objetos próximos. FIGURA 4 Dilatação do objeto A pelo elemento estruturante B. Considerando X como o conjunto a ser dilatado e B o elemento estruturante escolhido, a dilatação (∂ B ) pode ser definida como o local dos pontos x onde B toca X, quando sua origem coincide com x [1]: ∂ B ( X ) = {x B x ∩ X ≠ 0} . Essa equação pode ser reescrita em termos de uma união de translações do objeto, com essas translações sendo definidas pelo X −b . elemento estruturante [1]: ∂ B ( X ) = bU ∈B Essa última definição pode ser estendida para imagens em tons de cinza: a dilatação de uma imagem f por um elemento estruturante B é definida como o máximo ou supremo das translações de f pelos vetores –b de B. Considerando ponto a ponto: ∂ B ( f ) = ∨ f −b . Em outras palavras, o valor da b∈B 125 SERGIO RODRIGUES NEVES dilatação em um ponto x é o valor máximo da imagem na janela definida pelo elemento estruturante, quando sua origem está em x. [∂ B ( f )]( x) = max f ( x + b) . b∉B Os efeitos da dilatação em níveis de cinza são[2]: clarear a imagem; alargar e engordar os picos (padrões claros); conectar picos próximos; reduzir e, às vezes, eliminar vales (padrões escuros); e separar vales próximos. – Gradiente metade por dilatação ou gradiente externo – é definido pela diferença entre a imagem dilatada e a imagem original: ρ B+ = ∂ B − I . Os gradientes metade são de bastante valia quando são usados para a detecção da fronteira interna ou externa de uma borda. Gradiente Morfológico É comum assumir que, numa análise de imagem, os objetos estejam contidos em regiões de níveis de cinza mais ou menos homogêneos. Assim, os limites desses objetos estão localizados em regiões de grandes variações de níveis de cinza. Os operadores gradiente são normalmente usados para enfatizar essas variações. No entanto, alguns cuidados devem ser tomados, como uma filtragem preliminar, no caso de imagens infravermelhas sujeitas a ruído, para não potencializar o componente de ruído. Variações de combinações entre esses operadores elementares conduzem a diferentes resultados. As combinações mais usadas são [1]: Gradiente morfológico básico ou gradiente de Beucher – é definido pela diferença entre a dilatação e a erosão pelo elemento estruturante elementar B para a imagem considerada (Figura 5): ρ B = ∂ B − ε B. FIGURA 5 Da esquerda para a direita: imagem original e gradiente básico ou de Beucher FIGURA 6 Da esquerda para a direita: imagem original, gradiente interno e gradiente externo. Gradiente espesso – se o elemento estruturante, aplicado no processo do gradiente básico, é maior que o elemento estruturante elementar (em nosso caso o quadrado elementar), o gradiente morfológico é conhecido como gradiente espesso, predominando bordas dilatadas (Figura 7). Sua representação (nB) significa que o elemento estruturante elementar terá seu tamanho aumentado n vezes. Por exemplo, o quadrado elementar de 3X3 para um elemento estruturante em que o n de nB valesse 2, corresponderia a um quadrado de 6X6. Temos então que: ρ nB = ∂ nB − ε nB . FIGURA 7 Da esquerda para direita: imagem original e gradiente espesso. Gradientes metade – podem ser de dois tipos (Figura 6): – Gradiente metade por erosão ou gradiente interno – é definido pela diferença entre a imagem original e a imagem erodida: ρ B− = I − ε B . 126 Gradientes direcionais – são definidos pela substituição de um elemento estruturante isotrópico por um segmento de linha L numa direção a:: rLa = ¶La - eLa. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 SENSORES E GUERRA ELETRÔNICA Com o gradiente direcional, é possível a filtragem de elementos em determinada direção, como pode ser visto na figura 8. Em linhas gerais, pode ser observado que a abertura tem a propriedade de retirar pequenas estruturas (menores que o elemento estruturante), mas modificando também todos os objetos da imagem em cujo operador a abertura foi aplicada. Fechamento FIGURA 8 Gradiente direcional. Da esquerda para a direita: imagem original, gradiente horizontal (com um elemento estruturante horizontal) e gradiente vertical (com um elemento estruturante vertical). A idéia por trás do fechamento morfológico é a recuperação do formato inicial de estruturas que tenham sido dilatadas. Essa operação é realizada através da erosão do objeto dilatado. O fechamento de uma imagem f por um elemento estruturante B pode ser escrito em termos de erosão e dilatação como [1]: φ B ( f ) = ε B( [∂ B ( f )] (Figura 10). Abertura A erosão de uma imagem não remove somente todas as estruturas que não contém o elemento estruturante, mas também “encolhe” todas as outras. A procura por um operador capaz de recuperar a maioria das estruturas perdidas pela erosão levou a definição do operador morfológico abertura. A idéia por trás do operador abertura, então, é dilatar a imagem erodida, de maneira a recuperar o máximo possível da imagem original. A abertura de uma imagem f por um elemento estruturante B é definida em termos de erosão e dilatação [1]: γ B ( f ) = ∂ B( [ε B ( f )] (Figura 9). FIGURA 9 Abertura em termos de dilatação e erosão. Outra formulação para a abertura é possível em termos geométricos, conservando a mesma pergunta utilizada para a erosão: “O elemento estruturante cabe no objeto?” É mantido, se a resposta for afirmativa, o elemento estruturante completo (no caso da erosão só a origem é mantida). Assim, o objeto submetido ao operador abertura é aquele que representa a união de todos os elementos estruturantes que cabem no objeto [1]: γ B ( x) = U{B B ⊆ X } . REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 FIGURA 10 Fechamento em termos de dilatação e erosão. A questão “O elemento estruturante cabe no fundo da imagem?” pode ser aplicada para definição do fechamento. Se a resposta for afirmativa, todos os pontos do elemento estruturante pertencentes ao complemento do fechamento do objeto serão considerados [1]: φ B ( x) = [U{B B ⊆ X c }] c . Todas as estruturas do fundo da imagem que não contêm o elemento estruturante são preenchidas pelo fechamento. Transformação “hit or miss” A idéia básica por trás da transformação “hit or miss” consiste em se testar a parte interna e externa de um conjunto. Para isso, são necessários dois elementos estruturantes, que formarão um elemento estruturante composto e que, obrigatoriamente, possuam uma única origem. A transformação “hit or miss” também pode ser definida em termos de uma interseção de duas erosões [1]: HMTB ( X ) = ε B1 ( X ) I ε B2 ( X c ) . Por definição, B1 e B2 devem possuir a mesma origem. Estes precisam também ser disjuntos [1]: B1 I B2 = 0. 127 SERGIO RODRIGUES NEVES A transformação “hit or miss” é usada, geralmente, para encontrar configurações específicas de pixels em imagens. Afinamento O afinamento consiste em remover os pixels que pertencem a objetos que tem uma dada configuração. Em outras palavras, a transformada “hit or miss” da imagem é subtraída da imagem original. [∂ B ( f )]( x) se [∂ B2 ( f )]( x) < f ( x) e f ( x) = [ε B1 ( f )]( x) ( f Ο B)( x) = 2 f ( x) qualquer outro Espessamento O espessamento consiste em adicionar pixels de fundo com uma configuração específica para o conjunto de pixels do objeto. O espessamento (X B) de uma imagem X por um elemento estruturante composto B é definido como a união da transformação “hit or miss” da imagem com a imagem original [1] (Figura 11): [ε B ( f )]( x) se [∂ B2 ( f )]( x) = f ( x) e f ( x) < [ε B1 ( f )]( x) ( f B)(x)= 2 f ( x ) qualquer outro FIGURA 11 Afinamento e Espessamento. Da esquerda para a direita: imagem original, imagem afinada e imagem após o espessamento. Esqueleto Em reconhecimento de padrões e análise de formato, são necessários métodos para extração das características de um objeto. Uma abordagem possível consiste em afinar o objeto, com a intenção de formar um conjunto de linhas finas que condensem a informação do objeto original, preservando sua homotopia: é o chamado esqueleto do objeto. A partir deste, a detecção de pontos finais, pontos múltiplos e malhas fechadas a partir do esqueleto são algumas das ações importantes para as tarefas de reconhecimento de formato, que podem ser realizadas. 128 Várias definições para o esqueleto de um conjunto euclidiano estão disponíveis, mas conduzem sempre a um mesmo esqueleto. Como exemplo, podem ser citados os processos conhecidos como “fogo na grama” ou “propagação de frente de onda”. No caso do “fogo na grama” ou “propagação de frente de onda”, se for assumido que fogo, ou uma frente de onda, é iniciada dos pontos de contorno de um objeto X e estes se propagam em velocidade uniforme dentro do objeto; o esqueleto de X é, então, o conjunto de pontos onde o fogo ou as ondas se encontram. Por exemplo, o esqueleto de um disco é o seu centro, porque é o lugar onde o fogo ou as frentes de onda se encontram simultaneamente. A extensão da definição de esqueleto para imagens discretas conduz a uma variedade de esqueletos. Noções como as descritas anteriormente como “propagação de frente de onda” não tem equivalente discreto único e direto. Então, a adaptação das definições existente para o caso contínuo conduz a uma grande variedade de esqueletos que não compartilham das mesmas propriedades, sendo dependentes do elemento estruturante escolhido. Além disso, muitas adaptações dos processos conduzem a esqueletos não conectados, que são úteis em processos de compressão, mas, para a descrição de formato, são de pouca utilidade. Alguns procedimentos para a extração do esqueleto discreto são: a) por abertura – Esse processo utiliza quadrados como aproximação dos discos como elemento estruturante e pode ser definido como [1]: SK ( X ) = U{ε λB ( X ) − γ B [ε λB ( X )]} λ ≥0 Onde X é a imagem, B é o quadrado elementar de tamanho três e λB é um quadrado de comprimento 2λ +1. Na Figura 12, pode ser observado que o esqueleto resultante não é conectado nem possui espessura de um pixel. FIGURA 12 Esqueleto por abertura. Da esquerda para a direita: imagem original e esqueleto por abertura. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 SENSORES E GUERRA ELETRÔNICA b) afinamento homotópico – Um esqueleto não conectado como o da Figura 12, é de pouca utilidade para aplicações de descrição de formatos de objetos porque a homotopia não é preservada e pontos característicos, como pontos de extremo, não são preservados. Um esqueleto de uma imagem discreta pode preservar estas propriedades importantes, se o processo for executado com elementos estruturantes que preservem sua homotopia. O esqueleto é obtido através do afinamento da imagem de entrada por um ou uma série de elementos estruturantes homotópicos e sua rotação até a estabilidade. Esse processo é chamado de afinamento seqüencial [1]. A fórmula para o afinamento seqüencial (X O B )de X por n rotações de um elemento estruturante B (è 1B, è2B, ... è nB) é: X O B=(...( (X O è 1B) O è2B)...) ènB O afinamento seqüencial é repetido até a estabilidade, isto é, até que a entrada tenha sido reduzida a um conjunto de linhas afinadas conectadas. Cada elemento estruturante homotópico define um tipo diferente de esqueleto (Figura 13). FIGURA 13 Esqueleto por afinamento homotópico. Da esquerda para a direita: imagem original e esqueleto por afinamento homotópico. Transformações geodésicas As transformações geodésicas utilizam duas imagens de entrada. Esse tipo de operação é bastante útil quando é necessário alterar apenas algumas estruturas da imagem, deixando outras intactas. Um operador morfológico é aplicado à primeira imagem e o resultado é forçado a permanecer maior ou menor do que a segunda imagem, dependendo da operação realizada. Serão descritas aqui algumas transformações geodésicas: a dilatação geodésica, a erosão geodésica e a reconstrução morfológica. Dilatação geodésica ser maior ou igual à imagem marcadora. A imagem marcadora é dilatada, primeiramente, por um elemento estruturante elementar. A imagem resultante é forçada a permanecer menor que a imagem máscara. A imagem máscara age como se fosse um limite para a dilatação da imagem marcadora. Considerando f como a imagem marcadora e g a imagem máscara, a dilatação geodésica ( ∂ (g1))pode ser definida como [1]: ∂ (g1) = ∂ (1) ( f ) ∧ g . Onde ∂ (1) é a dilatação elementar e fd”g. Erosão geodésica A erosão geodésica (ε g(1) ) é a transformação dual da dilatação geodésica com respeito ao complemento da imagem. Pode ser definida como [1]: ε g(1) ( f ) = ε (1) ( f ) ∨ g . Ondeε (1) é a erosão elementar e f e” g. Reconstrução Morfológica As dilatações e erosões geodésicas de um tamanho determinado são raramente usadas na prática [1]. Sua iteração até a estabilidade, no entanto, possibilita a definição de poderosos algoritmos de reconstrução morfológica. Dilatações e erosões geodésicas sempre convergem depois de um número finito de iterações em que o espessamento ou afinamento da imagem marcadora é controlado pela imagem máscara. • Reconstrução Morfológica por Dilatação A reconstrução morfológica por dilatação [1] pode ser compreendida como uma dilatação condicional. A partir de uma “semente” definida entre os objetos de uma cena, na imagem marcadora, é realizada uma dilatação a partir de um elemento estruturante elementar. O resultado dessa operação será comparado com uma máscara, e o resultado a ser considerado será a interseção dessas duas imagens. O processo é repetido até o equilíbrio, ou seja, até que o resultado seguinte seja igual ao anterior. Com essa operação, é possível a extração ou a recuperação de elementos, desde de que se saiba sua posição (Figura 14). A reconstrução morfológica por dilatação (Rg ( f )) de uma imagem f com imagem máscara g pode ser definida como: R g ( f ) = ∂ ig ( f ) . Onde i é tal que: ∂ ig ( f ) = ∂ ig+1 ( f ) . A dilatação geodésica envolve uma imagem marcadora e uma imagem máscara. Ambas as imagens devem possuir o mesmo domínio, e a imagem máscara deve REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 129 SERGIO RODRIGUES NEVES Segmentação Morfológica e Transformação Watershed A principal ferramenta da morfologia matemática para as técnicas de segmentação é a transformação watershed, que será brevemente descrita a seguir. (a) (b) (c) FIGURA 14 Reconstrução morfológica por dilatação: (a) Imagem marcadora (b) Imagem máscara (c) Reconstrução morfológica por dilatação. Repare que só os elementos que possuem “sementes” na imagem marcadora são recuperados. • Reconstrução morfológica por erosão Na reconstrução morfológica por erosão, a erosão geodésica é que realiza a iteração até a estabilidade. Como, nesse caso, a imagem f é menor que a imagem máscara g, os objetos contidos na imagem são encolhidos até o limite imposto por g (Figura 15). A reconstrução morfológica por erosão (R g* ( f ) ) de uma imagem f com uma imagem máscara g: Transformação Watershed O conjunto de todos os pontos {x,f(x)} pertencentes a uma imagem pode ser considerado como uma superfície topográfica S. Quanto mais claro é o tom de cinza f no ponto x, maior é a altitude do ponto correspondente. Partindo disso, o conceito de watersheds é relativamente simples: a imagem vista topograficamente possuirá “vales” e “picos” de diversas alturas. Se for considerado que água escorre por esses “vales” até atingirem seus pontos mais baixos, e essa água continua a escorrer até que esses “vales” sejam inundados um a um com diques em suas linhas divisórias, para impedir que a inundação de um vale invada outro, essas linhas divisórias resultantes dessas múltiplas inundações são as watersheds (vide Figura 16). R g* ( f ) = ε gi ( f ) . Onde i é tal que: ε gi ( f ) = ε gi +1 ( f ) . (a) (b) (c) FIGURA 15 Reconstrução morfológica por erosão. (a) Imagem marcadora (b) Imagem máscara (c) Reconstrução morfológica por erosão. Repare que só os elementos que possuem limites na imagem máscara e “sementes” na imagem marcadora permanecem. Filtragem Morfológica Em processamento de sinais, a filtragem linear geralmente é usada, por exemplo, para as tarefas de remover ou extrair freqüências altas ou baixas de imagens ou, genericamente falando, resolver problemas ligados a fenômenos lineares. Filtros morfológicos são filtros não-lineares, que são adequados, principalmente, a dois tipos de tarefas: a restauração de imagens corrompidas por algum tipo de ruído e a remoção seletiva de objetos ou estruturas de imagens, conservando todas as outras intactas. 130 FIGURA 16 Mínimos, bacias de segmentação e Watersheds. APLICAÇÕES Muitos são os exemplos de aplicações das técnicas baseadas em morfologia matemática. Podem ser citados artigos sobre filtragem de imagens [5] e extração de informação em imagens SAR [6]. Em imagens infravermelhas, em que os contornos dos objetos representam os principais elementos para as tarefas de extração de características e classificação, as técnicas morfológicas representam uma ferramenta poderosa. Sua versatilidade para, por exemplo, filtragem de imagens, pode ser confirmada através das figuras 17 e 18. Na Figura 17, a seguir, é realizada uma filtragem de uma imagem infravermelha impregnada de ruído do tipo “salt and pepper”, através de um operador REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 SENSORES E GUERRA ELETRÔNICA abertura seguido por um operador fechamento. O efeito conseguido se aproxima de uma filtragem passabaixas. FIGURA 19 Segmentação utilizando o método descrito em [7] sobreposta à imagem original FIGURA 17 Da esquerda para a direita: imagem original, imagem com ruído e imagem filtrada. Na Figura 18, após uma segmentação inicial, a imagem apresenta o contorno de objetos pequenos, que não são relevantes e podem incluir a marcação de um alvo falso para um processo de classificação. A partir de uma abertura por área, que é uma operação morfológica baseada em reconstrução morfológica e que mantém objetos acima de um tamanho estabelecido, só é mantido o alvo considerado relevante. CONCLUSÃO Neste artigo, foi apresentada uma introdução à morfologia matemática e suas aplicações, em especial àquelas que podem ser utilizadas para o processamento de imagens infravermelhas. REFERÊNCIAS 1. SOILLE, P., “Morphological Image Analysis – Principle and Applications”, Springer, 1999. 2. FACON, J., “Morfologia Matemática: Teoria e Exemplos”, Editor Jacques Facon, 1996. 3. GIARDINA, C. R. e DOUGHERTY E. R., “Morphological Methods in Image and Signal Processing”, Prentice-Hall, 1988. 4. SERRA J., “Image Analysis and Mathematical Morphology”, New York: Academic Press, 1983. 5. BANON, G. ; e BARRERA, J., “Morphological filtering for stripping correction of SPOT images”, Photogrammetria (PRS) 43, pp.195-205, 1989. FIGURA 18 Segmentação inicial e filtragem de pequenos alvos falsos. Assim, através do uso de técnicas morfológicas, é possível realizar uma filtragem linear ou não-linear numa imagem infravermelha. 6. CHANUSSOT, J. e LAMBERT, P. “An application of mathematical mor pholog y to road extraction on SAR images” em Mathematical morphology and its applications to image and signal processing – Heijmans,H e Roednick , J; Kluwer Academic Publishers, pp. 399406, 1998. 7. NEVES, S. R.; SILVA E. A. B. and VIEIRA G. V., “Wavelet-Watershed Automatic Infrared Image Segmentation Method”, Electronic Letters, Vol. 39, Issue 12, pp. 903-904, June 2003. Como outro exemplo de aplicação de técnicas morfológicas em imagens infravermelhas, podemos citar o método de segmentação apresentado em [7], onde são unidos operadores morfológicos e transformada wavelet (Figura 19). REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131 131 132 MATERIAIS ESPECIAIS Efeito da concentração de Co e Ti nas propriedades absorvedoras de microondas de compósitos de M-hexaferritas de bário com policloropreno Magali Silveira Pinho Instituto de Pesquisas da Marinha (IPqM). Instituto de Macro-moléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ). E-mail: [email protected] Roberto da Costa Lima Instituto de Pesquisas da Marinha (IPqM). PEMM – COPPE da Universidade Federal do Rio de Janeiro (UFRJ) E-mail: [email protected] Bluma Guenther Soares Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ) Regina Celi Reis Nunes Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ) Resumo Materiais absorvedores de radar (RAM) consistem de revestimentos, cujas propriedades elétricas e magnéticas têm sido alteradas de forma a fornecerem absorção máxima da energia eletromagnética na faixa de microondas, com conseqüente redução da assinatura radar das plataformas militares. Neste trabalho, amostras de hexaferritas de bário do tipo M com diferentes concentrações de Co e Ti foram veiculadas individualmente a matrizes de policloropreno (CR), para investigar o efeito da substituição desses íons na absorção de microondas para as bandas X – Ku. A absorção máxima de microondas de 99,0 % em, aproximadamente, 14,0 GHz foi observada para o compósito 80:20 (% em peso) de BaCo 0,85Ti0,85Mn0,10Fe10,20O19,00:CR. Palavras-chave Hexaferritas de bário do tipo M. Substituição por Co e Ti. Compósitos de policloropreno. Material absorvedor de radar. Guia de ondas. Effect of CO and TI concentration on the microwave absorption properties of barium M-hexaferrites and polychloroprene composites Abstract Radar absorbing materials (RAM) are coatings whose electrical and magnetic properties have been altered to allow the greatest absorption of the microwave energy, reducing the radar signatures of military platforms. In this work, samples of barium M-hexaferrites with different concentrations of Co and Ti were processed individually with polychloroprene (CR) matrices to investigate the effect of these substituted ions on the microwave absorption for the X – Ku bands. The maximum microwave absorption of 99.0 % at approximately 14.0 GHz, was observed for the composite 80:20 (wt. %) of BaCo0,85Ti0,85Mn0,10Fe10,20O19,00:CR. Keywords M-type barium hexaferrites. Co-Ti substitution. Polychloroprene composites. Radar absorbing material. Waveguide. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136 INTRODUÇÃO Hexaferritas de bário são materiais cerâmicos policristalinos com propriedades magnéticas, que devido às possíveis combinações de composições químicas e estruturais, podem ser utilizadas em várias aplicações específicas. Esses materiais são classificados de acordo com as suas estruturas em: BaFe12O19 (tipo M), BaMe2Fe16O27 (tipo W), Ba2Me2Fe28O46 (tipo X), Ba2Me2Fe12O 22 (tipo Y) e Ba3Me 2Fe24O41 (tipo Z), onde Me representa um íon divalente [1 – 5]. O método convencionalmente utilizado para a obtenção de hexaferritas de bário tem sido por mistura de óxidos, que apresenta como principais desvantagens a introdução de impurezas, resultando em tensões na rede cristalina e irregularidades no formato, além do aumento do tamanho das partículas, em decorrência da utilização de temperaturas mais elevadas, em comparação com os métodos químicos. O emprego de materiais absorvedores de microondas, em particular os RAM, tornou-se um dos campos mais fascinantes da engenharia de materiais, embora ainda represente um grande desafio [1]. Um RAM deve ser constituído por compostos, com elevada perda de energia, que absorvem a radiação incidente em freqüências sintonizadas e dissipam a energia absorvida sob a forma de calor, inibindo a energia necessária para o sinal de eco de detecção por radar [1, 2]. Para as medidas realizadas em guia de ondas, Nicolson e Ross desenvolveram um método para a determinação dos valores, relativos ao vácuo, de permeabilidade complexa (µr*) e de permissividade complexa (ε r *), a partir dos parâmetros de espalhamento (S11 e S21) [6, 7]. Este trabalho tem por objetivo estudar o efeito de diferentes concentrações dos dopantes Co e Ti sobre 133 MAGALI SILVEIRA PINHO, ROBERTO DA COSTA LIMA, BLUMA GUENTHER SOARES, REGINA CELI REIS NUNES as propriedades absorvedoras de microondas de CoxTixMnBaHF (com x = 0,80 e 0,85) para a faixa de freqüência de 8,0 a 16,0 GHz. METODOLOGIA Materiais As sínteses das M-hexaferritas de bário ocorreram através da técnica convencional de misturas de pós [1, 3]. As matérias primas utilizadas para obtenção das Mhexaferritas de bário dopadas com cobalto, titânio e manganês (Co-TiMnBaHF) consistiram de óxido de ferro (Fe2O3), carbonato de bário (BaCO3), óxido de titânio (TiO2), óxido de cobalto (CoO) e óxido de manganês (Mn 2O 3), empregados em quantidades estequiométricas [1]. Foram obtidas as composições BaCo 0,80 Ti 0,80 Mn 0,10 Fe 10,30 O 19,00 e BaCo0,85Ti0,85Mn0,10Fe10,20O19,00. Método de Transmissão/Reflexão (T/R) A permeabilidade e permissividade complexas (µr* e εr*, respectivamente) foram determinadas a partir de dados de espalhamento, por intermédio do analisador vetorial de redes HP 8510, que determina as perdas de inserção e retorno em magnitude e fase de amostras submetidas a teste (SUT, “Sample Under Test”), através da comparação entre o sinal refletido e o transmitido pela SUT [7 – 9]. Difração de Raios-X Os produtos foram analisados sob a forma de pós pelo difratômetro de Raios-X Siemens/Brucker-AXS D5005. RESULTADOS E DISCUSSÃO A Figura 1 ilustra o difratograma para a amostra de BaCo0,85Ti0,85Mn0,10Fe10,20O19,00 analisada sob a forma de pó. Obtenção dos Compósitos com o Policloropreno As amostras de M-hexaferritas de bário foram misturadas, em adição aos agentes de vulcanização, com o CR, resultando na composição percentual em peso 80:20 de M-hexaferrita de bário:policloropreno [1]. As misturas físicas foram realizadas em um misturador de cilindros Berstoff à temperatura ambiente e com velocidades de 22 e 25 rpm (anterior e posterior), de acordo com os procedimentos clássicos empregados pela indústria de borracha. As blendas foram moldadas por compressão a 150 °C e 6,7 MPa. Os corpos de prova foram obtidos sob a forma de tapetes vulcanizados, com dimensões de 4,0 x 4,0 cm e espessuras de 0,15 cm [2, 6]. Técnicas de Caracterização Análise Morfológica por SEM A observação micromorfológica das amostras de compósitos crioscopicamente fraturadas foi realizada pelo emprego de um microscópio eletrônico de varredura Leica Mod S440, utilizando o detector de elétrons secundários. 134 FIGURA 1 Difratograma da amostra de BaCo 0,85 Ti 0,85 Mn 0,10 Fe10,20O19,00 analisada sob a forma do pó. O difratograma da amostra de BaCo 0,85 Ti 0,85 Mn 0,10 Fe 10,20 O 19,00 não apresentou mudança significativa em relação a amostra de BaCo 0,80 Ti 0,80 Mn 0,10 Fe 10,30 O 19,00 , decorrente do emprego de diferentes concentrações de Co e Ti e foi semelhante ao do padrão JCPDS 27-1029 [1]. A Figura 2 a seguir, ilustra as imagens obtidas por SEM para os compósitos 80:20 de (a) BaCo 0,80 Ti 0,80 Mn 0,10 Fe 10,30 O 19,00 :CR e (b) BaCo0,85Ti0,85Mn0,10Fe10,20 O19,00:CR. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136 MATERIAIS ESPECIAIS FIGURA 2 Imagens de SEM dos compósitos obtidas por fratura crioscópica. Pelas imagens de SEM, pode ser observada a boa dispersão das partículas de M-hexaferritas de bário em CR, apesar do elevado carregamento utilizado e da tendência à formação de aglomerados magnéticos [1, 9]. A avaliação do desempenho dos compósitos como RAM é ilustrada pela Figura 3. FIGURA 3 Curvas de refletividade dos compósitos. Pelos resultados apresentados, o compósito 80:20 de BaCo0,85Ti0,85Mn0,10Fe10,20O19,00:CR apresentou o melhor desempenho como RAM, com absorção de microondas superior a 96,90 % para a faixa de freqüência de 12,0 a 16,0 GHz, que pode ser atribuído à utilização do maior percentual dos dopantes Co e Ti. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136 CONCLUSÃO A concentração dos dopantes Co e Ti influenciou na absorção de microondas, onde a utilização de um maior percentual desses substituintes resultou em uma absorção superior a 96,90 % para a faixa de freqüência de 12,0 a 16,0 GHz (banda Ku), com valores de refletividade inferiores a –15 dB. 135 MAGALI SILVEIRA PINHO, ROBERTO DA COSTA LIMA, BLUMA GUENTHER SOARES, REGINA CELI REIS NUNES AGRADECIMENTOS Os autores agradecem ao Centro de Tecnologia Mineral (CETEM) pela análise de SEM. REFERÊNCIAS 1. PINHO, M. S.- Dsc. Tese – Instituto de Macromoléculas Prof. Eloisa Mano, UFRJ, 2002. “Materiais absorvedores de radiação eletromagnética em matrizes de policloropreno”. 4. CHO, H. S.; KIM, S. S.; “M-hexaferrites with planar magnetic anisotropy and their application to high-frequency microwave absorbers”, IEEE Transactions on Magnetics 35: (5) 3151-3153, Part 1, Sep. 1999. 5. SUÁREZ, N.; SÁNCHEZ, J.L.; DIAZ, S.; CUETO, A.; LÓPEZ, G.; OÑATE, J.; “Magnetic properties of Ba1-xREx/2Nax/2Fe12O19 (RE = La, Gd, Lu; 0.0 £ x £ 0.3) hexagonal ferrites”, Magnetism, Magnétic Materials and their applications: Section III (Part 2), La Habana, Cuba, 2129 May 1991. 6. PINHO M. S. LIMA R.C. NUNES R. C. R. SOARES B. G. Polímeros, Ciência e Tecnologia 1999, 4:23-26. 2. HONG, Y. S.; HO, C. M.; HSU, H. Y.; LIU, C. T.; “Synthesis of nanocrystalline Ba(MnTi)xFe 12-2xO19 powders by sol-gel combustion method in citrate acid-metal nitrates system (x=0, 0.5, 1.0, 1.5, 2.0)”, Journal of Magnetism and Magnetic Materials 279 401-410, 2004. 7. NICOLSON A. M. and ROSS G. IEEE Trans. Instrum. Meas. 1970; IM-19:377-382. 3. LIMA, R. C., PINHO, M. S.; OGASAWARA, T.; “Absorção de microondas da hexaferrita de bário tipo M dopada com sódio e lantânio”, Pesquisa Naval 17 98-101, 2004. 9. LIMA, R. C. – Msc. Tese – Programa de Engenharia Metalúrgica e de Materiais da COPPE/UFRJ, 2002. “Efeito da substituição de bário por lantânio-sódio nas propriedades absorvedoras de microondas da hexaferrita de bário tipo M”. 136 8. BAKER-JARVIS J. NIST Techn. Note1993; 1355 – R:40. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136 MATERIAIS ESPECIAIS Efeito da temperatura na obtenção de Zn-hexaferritas de bário do tipo Y Roberto da Costa Lima Instituto de Pesquisas da Marinha (IPqM). PEMM – COPPE da Universidade Federal do Rio de Janeiro (UFRJ). E-mail: [email protected] Magali Silveira Pinho Instituto de Pesquisas da Marinha (IPqM). Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ) E-mail: [email protected] Tsuneharu Ogasawara PEMM – COPPE da Universidade Federal do Rio de Janeiro (UFRJ). Resumo Neste trabalho, foi avaliado o efeito da temperatura na obtenção de hexaferrita de bário do tipo Y substituída com Zn, pelo método de sol-gel com autocombustão em sistema nitrato-ácido cítrico. As técnicas empregadas na avaliação deste efeito consistiram da Difração de Raios-X (XRD) e Magnetometria de Amostra Vibrante (VSM). A temperatura de calcinação considerada como ideal foi de 950 °C, confirmada pela obtenção da fase cristalina de Ba 2Zn2Fe12O22. Palavras-chave Sol-gel. Hexaferrita de bário do tipo Y, XRD. Medidas de magnetização. Effect of temperature on the Y-type barium ZN-hexaferrites preparation Abstract In this work, the effect of temperature in the preparation of Zn-substituted Y-type hexaferrite by the sol-gel combustion method in a nitrate citric system, was reported. This effect was evaluated by X-Ray Diffraction (XRD) and Vibrating Sample Magnetometry (VSM) techniques. The calcination temperature considered as ideal was 950 °C, confirmed by the presence of Ba2Zn2Fe12O22 single phase. Keywords Sol-gel. Y-type barium hexaferrite, XRD. Magnetization measurements. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 137-139 INTRODUÇÃO Hexaferritas de bário são materiais cerâmicos policristalinos com propriedades magnéticas, que devido às possíveis combinações de composições químicas e estruturais, podem ser utilizadas em várias aplicações específicas. Esses materiais são classificados de acordo com as suas estruturas em: BaFe12O19 (tipo M), BaMe2Fe16O27 (tipo W), Ba2Me2Fe28O46 (tipo X), Ba2Me2Fe12O 22 (tipo Y) e Ba3Me 2Fe24O41 (tipo Z), onde Me representa um íon divalente. Todos os compostos da classe Y (Ba2Me2Fe12O22) apresentam anisotropia planar à temperatura ambiente, independentemente do íon metálico (ME) utilizado [1-5]. O método convencionalmente utilizado para a obtenção de hexaferritas de bário tem sido por mistura de óxidos. No entanto, o desenvolvimento de novos métodos, tais como o processo sol-gel, visa, além da facilidade, um menor consumo de energia e obtenção de pós em escala nanométrica [3, 6-8]. O método convencional por misturas de óxidos apresenta como principal desvantagem a introdução de impurezas, resultando em tensões na rede cristalina e irregularidades no formato, além do aumento das partículas, em decorrência da utilização de temperaturas mais elevadas [1, 2, 5]. O método sol-gel com autocombustão apresenta como principais características o menor tempo reacional entre as soluções aquosas dos nitratos metálicos e o ácido cítrico e a utilização de temperaturas mais baixas, dificultando a evaporação dos reagentes, resultando em composições químicas mais homogêneas [3]. Neste trabalho, o método sol-gel com autocombustão propiciou a utilização de uma temperatura mais baixa de calcinação (950 °C) em relação ao convencional (120 – 1300 °C), resultando na obtenção de um pó homogêneo e ultrafino de Ba2Zn2Fe12O22, confirmada pelas técnicas de XRD e VSM. 137 ROBERTO DA COSTA LIMA, MAGALI SILVEIRA PINHO, TSUNEHARU OGASAWARA METODOLOGIA efeitos decorrentes da utilização do tubo de cobre, empregou-se o monocromador. Materiais Magnetometria de amostra vibrante Um pó ultrafino de Ba2Zn 2Fe12O22 hexaferrita foi sintetizado pelo método do precursor citrato (so-gel), utilizando os seguintes produtos de partida com grau de pureza PA: Fe(NO 3 ) 3 .9H 2 O, Ba(NO 3 ) 2 , Zn(NO3)2.6H2O ácido cítrico mono-hidratado em razões estequiométricas, segundo o diagrama de blocos ilustrado pela Figura 1. Os ciclos de histerese foram fornecidos pelo magnetômetro VSM 4500 da EG & G Princeton Applied Research. FIGURA 1 Diagrama da síntese de Ba2Zn2Fe12O22 pelo método solgel com autocombustão. A mistura foi aquecida a 70oC com posterior adição gota a gota de amônia até pH=7,5, para subseqüente precipitação do complexo organometálico. A solução foi, então, aquecida 80oC para produção do gel com elevada viscosidade. Esse gel foi levado à secura e, posteriormente, aquecido a aproximadamente 250oC, resultando em reação de autocombustão. Como resultado, foi obtido um pó ultrafino de Ba2Zn2Fe12O22, que foi calcinado nas temperaturas de 850, 950 e 1000oC, por 4 h com taxa de aquecimento de 10 oC/min. RESULTADOS E DISCUSSÃO A Figura 2 ilustra os ciclos de histerese para as amostras de Ba 2 Zn 2 Fe 12 O 22 , calcinadas em diferentes temperaturas. FIGURA 2 Curvas de histerese para as amostras calcinadas em diferentes temperaturas. Pelos resultados apresentados nos ciclos de histerese, pode-se obser var que, a 950 o C, o material já apresentou comportamento magnético característico das ferritas macias. Tal comportamento não foi observado para a temperatura de calcinação de 850oC, como ilustra a Figura 3. Técnicas de Caracterização Difração de Raios-X Os produtos calcinados nas diferentes temperaturas foram analisados pelo difratômetro de Raios-X PANalytical X’Pert PRO. A velocidade do goniômetro (varredura de passo) foi de 0,02°, 2θ por passo com tempo de contagem de 1,0 segundo por passo. A radiação utilizada foi de Kα do Cu (λ= 1,5448 Å) para ângulos de 2θ entre 20 e 70°. Para compensar os 138 FIGURA 3 Difratogramas para as amostras calcinadas em diferentes temperaturas. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 137-139 MATERIAIS ESPECIAIS Na Figura 3, para a temperatura de 850°C, pode ser obser vada a presença de outras fases (Y= Ba2Zn2Fe12O22, M= BaFe12O19, S= BaFe12O19, F= gFe 2O 3) e o alargamento dos picos, que pode ser atribuído à presença do precursor orgânico (material amorfo). Para as temperaturas de 950 e 1000 oC, ocorreu a formação da única fase cristalina de Ba2Zn2Fe12O22, indicando que 950oC é a temperatura economicamente viável. CONCLUSÃO A Zn-hexaferrita de bário tipo Y, sob a forma de pó ultrafino, foi obtida pelo método do citrato com autocombustão. A temperatura de calcinação ideal para obtenção de uma única fase foi de 950 °C, tendo sido confirmada por intermédio das técnicas de XRD e VSM. REFERÊNCIAS 1. PINHO, M. S.- Dsc. Tese – Instituto de Macromoléculas Prof. Eloisa Mano, UFRJ, 2002. “Materiais absorvedores de radiação eletromagnética em matrizes de policloropreno”. 2. LIMA, R. C., PINHO, M. S.; OGASAWARA, T.; “Absorção de microondas da hexaferrita de bário tipo M dopada com sódio e lantânio”, Pesquisa Naval 17 98-101, 2004. 3. HONG, Y. S.; HO, C. M.; HSU, H. Y.; LIU, C. T.; “Synthesis of nanocrystalline Ba(MnTi)xFe12-2xO19 powders by sol-gel combustion method in citrate acid-metal nitrates system (x=0, 0.5, 1.0, 1.5, 2.0)”, Journal of Magnetism and Magnetic Materials 279 401-410, 2004 4. CHO, H. S.; KIM, S. S.; “M-hexaferrites with planar magnetic anisotropy and their application to high-frequency microwave absorbers”, IEEE Transactions on Magnetics 35: (5) 3151-3153, Part 1, Sep. 1999. 5. SUÁREZ, N.; SÁNCHEZ, J.L.; DIAZ, S.; CUETO, A.; LÓPEZ, G.; OÑATE, J.; “Magnetic properties of Ba1-xREx/2Nax/2Fe12O19 (RE = La, Gd, Lu; 0.0 £ x £ 0.3) hexagonal ferrites”, Magnetism, Magnétic Materials and their applications: Section III (Part 2), La Habana, Cuba, 2129 May 1991. 6. QUEFFLEC, P., GELIN, P., GIERALTOWSKI, J. and LOAEC, J., IEEE Transactions on Magnetics; 30 (2), 224-230, 1994. 7. PINHO, M. S., GREGORI, M. L., NUNES, R. C. R., SOARES, B. G., European Polymer Journal, 38, 2321-2327, 2002. AGRADECIMENTOS Os autores agradecem ao pesquisador Manoel Ribeiro da Silva pelas análises no magnetômetro de amostra vibrante (IFUFRJ/ UNIFEI). REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 137-139 8. LIMA, R. C. – MSc. Tese – Programa de Engenharia Metalúrgica e de Materiais da COPPE/UFRJ, 2002. “Efeito da substituição de bário por lantânio-sódio nas propriedades absorvedoras de microondas da hexaferrita de bário tipo M”. 139 CAPITÃO-TENENTE (EN) WILLIAM ROMÃO BATISTA, MARIA HELENA CAMPOS BAETA NEVES, ANDRÉ LUIZ MAZZEI ALBERT, ROSANGELA SABBATINI CERQUEIRA LOPES, JARÍ NÓBREGA CARDOSO, CLÁUDIO CERQUEIRA LOPES Avaliação da atividade antiincrustante de glicerofosfolipídios isolados de organismos marinhos da região de Arraial do Cabo – RJ Capitão-Tenente (EN) William Romão Batista Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM. Maria Helena Campos Baeta Neves Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM. André Luiz Mazzei Albert Departamento de Química Analítica do Instituto de Química – IQ. Universidade Federal do Rio de Janeiro – UFRJ. Rosangela Sabbatini Cerqueira Lopes Departamento de Química Analítica do Instituto de Química – IQ. Universidade Federal do Rio de Janeiro – UFRJ. Jarí Nóbrega Cardoso Departamento de Química Analítica do Instituto de Química – IQ. Universidade Federal do Rio de Janeiro – UFRJ. Cláudio Cerqueira Lopes Departamento de Química Analítica do Instituto de Química – IQ. Universidade Federal do Rio de Janeiro – UFRJ. Resumo Um dos grandes problemas enfrentados ao dispor qualquer estrutura no mar é a ação natural denominada por bioincrustação ou somente incrustação, que é o processo de colonização por crescimento de bactérias, algas e invertebrados sésseis, o qual se desenvolve sobre estruturas submersas naturais ou artificiais. Visando eliminar ou amenizar este problema, o homem vem se utilizando de produtos que tenham o efeito de impedir ou retardar a evolução da bioincrustação nestas estruturas. Dentre os vários produtos até hoje utilizados, o TBT (tributil-estanho) foi o que apresentou maior eficácia, porém devido a constatação do seu efeito nocivo ao meio ambiente, a sociedade optou por seu banimento. O presente artigo avalia a utilização como agente antiincrustante de substâncias do grupo dos glicerofosfolipídios, onde um glicerofosfolipídio disponível comercialmente e oito extratos lipóides de quatro organismos marinhos, três espécies de esponjas marinhas e uma espécie de molusco marinho, os quais possivelmente contêm glicerofosfolipídios análogos, são utilizados em ensaios microbiológicos de incrustação, onde lâminas de microscopia recobertas unilateralmente com ágar-ágar contendo tais compostos e fixadas em quatro painéis de acrílico são submersas em um tanque contendo água do mar, sendo os painéis retirados em diferentes intervalos de tempo e avaliados quanto ao grupo e quantidade de microorganismos aderidos, sendo observado um efeito antiincrustante em relação a bactérias presentes na formação do biofilme, estágio inicial do processo de bioincrustação, servindo deste modo para subsidiar futuros trabalhos e possíveis aplicações destes produtos, para fins industriais, visando a substituição do TBT. 140 Palavras-chave Antiincrustante. Biocida natural. Glicerofosfolipídios. Bioincrustação. Fator Ativador de Plaquetas (PAF). Antifouling activity evaluation of the glycerophospholipids isolated from marine organisms from Arraial do Cabo region – Rio de Janeiro – Brazil Abstract One of the great problems faced when any structure is placed in the sea, is the natural action known as biofouling, also called incrustation, which is the process of settling and growth of bacteria, algae and invertebrates sessil organisms, developed on natural or artificially submerged structures. Aiming to clarify up this problem, man has used products that have the effect to hinder or delay the evolution of biofouling in the structures placed in the seas and oceans. Amongst the products used so far, TBT (tributil-tin) was the substance which presented greater effectiveness, however due to evidence of its harmful effect in the environment the society opted for its banishment. This work evaluated the use as a natural antifouling of substances of the glycerophospholipid group. For this, one commercial available glycerophospholipid and eight lipid extracts of four marine organisms, including three species of sea sponges and one species of a marine mollusk, which could possibly contain analogs of these substances, have been used in microbiological fouling assays, where slides unilaterally covered with agar-agar containing such extracts, were fixed in four acrylic panels and submerged in a tank containing sea water. Each panel was removed at different moments and evaluated with respect to the type and amount of adhered microorganisms. The results had indicated an antifouling effect against the bacteria present in the biofilm, the early stage of biofouling formation, serving in this way to subsidize futures work and possible applications of these products, for industrial purposes, aiming at the TBT substitution. Keywords Antifouling. Natural biocide. Glycerophospholipids. Fouling. Platelet Activation Factor (PAF) REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145 MATERIAIS ESPECIAIS INTRODUÇÃO Navios que trafegam ou permanecem em áreas tropicais ou subtropicais estão sujeitos aos mais severos ataques por bioincrustação, particularmente em águas mais rasas ou costeiras, onde há uma maior disponibilidade de luz, calor e nutrientes. Do ponto de vista militar, o crescimento das incrustações nos cascos das embarcações é tido como um sério e recalcitrante problema, devido ao fato de promover a diminuição da velocidade final da embarcação e sua manobrabilidade, obstruir janelas de resfriamento, aumentar o gasto de combustível e obrigar a docagens ou imobilizações mais freqüentes. Tudo isto contribui para a falha em potencial de qualquer ação militar, sendo estimado que a presença de 5% de incrustação no casco pode aumentar o gasto com combustível em 17%, e 1mm de espessura de lodo no casco pode causar a perda de 15% de velocidade final (LEWIS, 2001). FIGURA 1 Rotíferas, Protozoário, Bactérias e Diatomáceas (na seqüência). O fenômeno natural denominado de bioincrustação consiste de um processo natural, que ocorre com qualquer estrutura quando posta em contato com água onde exista a presença de microorganismos. Deste modo, o mar desponta como sendo o local ideal para que este processo venha ocorrer. O terceiro estágio é a colonização secundária feita por esporos de macroalgas, larvas de cracas, fungos, outras bactérias e protozoários, que transformam o biofilme, no decorrer da primeira semana, em uma composição mais complexa. O processo da bioincrustação inicia-se imediatamente após o objeto ser colocado no mar, desenvolvendose até o ponto onde se verifica a presença de macroorganismos marinhos como algas, cracas e mexilhões. Tecnicamente o processo consiste de quatro estágios, não rigorosamente seqüenciais, porém, interdependentes. O primeiro estágio inicia-se logo nos primeiros minutos de contato da superfície com a água, quando ocorre o acúmulo de moléculas orgânicas, tais como polissacarídeos e proteínas. Isto permite, nas próximas horas (24-96 h), o desenvolvimento do estágio primári o d e c o l o n i z a ç ã o p o r b a c t é r i a s e diatomáceas, as quais juntamente com cianobactérias, protozoários e rotíferas (Figura 1), formam um filme microbiológico chamado de biofilme (segundo estágio). A presença do biofilme permite que microorganismos tenham maior proteção contra predadores, toxinas e mudanças ambientais, além de permitir uma boa REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145 Adaptado a par tir das fontes www.ucmp.berkeley.edu e www.kuranvebilin.com disponibilidade de nutrientes apreendidos do meio ambiente marinho, que ficam dispersos no próprio biofilme. O quarto estágio envolve o assentamento e o crescimento de maiores organismos marinhos tais como moluscos, briozoários, antozoários, poliquetas, tunicados e crustáceos. O tipo, a extensão e a severidade da bioincrustação dependem de fatores como: tipo de substrato, salinidade da água, luz ambiente, temperatura, poluição e nutrientes disponíveis. Deste modo, a bioincrustação tende a ser um fenômeno sazonal relacionado à posição geográfica. No combate a bioincrustação, várias ações podem ser tomadas e, dependendo da situação e da aplicabilidade, pode ser feita a remoção mecânica periódica dos organismos incrustados; utilizar materiais menos propensos a bioincrustação; usar proteção eletroquímica, etc. Porém, o mais efetivo e econômico método foi o uso de tintas antiincrustantes contendo TBT (tributil-estanho). Entre as décadas de 70 a 90, pesquisas demonstraram a correlação de deformidades em moluscos com a 141 CAPITÃO-TENENTE (EN) WILLIAM ROMÃO BATISTA, MARIA HELENA CAMPOS BAETA NEVES, ANDRÉ LUIZ MAZZEI ALBERT, ROSANGELA SABBATINI CERQUEIRA LOPES, JARÍ NÓBREGA CARDOSO, CLÁUDIO CERQUEIRA LOPES presença de TBT no ambiente marinho, e que, para alguns organismos, concentrações tão baixas como 1 (ng/L) mostravam-se tóxicas (ARMSTRONG et al., 2000). Isto levou o Comitê de Proteção ao Meio Ambiente Marinho – MEPC, pertencente a Organização Marítima Internacional – IMO, adotar uma resolução recomendando que os governos adotassem medidas para restringir o uso de tintas antiincrustantes com base no TBT, culminado na assembléia da IMO em 1999. Nesta assembléia, foi estabelecido um conjunto de ações, vigorando a partir 1º de janeiro 2003, para assegurar uma proibição global da aplicação dos compostos de organo-estanho que agem como biocidas em sistemas de pintura antiincrustante em navios e a proibição completa da presença de tais compostos até 1º de janeiro 2008. O presente trabalho foi motivado pela questão relacionada ao banimento promulgado para 01 janeiro de 2008 do composto conhecido como tributil estanho (TBT), principal e mais eficiente biocida componente de tintas marítimas antiincrustantes usadas na prevenção da bioincrustação, considerando que o uso de um biocida não poluente é de fato a melhor resposta para sua substituição no combate a bioincrustação marinha. O mesmo se justifica pela necessidade da existência comercial de produtos com ação biocida ou antiincrustante, não agressivos ao meio ambiente, que possam ser utilizados na preparação de tintas marítimas antiincrustante. à célula atingida, e (ii) devido a sua característica de PAF-análogo, desencadear uma reação antagônica, p ex. inflamação, inibição de síntese celular ou apoptose, ocasionando a repulsão ou morte do microorganismo. A idéia da utilização de tais PAF-análogos como agente antiincrustante, tem como princípio o que acontece com outros tipos de células utilizadas na área médica e farmacológica (MARATHE et al., 2001; BOTITSI et al., 1998; KULIKOV e MUZYA, 1997; VENABLE et al. 1993), que se baseia no possível desencadeamento de uma reação antagônica ou processo inflamatório nas células dos organismos incrustantes em contato com tais produtos. Deste modo, espera-se que um composto difundido no biofilme, que possa agir ocasionando o rompimento ou mau funcionamento desta estrutura, faça com que os organismos que iniciam e formam o biofilme, tais como bactérias, microalgas, protozoários, rotíferas, ovos e larvas, sejam repelidos ou mortos, implicando na conseqüente inibição do início do processo de incrustação. O trabalho se limitou a ensaios em laboratório utilizando água do mar in natura e visou verificar o assentamento de microorganismos marinhos, tais como bactérias, cianobactérias e diatomáceas, em lâminas de microscopia devidamente preparadas contendo as substâncias a serem avaliadas. METODOLOGIA OBJETIVOS O principal objetivo deste trabalho foi avaliar a eficácia antiincrustante de substâncias do grupo dos alquilglicerofosfolipídios análogos ao composto denominado Platelet Activating Factor (PAF) ou Fator Ativador de Plaquetas, que reconhecidamente possui potente ação celular (STAFFORINI et al., 1997; DENNIS, 1994; VENABLE et al. 1993; PRESCOTT et al. 1990; STREMLER et al., 1989; DEMOPOULOS et al., 1979; BLANK et al., 1979). A hipótese básica assume que tais compostos, ao alcançar os invólucros celulares dos microorganismos, possam: (i) devido à característica hidrofóbica de seu radical alquídico, ser facilmente adsorvido por camadas de peptidoglicanos, polissacarídeos, lipo-polissacarídeos ou fosfolipídios presentes na membrana plasmática e, agindo como um surfactante, causar danos 142 PAF-análogos disponíveis comercialmente e extraídos de organismos marinhos, tais como mexilhão e esponja marinha, induzidos ao estresse por meio de inoculação de substância química irritante (SUGIURA et al., 1991; THOMPSON e HANAHAN, 1963), foram avaliados em testes de laboratório quanto à eficácia antiincrustante contra microorganismos presentes na formação do biofilme, etapa fundamental ao processo de bioincrustação marinha, sendo incorporados em lâminas para microscopia recobertas por gel ágar-ágar e dispostos em tanques contendo água bombeada diretamente do mar. Os organismos marinhos utilizados, uma espécie de mexilhão (Figura 2), Perna perna (Linnaeus, 1758), e três espécies de esponjas marinhas (Figura 3), Aplysina fulva (Pallas, 1766), Amphimedon viridis (Duchassaing & Michelotti, 1864) e Arenosclera brasiliensis (Muricy REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145 MATERIAIS ESPECIAIS & Ribeiro, 1999) foram classificados e separados em dois grupos dentro de cada espécie, para o processo de extração com solventes (FOLCH et al., 1957) (Figura 4). FIGURA 2 Mexilhão Perna perna FIGURA 4 Fluxograma do processo de extração permanecendo sob inanição por 36 horas para o início do processo de indução ao estresse, sendo, em seguida, inoculados com solvente dimetil-sulfóxido (DMSO). Os extratos lipóides, obtidos após concentração, foram fracionados usando uma coluna cromatográfica de 1 cm de diâmetro, preenchida com 10 gramas de sílica (250 – 115 mesh), visando separar a fração mais polar contendo os glicerofosfolipídios de interesse. FIGURA 3 Esponjas marinhas Aplysina fulva, Amphimedon viridis e Arenosclera brasiliensis (Na seqüência). O primeiro grupo de cada espécie, que não sofreu nenhuma inoculação e serviu como referência, teve o seu processo de extração iniciado imediatamente. O segundo grupo foi transferido para recipientes contendo água do mar filtrada, contendo baixos teores de organismos planctônicos e material orgânico particulado, mantida sob aeração forçada, REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145 As frações mais polares dos extratos iniciais, bem como uma solução do branco de reagentes e uma solução contendo um padrão de PAF-análogo (1O-octadecyl-2-O-methyl-sn-glycero-3phosphocholine) foram incorporadas a gel de ágarágar e, então, usados para recobrir unilateralmente lâminas de microscopia (2,6 x 7,6 cm). As lâminas, assim preparadas, foram fixadas em painéis de acrílico (65 x 55 cm) e então dispostos em um tanque contendo água do mar in natura (Figura 5, a seguir). Os painéis, quatro ao total, foram retirados individual e seqüencialmente a cada 48 horas. As lâminas foram reservadas para posterior avaliação quanto ao grupo e quantidade de microorganismos aderidos por meio de microscopia de epifluorescência. 143 CAPITÃO-TENENTE (EN) WILLIAM ROMÃO BATISTA, MARIA HELENA CAMPOS BAETA NEVES, ANDRÉ LUIZ MAZZEI ALBERT, ROSANGELA SABBATINI CERQUEIRA LOPES, JARÍ NÓBREGA CARDOSO, CLÁUDIO CERQUEIRA LOPES FIGURAS 5 Tanque e painel utilizados nos experimentos RESULTADOS E DISCUSSÃO Na apresentação gráfica dos dados (Figura 6), onde estão correlacionados o número total de bactérias gram-negativas aderidas por cm 2 de lâmina dos extratos inoculados e referência de cada espécie, tendo por base de comparação os valores obtidos pelos controles branco e padrão, podemos observar a dissimilidade da resposta do padrão em relação ao branco de reagentes e aos demais extratos avaliados, indicando em todas as comparações uma menor adesão. A avaliação dos dados estatísticos, onde foi realizada uma abordagem não paramétrica semelhante ao teste de Friedman, considerando-se uma transformação dos dados por ranking total e posterior análise de variância com dois critérios de classificação, Two-way ANOVA (MILLER e MILLER, 2000; ZAR, 1996) – cálculo aqui não apresentado – demonstrou que os extratos que possuíam indícios de PAF-análogos não apresentaram uma ação antiincrustante comparável ao controle do padrão, um PAF-análogo comercialmente disponível, porém acredita-se que a concentração de tais compostos no extrato tenha sido inicialmente superestimada, o que pode ter ocasionado um resultado não significativo. Com relação ao padrão de PAF-análogo utilizado, o mesmo mostrou-se eficaz como um agente inibidor da adesão bacteriana, o qual apresentou, em comparação ao branco de reagentes, uma menor adesão de bactérias gram-negativas. Contudo, nada se pode inferir sobre o mecanismo da ação inibidora, ou seja, se ela ocorreu por ação surfactante ou por 144 FIGURA 6 Número total de microorganismos aderidos nos extratos em comparação aos controles branco e padrão. sinalização celular. Por outro lado, devido à diminuta quantidade de adesão das cianobactérias e diatomáceas, não foi possível fazer qualquer avaliação relacionada a estes microorganismos. Para isto, devemos atentar para um maior tempo de imersão dos experimentos, permitindo que tal adesão venha a ocorrer, possibilitando assim obter uma maior quantidade de dados relacionados a estes microorganismos. CONCLUSÃO A utilização de um composto análogo ao PAF como um agente antiincrustante, apresenta-se como uma promissora perspectiva na substituição do TBT, pois apresenta uma molécula de fácil síntese, ao contrário de outros biocidas naturais já pesquisados, e sua possível atuação como mediador celular pode tornálo mais eficaz em menores concentrações e permitir que o mesmo atue seletivamente na membrana citoplasmática dos microorganismos da bioincrustação, de modo que tal substância poderá apresentar-se como um produto antiincrustante economicamente viável e principalmente ambientalmente correto. O presente trabalho serve como base para futuras avaliações da atividade antiincrustante de outros PAFanálogos, visando uma substituição plena, definitiva e comercialmente disponível do biocida TBT. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145 MATERIAIS ESPECIAIS REFERÊNCIAS. ARMSTRONG, E.; BOYD, K.G. e BURGESS, J.G. (2000). Prevention of marine biofouling using natural compounds from marine organisms. Biotechnology Annual Review Vol. 6 pp 221 -237 BLANK, M.L.; SNYDER, F.; BYERS, L.W. et al.; (1979). Antihipertensive activity of alkyl ether analog of phosphatidylcholine. Biochemical and Biophysical Research Communications. Vol. 90. pp 1194 – 1200. BOTITSI, E.; MAVRI-VAVAYANNI, M. e SIAFAKA-KAPADAI, A. (1998). Metabolic fate of platelet-activating factor (PAF 1-O-alkyl-2-acetylsnglycero-3-phosphocholine) and lyso-PAF (1-O-alkyl-2-lysosn-glycero-3phosphocholine) in FRTL5 cells. Journal of Lipid Research. Vol.39. pp 1295 – 1304. MARATHE, G.K.; SILVA, A.R.; NETO, H.C.C.F.; et al. (2001). Lysophosphatidylcholine and lyso-PAF display PAF-like activity derived from contaminating phospholipids. Journal of Lipid Research. Vol.42. pp 1430 – 1437. MILLER, J.N. e MILLER, J.C. (2000). Statistics and chemometrics for analytical chemistry. 4ª edição. Pearson Prentice Hall. London. PRESCOTT, S.M.; ZIMMERMAN, G.A. e MCINTYRE, T.M. (1990). Platelet-activating factor. The Journal of Biological Chemistry. Vol.265. Nº.29. pp 17381 – 17384. STAFFORINI, D.M.; MCINTYRE, T.M.; ZIMMERMAN, G.A. e PRESCOTT, S.M. (1997). Platelet-activating factor acetylhydrolases. The Journal of Biological Chemistry. Vol.242. Nº29. pp 17895 – 17898. DEMOPOULOS, C.A.; PINCKARD, R.N. e HANAHAN, D.J. (1979). Platelet-activating factor. Evidence for 1-O-alkyl-2-acetoyl-sn-glycerol-3phosphorylcholine as the active component (a new class of lipid chemical mediators). The Journal of Biological Chemistry. Vol. 254. Nº19. pp 9355 – 9358. STREMLER, K.E.; STAFFORINI, D.M.; PRESCOTT, S.M. et al. (1989). An oxidized derivative of phosphatidylcholine is a substrate for the plateletactivating factor acetylhydrolase from human plasma. The Journal of Biological Chemistry. Vol. 264. Nº10. pp 5331 – 5334. DENNIS, E.A. (1994). Diversity of group types, regulation, and function of phospholipase A2. The Journal of Biological Chemistry. Vol. 269. Nº18. pp 13057 – 13060. SUGIURA, T.; OJIMA, T.; FUKUDA, T. et al. (1991). Production of platelet-activating factor in slugs. Journal of Lipid Research. Vol. 32. pp 1795 – 1803. FOLCH, J.; LEES, M. e STANLEY, G.H.S. (1957). A simple method for the isolation and purification of total lipids from animal tissues. The Journal of Biological Chemistry. Vol.226. pp 497 – 509. THOMPSON, G.A. e HANAHAN, D.J. (1963). Identification of á-glyceryl ether phospholipids as major lipid constituents in two species of terrestrial slug. The Journal of Biological Chemistry. Vol.238. Nº 8. pp 2628 – 2631. KULIKOV, V.I. e MUZYA, G.I. (1998). Review: The bioregulatory role of platlet-activating factor in intracellualar process and cell-cell interaction. Biochemistry (Moscow). Vol. 63 (1). pp 47 – 54. VENABLE, M.E.; ZIMMERMAN, G.A.; MCINTYRE, T.M. e PRESCOTT S.M. (1993). Platelet-activating factor : a phospholipid autacoid with diverse actions. Journal of Lipid Research. Vol.34 pp 691 – 702. LEWIS, J.A. (2001). Ship anti-foulants – tributyltin and substitutes. National Shipping Industry Conference Sydney Australia. pp 1 - 6. http:// www.amsa.g ov.au/about_amsa/Corporate_ infor mation/ AMSA_speeches/Shipping_In_The_Asia-Pacific_Conference/ PDFs/dsto.pdf. Acesso em 10 de janeiro de 2005. ZAR, J.H. (1996). Biostatistical Analysis. 3ª edição. New Jersey – USA. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145 145 - 146 ENERGIA Utilização de um modelo homogêneo para estudo de escoamento bifásico em núcleos de reatores nucleares PWRs Francisco A. Braz Filho Alexandre D. Caldeira Eduardo M. Borges Instituto de Estudos Avançados (IEAv) Centro Técnico Aeroespacial (CTA). São José dos Campos, SP, 12231-970 E-mail: [email protected] Resumo Este trabalho apresenta o desenvolvimento de um programa computacional para análise termohidráulica de escoamento bifásico em núcleos de reatores nucleares PWRs. Este programa computacional é uma versão do programa COTHA2, acrescida da capacidade de análise de escoamento bifásico através do modelo homogêneo, que considera equilíbrio termodinâmico entre as fases. Quando se adota propriedades médias adequadas, pode-se tratar a mistura líquido-vapor como um único fluido, aplicando-se as equações de conservação para somente um componente. O estudo está restrito a análises em estado estacionário; geometria unidimensional; e escoamentos monofásico e bifásico. Os resultados obtidos com o programa desenvolvido apresentam boa concordância com os cálculos do programa computacional COBRA-EN. Palavras-chave Escoamento bifásico. Núcleo de reatores nucleares. Modelo homogêneo. PWR. Utilization of a homogeneous model for studying two-phase flow in pwr nuclear reactor core Abstract This work presents a development of a computational code to perform two phase flow thermo-hydraulic analysis in PWR nuclear reactor cores. This code is based on the COTHA-2 code version, increased of the homogeneous model twophase flow analysis capacity, which considers thermodynamic equilibrium between phases. When adequate average properties are adopted, the liquid-vapor mixture can be treated as an unique fluid, using the conservation equations for one component. The study is restricted to one-dimensional geometry; steady state; and one-and two-phase flow calculations. The results obtained with the developed code show a good agreement with COBRA-EN code ones. INTRODUÇÃO Em um trabalho anterior /1/, foi apresentado um programa computacional denominado COTHA-2, que resolve as equações de conservação de massa, quantidade de movimento axial e energia para um volume de controle, considerando estado estacionário, geometria unidimensional e escoamento monofásico (líquido). Este programa foi desenvolvido para analisar, principalmente, canais típicos de reatores PWRs (“Pressurized Water Reactors”). Em condições normais, os PWRs estão projetados para trabalhar com o refrigerante abaixo da temperatura de saturação, ou seja, com o escoamento do fluido na forma líquida. No entanto, a temperatura do refrigerante, principalmente nos canais mais quentes, encontra-se muito próxima da saturação e, além disto, a parede do revestimento do combustível pode atingir valores acima da temperatura de saturação. Desta forma, em certos casos, pode-se alcançar o regime de ebulição sub-resfriada, ou até mesmo, o início de ebulição nucleada, ou seja, a temperatura do fluido pode atingir a de saturação e o escoamento torna-se bifásico (líquido-vapor). É de grande importância o estudo do escoamento bifásico em reatores PWRs, pois com a ocorrência deste regime, há uma súbita mudança no coeficiente de transferência de calor e um aumento da perda de carga, que pode levar à instabilidade do escoamento. O escoamento bifásico pode compreender várias formas diferentes /2/, como por exemplo: bolhas de vapor imersas no líquido; grandes regiões de vapor contidas no líquido (“slug”); anular (líquido na parede com vapor ao centro); e gotículas no vapor. Assim sendo, vários regimes de transferência de calor podem ocorrer, tais como ebulição subresfriada, ebulição nucleada, transição de ebulição, fluxo crítico de calor e ebulição em filme líquido. Keywords Two-phase flow. Nuclear reactor core. Homogeneous model. PWR. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 147 FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES O escoamento bifásico envolve um movimento relativo entre as duas fases, vapor e líquida, portanto, este problema deve ser formulado em termos de dois campos de velocidade. A formulação completa deste fenômeno, considerando-o unidimensional, compreende a solução das equações de conservação para os dois fluidos /3/, ou seja, duas para a continuidade, duas para a quantidade de movimento e duas para a energia, somando seis equações. Além disto, uma série de equações constitutivas deve ser acoplada ao problema, para especificar a interação interfacial entre as duas fases. Uma vez que há muitas dificuldades na modelagem com dois fluidos separados, principalmente na elaboração das equações constitutivas, encontram-se modelos mais simples, mas que, graças ao respaldo experimental, em certas condições, podem simular o escoamento bifásico com uma boa qualidade dos resultados. O conceito básico destes modelos considera a mistura de líquido e vapor como um todo, ou seja, um único componente. Neste caso, os modelos “drift flux” /4, 5/ e homogêneo / 6, 7/ podem ser ressaltados. O modelo homogêneo é uma técnica mais simples para se analisar o escoamento bifásico (ou várias fases). Adotando-se propriedades médias adequadas, podese tratar a mistura como um só fluido e aplicar-se as equações de conservação para um único componente. A partir desta hipótese, os métodos convencionais da mecânica dos fluidos podem ser utilizados. Para uma primeira implementação da capacidade de análise de escoamento bifásico no programa computacional COTHA-2, foi escolhida a utilização do modelo homogêneo. O objetivo deste trabalho é apresentar a formulação e testes do modelo bifásico de escoamento. A validação dos cálculos é realizada pela comparação com os resultados do programa computacional COBRA-EN /8/. A seguir serão descritos: os modelos teóricos adotados; os métodos de solução, juntamente com a descrição do programa desenvolvido; os resultados deste programa, comparados aos valores obtidos com o programa COBRA-EN; e comentários finais. 148 MODELO TEÓRICO Como foi mencionado anteriormente, para o modelo homogêneo existe a necessidade da definição de médias para a velocidade, propriedades termodinâmicas (entalpia, massa específica) e propriedades de transporte (viscosidade). Estas médias são ponderadas entre as duas fases (vapor e líquido) e não são necessariamente iguais para todas as propriedades. As hipóteses básicas para o modelo homogêneo são: i) velocidades lineares iguais do vapor e líquido; ii) equilíbrio termodinâmico entre as fases; e iii) uma adequada definição do fator de fricção para escoamento monofásico aplicado ao escoamento bifásico. Desta forma, as equações de conservação para um único componente em estado estacionário e geometria unidimensional podem ser utilizadas. A seguir, as equações de conservação são apresentadas. Equação da Continuidade. Com as hipóteses anteriores, pode-se escrever a equação da continuidade como . , (1) sendo ρ m a massa específica da mistura, u m a velocidade da mistura, Acanal a área transversal do canal . e a vazão em massa. A massa específica da mistura é dada por r m = ar g + (1 - a )r f (2) sendo á a fração de vazio, ñ a massa específica e os subscritos “g” e “f ” indicam, respectivamente, vapor saturado seco e líquido saturado. Usualmente, o símbolo á é usado livremente para representar uma concentração volumétrica média, sem a preocupação de definir exatamente qual a média é levada em consideração. Assim, um cuidado especial deve ser tomado quando um fenômeno periódico e concentrações não uniformes são importantes. Neste REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 ENERGIA estudo de escoamento bifásico o símbolo á representa a fração de vazio, ou concentração volumétrica do vapor. No modelo homogêneo a fração de vazio pode ser obtida em função da qualidade de equilíbrio termodinâmico, x, e as massas específicas, ñg e ñf, da seguinte forma x a= (1 - x ) rg rf + x , (3) rg H - Hf , x= H fg (4) sendo H a entalpia da mistura, Hf a entalpia do líquido saturado e Hfg o calor latente de evaporação. Equação da Quantidade de Movimento. Considerando-se apenas os termos devido às forças de atrito, peso do fluido e aceleração do fluido, podese escrever a equação da quantidade de movimento da seguinte forma . dP 1 d( u ) , = - Gatrito - r m g cos(q) dz A dz (5) sendo P a pressão, Γatrito a tensão de cisalhamento devido ao atrito, g a aceleração da gravidade, θ o ângulo entre a direção do escoamento e a vertical e u a velocidade axial. O termo Γatrito pode ser escrito como definido por Moody /9/ para escoamento monofásico Gatrito æf =ç çD è h . , (8) onde ì b é a viscosidade dinâmica para o escoamento bifásico obtida por mb = mf , onde a qualidade de equilíbrio termodinâmico é dada por q ′′′ com a, b e c constantes fornecidas de acordo com o regime de escoamento e o tipo de canal. O número de Reynolds para escoamento bifásico é calculado por ör f u 2m , ÷ ÷ 2 ø (6) sendo Dh o diâmetro hidráulico e f o fator de fricção, dado em função do número de Reynolds (Re) por f = a Re b + c , REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 (7) (9) e ìf é a viscosidade dinâmica do líquido saturado. No termo que considera as forças de atrito na equação da quantidade de movimento, a massa específica é a do líquido, quando o escoamento for monofásico, e é igual a do líquido saturado, quando for escoamento bifásico. Quando o escoamento for bifásico, aplica-se um fator de correção à fórmula de Moody, ö, dado por j= rf , rm (10) portanto, o termo relativo ao cisalhamento pode ser reescrito Gatrito = Gmono j , (11) sendo Ãmono o termo de cisalhamento considerando escoamento monofásico dado pela Equação (6). Equação da Energia. A equação da energia considera que a variação da entalpia corresponde ao calor gerado no combustível e pode ser escrita como . , (12) sendo H a entalpia do líquido quando for escoamento monofásico e da mistura quando for bifásico, Acomb a o calor gerado área transversal do combustível e por unidade de volume neste combustível. 149 FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES Integrando-se a Equação (12) no volume de controle, pode-se escrever . , (13) onde os sobrescritos “e” e “s” correspondem à entrada e saída do volume de controle, respectivamente. Equação de Estado. As propriedades do fluido são calculadas /10/ em função da pressão do sistema e da temperatura de entrada no volume de controle para escoamento monofásico. Quando for escoamento bifásico, as demais propriedades, não relacionadas até agora, serão consideradas a do líquido saturado, como, por exemplo, o calor específico, o coeficiente de expansão volumétrica, etc. Equação de Condução de Calor. A equação de condução de calor depende do tipo de elemento aquecedor utilizado, ou seja, vareta cilíndrica ou placa retangular, ou ainda, é possível simular um aquecimento da seção apenas fornecendo o fluxo de calor ao longo do canal. Este cálculo será mantido idêntico ao da versão anterior, o COTHA-2, exceto o coeficiente de transferência de calor. O coeficiente de transferência de calor para o caso de escoamento monofásico (líquido sub-resfriado – convecção forçada), hmono, é dado por Dittus-Boelter /11/ como Nu =0,023 Re 0 ,8 Pr0 , 4 , (14) Cálculo da Margem de Segurança com Relação ao FCC. Dois métodos podem ser utilizados para o cálculo da margem de segurança com relação ao FCC, ou seja, a razão entre o FCC e o fluxo de calor local (RFCC), o de Substituição Direta (SD) e o de Balanço de Calor (BC) /12, 13/. Médias das Propriedades. Como foi comentado anteriormente, o modelo homogêneo trata a mistura líquido-vapor como um componente apenas, desta forma, torna-se necessário modelar este componente através de uma média ponderada entre as duas fases, líquida e vapor. Existe na literatura /2, 6-8/ uma variação muito grande de como ponderar as grandezas envolvidas no problema, por exemplo, pode ser através da fração de vazio, qualidade de equilíbrio termodinâmico, etc., ou até utilizar correlações para ajustar os parâmetros. Este trabalho adota a mesma aproximação efetuada pela formulação do programa computacional COBRA-EN, ou seja, as propriedades da mistura são iguais as do líquido saturado na pressão do sistema. MÉTODOS DE SOLUÇÃO O método utilizado é o de marcha explícito (diferenças para frente). As condições de contorno de vazão e entalpia de entrada são fornecidas, juntamente com a pressão do sistema. Integrando-se a função da geração de calor volumétrica e utilizando-se a Equação (13), obtém-se a expressão para o cálculo da entalpia do refrigerante onde o número de Nusselt (Nu) é função dos números de Prandtl (Pr) e de Reynolds (Re). Quando ocorre o regime de escoamento bifásico (ebulição sub-resfriada ou ebulição nucleada), uma combinação entre o escoamento monofásico e a correlação de Thom /8/ é utilizada. Correlações de Fluxo Crítico de Calor. As correlações de fluxo crítico de calor (FCC) utilizadas são as mesmas do COTHA-2, ou seja, EPRI, W-3 e “1995 CHF Look-up Table”. 150 , . (15) A velocidade do refrigerante é obtida da Equação (1) por . , (16) A expressão para o cálculo da perda de pressão, considerando-se as Equações de (5) a (11), pode ser escrita como REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 ENERGIA , . (17) sendo Ψ um valor empírico que considera a perda de pressão devido ao bocal de entrada ou qualquer singularidade existente ao longo do canal e Äu a variação da velocidade entre a entrada e a saída do volume de controle considerado. Depois que todas as variáveis foram calculadas num determinado nível axial, pode-se caminhar um passo acima e assim, sucessivamente, até chegar ao topo do feixe. Uma vez que as temperaturas ao longo do canal foram obtidas, podem-se realizar mais dois cálculos: i) da distribuição de temperatura na vareta (geometria cilíndrica) ou placa (geometria plana) de combustível para cada nível axial; e ii) do fluxo crítico de calor e a respectiva margem de segurança, para cada posição axial, como no COTHA-2. No caso da distribuição de temperatura no combustível, três situações são possíveis: i) não estudar o elemento aquecedor; ii) o elemento aquecedor é uma vareta cilíndrica; e iii) o elemento aquecedor é uma placa. Para realizar os cálculos anteriormente descritos, foi desenvolvido um programa computacional, denominado COTHA-2tp (COre Thermal Hydraulic Analysis, versão 2, two phase flow). Este programa está escrito em linguagem de programação C++ da Borland. O COTHA-2tp é a versão do programa COTHA-2 com a capacidade de análise de escoamento bifásico, mantendo-se todas as opções da versão anterior. núcleo de um PWR comercial /8/. Os principais dados de entrada, para as simulações realizadas, estão mostrados na Tabela 1. Os resultados são comparados com dados obtidos com o programa COBRA-EN, para a validação dos cálculos, uma vez que os modelos adotados por ambos os programas, no caso de um único canal, são bem semelhantes, exceto pela utilização das funções de propriedades físicas da água. Para poder comparar melhor os resultados, adotouse o mesmo número de nós axiais no canal para os dois programas, COBRA-EN e COTHA-2tp. A Figura 1 mostra o cálculo da entalpia da mistura ao longo do canal. Os resultados apresentam uma excelente concordância entre os programas, COBRAEN e COTHA-2tp, com desvios percentuais da ordem de 0,01 %. TABELA 1. Base dos dados de entrada para o caso estudado Parâmetros Temp. de entrada [ºC] Fluxo de massa [kg/(s m2)] Fluxo de calor [MW/m2] Pressão do sistema [MPa] Perímetro molhado [m] Perímetro aquecido [m] Área de escoamento [m2] Comprimento do canal [m] Diâmetro da barra [m] Valores 292,9 3463,2 1,22 14,9 0,036 0,029 0,000098 4,27 0,0095 RESULTADOS Os resultados que serão apresentados estão relacionados às principais alterações realizadas no COTHA-2, ou seja, a simulação de um canal em regime de escoamento bifásico. O caso escolhido para testar a capacidade do programa COTHA-2tp foi o de um único canal aquecido, com escoamento ascendente, similar às medidas de um subcanal do REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 FIGURA 1 Entalpia da mistura ao longo do canal. 151 FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES As Figuras 2 e 3 apresentam as temperaturas do fluido ao longo do canal, comparando o COTHA-2tp com o COBRA-EN. Na Figura 2, os dois programas utilizam o modelo homogêneo (H). Na Figura 3, o COBRA-EN considera o modelo “drift flux” (DF) e o COTHA-2tp o homogêneo. Para o modelo homogêneo, os programas apresentam uma boa concordância, com diferenças da ordem de 0,2 %, como mostra a Figura 2. Neste caso, quando a entalpia da mistura atinge a entalpia do líquido saturado na pressão de operação, a temperatura do fluido alcança a temperatura de saturação e permanece constante. Pode-se observar que, para o modelo “drift flux” do COBRA-EN, a entalpia do fluido é corrigida pela fração de vazio e uma correspondente temperatura é obtida. Nesta situação, o modelo “drift flux” apresenta uma distribuição de temperatura mais suave até atingir a temperatura de saturação na pressão do sistema, como mostra a Figura 3. FIGURA 2 Temperatura do fluido ao longo do canal, utilizando o modelo homogêneo (3 equações) para o COBRA-EN. FIGURA 3 Temperatura do fluido ao longo do canal, utilizando o modelo “drift flux” (4 equações) para o COBRA-EN. 152 Os cálculos da qualidade de equilíbrio termodinâmico e fração de vazio, obtidos com o programa COTHA2tp, foram comparados com resultados do COBRAEN, utilizando as opções: modelo homogêneo (H); “drift flux” sem escorregamento entre as fases (DF); e “drift flux” com escorregamento (DF-esc.). A qualidade termodinâmica, apresentada na Figura 4, tem um desvio menor que 0,5 % entre os programas COTHA-2tp e COBRA-EN, utilizando o modelo homogêneo. Pela Equação (4), a qualidade é negativa quando o fluido é sub-resfriado, pois a entalpia é menor que a entalpia do líquido saturado, mas na Figura 4 este valor foi zerado nesta região. No caso do modelo “drift flux”, utilizado pelo programa COBRA-EN, a qualidade é corrigida, considerando um valor maior que zero na região de ebulição subresfriada e aproximando-se do cálculo para o modelo homogêneo na região acima do nível axial igual a 3,5 m. FIGURA 4 Qualidade de equilíbrio termodinâmico ao longo do canal. A Figura 5, a seguir, apresenta a comparação do cálculo de fração de vazio para os programas COTHA-2tp e COBRA-EN. Os resultados mostram uma boa concordância entre os programas, para o caso em que o COBRA-EN utiliza modelo homogêneo, com diferenças menores que 0,5 %. O comportamento foi similar ao ocorrido com a qualidade termodinâmica, exceto quando se utiliza a opção de modelo “drift flux” e escorregamento entre as fases. Nesta condição, este modelo apresenta valores mais baixos que o modelo homogêneo, acima do nível axial igual a 3,5 m. Para o modelo homogêneo, a fração de vazio é zero até a entalpia da mistura atingir a saturação REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 ENERGIA Embora sejam utilizadas as mesmas fórmulas para o cálculo do coeficiente, as propriedades da água apresentam valores diferentes para os dois modelos, homogêneo e “drift flux”, como, por exemplo, a massa específica mostrada na Figura 6. FIGURA 5 Fração de vazio ao longo do canal. Da mesma forma, a massa específica, que é dada em função da fração de vazio, apresenta diferenças na região acima do início de ebulição sub-resfriada para os modelos homogêneo e “drift flux”, como se pode observar na Figura 6. FIGURA 7 Coeficiente de transferência de calor ao longo do canal. O cálculo da diferença de pressão ao longo do canal está apresentado na Figura 8, para os programas COTHA-2tp e COBRA-EN. Os resultados mostram uma boa concordância entre os cálculos dos dois programas com desvios menores que 1 %. Os dados estão apresentados tomando por base a pressão de saída do canal, assim, a perda de pressão total ao longo do canal é de 100 kPa. FIGURA 6 Massa específica da mistura ao longo do canal. O coeficiente de transferência de calor apresenta uma boa concordância entre os programas COTHA-2tp e COBRA-EN, utilizando o modelo homogêneo, como mostra a Figura 7. Quando o coeficiente de transferência de calor, utilizando os modelos “drift flux” e homogêneo, é comparado, aparecem diferenças em seus cálculos na região central do canal. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 FIGURA 8 Diferença de pressão ao longo do canal. Observa-se na Figura 9, a seguir, os cálculos da perda de pressão ao longo do canal e cada uma das 3 parcelas que a constitui: fricção, aceleração e ação da gravidade 153 FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES no fluido. Nota-se que há um aumento acentuado da perda de pressão por fricção e aceleração quando o escoamento torna-se bifásico e uma diminuição da perda por gravidade, uma vez que a densidade do fluido diminui. FIGURA 11 Temperatura central do combustível ao longo do canal. COMENTÁRIOS FINAIS FIGURA 9 Perda de pressão total, por fricção, aceleração e ação da gravidade ao longo do canal. A Figura 10 apresenta o cálculo da razão entre o fluxo crítico de calor e o fluxo de calor local, RFCC, obtido com a correlação da EPRI. A diferença entre os resultados dos programas COTHA-2tp e COBRAEN são pequenas, da ordem de 0,1 %. FIGURA 10 Razão do fluxo crítico de calor e o fluxo local (RFCC) ao longo do canal. Por fim, é apresentada a temperatura central do combustível ao longo do canal na Figura 11, para os programas COTHA-2tp e COBRA-EN. Os resultados mostram uma boa concordância, com desvios da ordem de 0,2 % entre os programas. 154 O programa desenvolvido, COTHA-2tp, é adequado para se realizar análises termohidráulicas de núcleos de reatores do tipo PWR ou qualquer seção aquecida, representados por um único canal, fornecendo-se a área de escoamento, diâmetro hidráulico e perímetro aquecido. O elemento aquecedor pode ser uma vareta (geometria cilíndrica) ou uma placa (geometria plana) ou, ainda, não ser analisado e, neste caso, deve-se apenas fornecer a distribuição do fluxo de calor. Esta análise compreende um estudo em estado estacionário e geometria unidimensional. Os principais dados calculados são as distribuições de temperatura radial na vareta ou na direção da espessura da placa e axial no refrigerante, a velocidade do refrigerante e a perda de carga ao longo do canal. Além disto, o FCC pode ser obtido através de três correlações (EPRI, W3 e “1995 CHF Look-up Table”) e a RFCC é calculada pelos métodos de Substituição Direta e Balanço de Calor. O COTHA-2tp é a versão do programa COTHA-2 acrescida da análise de escoamento bifásico, líquidovapor, através do modelo homogêneo, mantendo-se a capacidade de cálculo da versão anterior. Os resultados obtidos com o programa COTHA2tp apresentam uma excelente concordância com aqueles calculados com o programa COBRA-EN para a simulação de escoamento bifásico em um canal típico de PWR. As diferenças entre as principais variáveis calculadas ficaram todas abaixo de 1 %. A principal causa das diferenças encontradas é atribuída ao cálculo das propriedades físicas do fluido, uma vez REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 ENERGIA que as hipóteses físicas consideradas e as correlações adotadas são as mesmas. Para este primeiro estudo de escoamento bifásico foi utilizado o modelo homogêneo. Este considera equilíbrio termodinâmico e velocidades iguais entre as fases gasosa e líquida, portanto, a validade do modelo depende de que ocorra um forte acoplamento entre as fases. Existem, ainda, várias correções que podem ser implementadas em algumas variáveis deste modelo, tais como: na fração de vazio, considerando ebulição sub-resfriada; no escorregamento (“slip”) entre as fases; e aumentando as opções das correlações utilizadas, como, por exemplo, o coeficiente de transferência de calor. Além disto, as duas fases são tratadas como um único componente, sendo uma média entre as fases gasosa e líquida. Estas médias podem ser ponderadas ou não. No caso afirmativo, o peso da ponderação pode ser a fração de vazio ou a qualidade termodinâmica, ou, ainda, uma correlação pode ser utilizada. Para o COTHA-2tp, neste primeiro estudo, apenas um tipo de média foi adotado, igual a do COBRA-EN, porém, deverão ser implementadas outras alternativas para que o usuário do programa tenha a opção de escolher. A faixa de validade do modelo homogêneo é restrita e não foi abordada neste trabalho. O próximo passo será a introdução das correções para a fração de vazio e as várias possibilidades de médias existentes, verificando quais as situações, em regime de escoamento bifásico, em que se pode utilizar o modelo homogêneo. Posteriormente, o modelo “drift flux” deverá ser implementado. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155 REFERÊNCIAS 1. BRAZ FILHO, F. A. et al., “Desenvolvimento de um Programa Computacional para Análise Termoidráulica de Núcleos de Reatores Nucleares do Tipo PWR”, Pesquisa Naval (Suplemento Especial da Revista Marítima Brasileira), ISSN 1414-8595, V. 17, pp. 93-97, Brasília, 2004. 2. WALLIS, G. B., “One-dimensional Two-phase Flow”, MacGraw-Hill Book Company, 1969. 3. SCIENTECH, Inc., “RELAP5-Mod3 Code Manual”, Idaho Nacional Laboratory, NUREG/CR-5535, June, 1999. 4. HIBIKI, T. & ISHII, M., “One-dimensional drift-flux model and constitutive equations for relative motion between phases in various two-phase flow regimes”, International Journal of Heat and Mass Transfer, V. 46, pp. 4935-4948, 2003. 5. CODDINGTON, P. & MACIAN, R. “A study of the performance of void fraction correlations used in the context of drift flux two-phase flow models”, Nuclear Engineering and Design, V. 215, pp. 199-216, 2002. 6. XU, B. & BANSAL, P. K., “Non-adiabatic capillary tube flow: a homogeneous model and process description”, Applied Thermal Engineering, V. 22 (16), pp. 1801-1819, 2002. 7. WHEELER C. L. et al., “COBRA-IV-I: An interim version of COBRA for thermal-hydraulic analysis of rod bundle nuclear fuel elements and cores”, BNWL-1962, Battelle-Northwest, Richland, WA, March 1976. 8. BASILE, D. et al., “COBRA-EN: an Upgraded Version of the COBRA3C/MIT Code for Thermal-Hydraulic Transient Analysis of Light Water Reactor Fuel Assemblies and Cores”, Report 1010/1 (September 1999). 9. HOLMAN, J. P., “Heat transfer”, MacGraw-Hill, São Paulo, SP, 1976. 10. GARLAND, WM. J., “Water and Steam Properties – V1.03”, Department of Engineering Physics, McMaster University, 1280 Main St. W., Hamilton, Ontario, Canada, l8S 4M1, 1991. 11. INTERNATIONAL Atomic Energy Agency, “Thermohydraulic Relationships for Advanced Water Cooled Reactors”, IAEA-TECDOC-1203, IAEA, Vienna, Austria, April, 2001. 12. HEJZLAR, P. & TODREAs N. E., “Consideration of Heat Flux Margin Prediction by Subcooled or Low Quality Critical Heat Flux Correlations”, Nuclear Engineering and Design, Vol. 163, pp. 215-223, 1996. 13. BRAZ FILHO, F. A.; CALDEIRA, A. D.; BORGES, E. M., “Critical Heat Flux Mar gin Evaluation”, 17 th International Congress of Mechanical Engineering–COBEM2003, São Paulo, Brazil, November, 2003. 155 156 TECNOLOGIA DA INFORMAÇÃO Identificação, desenvolvimento e manutenção do conhecimento num órgão da administração direta federal: estudo de caso em uma Organização da Marinha do Brasil Carlos Miguel Cordeiro dos Santos Engenheiro de Telecomunicações – CASNAV. E-mail: [email protected] Denise Mesquita de Barros Engenheira de Produção – CASNAV. E-mail: [email protected] Renato Porthun Engenheiro Elétrico – CASNAV. E-mail: [email protected] Victor Ramos Caruso Físico – CASNAV. E-mail: [email protected] Resumo Empresas bem sucedidas retêm algo muito mais valioso do que ativos físicos ou financeiros, caracterizado pela soma do conhecimento de todos os funcionários, e que proporciona uma vantagem competitiva em relação às demais: o seu “Capital Intelectual (CI)”. Entretanto, não se pode gerenciar o capital intelectual sem localizá-lo em pontos estrategicamente importantes e em que onde a gerência realmente seja importante (STEWARD, THOMAS A.,1998). Este trabalho apresenta como o Centro de Análises de Sistemas Navais (CASNAV), uma Organização Militar Prestadora de Serviços (OMPS), pertencente a estrutura da Marinha do Brasil (MB), estabelece um ambiente propício para a Identificação, o Desenvolvimento e a Manutenção do Conhecimento. Apresenta, também, os componentes da Gestão do Conhecimento da Organização, destacando as formas de incentivo ao pensamento criativo e inovador e as formas de atração ou retenção de talentos e competências. Palavras-chave Gestão do conhecimento. Proteção. Estratégia. Knowledge identification, development and maintenance in a direct administration of a federal institution: Case study in an Organization of the Brazilian Navy Abstract Successful companies retain something more valuable than material and physical assets, characterized by the sum of all employees knowledge, that provides a competitive advantage over others: it is it’s “Intellectual Capital (IC)”. Nevertheless, it is not possible to manage the intellectual capital without locating it in important strategic spots and where the management is important (STEWARD, THOMAS A.,1998). This paper presents how Centro de Análises de Sistemas Navais (CASNAV), a Service Provider Military Organization linked to the Brazilian Navy settles a propitious enviroment for the Identification, Development and Mantainance of Knowledge. Also presents the components of the Organization Knowledge Administration emphasizing the incentive structure towards the inovative and criative thought and the structure to attract and retain talents and abilities. Keywords Knowledge administration. Protection. Strategy. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162 INTRODUÇÃO O Centro de Análises de Sistemas Navais (CASNAV) utiliza, de modo formal e rotineiro, um conjunto de Sistemas Informatizados (SI), a maioria desenvolvidos pelo próprio Centro, tais como o Sistema de Infor mações Gerenciais (SIG), o Sistema de Acompanhamento de Projetos e Atividades (SAPA), o Sistema de Controle de Indicadores de Desempenho (SCID), o Sistema de Gerência de Documentos Eletrônicos da Marinha (SiGDEM), etc, com o propósito de atender às suas necessidades diárias de uso. A forte estrutura originária da interação coordenada entre esses sistemas gera, na medida em que os mesmos disponibilizam recursos de inserção e consulta de informações atualizadas, de forma ágil, consistente e pertinente, um ambiente favorável à identificação, ao desenvolvimento e à manutenção do conhecimento, elementos estes que se constituem como os requisitos fundamentais para o suporte e a evolução da Gestão do Conhecimento. No sentido de garantir a manutenção dessas condições e, por conseguinte, conferir à Organização a sua sustentabilidade no segmento empresarial em que atua, por meio do estímulo à cultura da melhoria contínua dos seus processos, sob a fiel observância dos valores organizacionais implícitos em sua Missão, Visão de Futuro e Planejamento Estratégico, o CASNAV adota e mantém um conjunto de ações e processos que consolidam a Gestão do Conhecimento, tratando este insumo como imprescindível para o seu desenvolvimento. Este artigo apresenta um conjunto de ações e processos, que contam com a participação ativa da Alta Administração, na medida em que cabe a esta o provimento dos recursos para implementação do mesmo. As Ações e Processos ora referidos tem origem fundamentada em dois Planos da Organização, quais sejam: Plano de Capacitação de Pessoal e Plano Plurianual de Capacitação de Pessoal, 157 CARLOS MIGUEL CORDEIRO DOS SANTOS, DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO sendo este último desdobrado em programas específicos, tais como o Programa de Conclaves (no Brasil e no exterior), o Programa de Intercâmbios, o Programa de Adestramentos, o Programa de Cursos, e outros que, integrados, bem definem a linha mestra para a identificação, o desenvolvimento, o cultivo e o compartilhamento do conhecimento no CASNAV. O CASNAV O CASNAV é um órgão público da administração direta, pertencente ao Sistema de Ciência e Tecnologia da Marinha, criado em 9 de junho de 1975, com a finalidade de desenvolver estudos para a configuração e a otimização de sistemas de interesse da Marinha, bem como controlar e promover a execução das atividades de pesquisa operacional em todos os seus escalões. Sua primeira e grande tarefa consistiu na avaliação operacional das Fragatas adquiridas na Inglaterra em 1970, primeiras plataformas de combate brasileiras a possuir sistemas de armas e de propulsão informatizados. A esse empreendimento outros se seguiriam, de importância igualmente significativa, tais como: – Informatização dos jogos de guerra; – Idealização de um modelo para o Sistema de Comando e Controle (SISMC²), presidido pelo Presidente da República, na qualidade de Comandante Supremo das Forças Armadas; – Projetos de criptografia; e – Projeto de um centro de comando e controle para o Comando do Teatro de Operações Marítimo (CCTOM). Em 1993, foi reconhecido como órgão da área de Ciência e Tecnologia da Administração Pública Federal Direta e, a partir de janeiro de 1997, passou a funcionar como uma Organização Militar Prestadora de Serviços em Ciência e Tecnologia (OMPS-C), integrando o Sistema de Ciência e Tecnologia da Marinha, desde junho desse mesmo ano. Atualmente, os projetos do CASNAV estão divididos nas seguintes áreas de atuação: – Desenvolvimento de Sistemas – Visa fornecer uma estrutura composta de processos, métodos e 158 ferramentas para a construção de software com alta qualidade. – Avaliação Operacional (AO) – Procura estimar a eficácia e a adequabilidade operacional de um sistema por meio de experimentos controlados, com o maior realismo possível. – Gestão Eletrônica de Documentos (GED) – Desenvolvimento de modelos de workflow e de segurança, nos quais são aplicados procedimentos mandatórios e/ou discricionários para a gestão eletrônica de documentos corporativos, com o propósito de garantir requisitos de segurança, tais como: confidencialidade, integridade, disponibilidade e autenticidade ; e – Segurança da Informação – Desenvolvimento de algoritmos e sistemas criptográficos, bem como elaboração de recomendações de Segurança para ambientes computacionais. Em 11 de outubro de 2001 o CASNAV celebrou, junto à Marinha do Brasil (MB), um Contrato de Autonomia de Gestão (CAG), visando à pactuação de metas. Este contrato tem por finalidade elevar a capacidade operacional do CASNAV, de modo a contribuir para o aprimoramento dos processos de aparelhamento e emprego de sistemas e meios de interesse da MB, em conformidade com a missão e com a visão de Futuro desta Organização. Por força de meta pactuada no CAG, o CASNAV vem concorrendo ao Prêmio Nacional de Gestão Pública do Governo Federal desde 2003, prêmio este que tem como objetivo, entre outros, estimular órgãos e entidades da administração pública brasileira a priorizar as ações voltadas para a melhoria da gestão e do desempenho institucional. Nos anos de 2004 e 2005, o CASNAV foi reconhecido na Faixa Bronze, na Categoria Administração Direta. (CASNAV – Relatório de Gestão do CASNAV 2004/2005 e Governo do Brasil – Instrumento para Avaliação da Gestão Pública – Ciclo 2005). O CASNAV detém, desde 1 de abril de 2003, o certificado de aprovação pelo Lloyd’s Register Quality Assurance, do seu Sistema de Gestão da Qualidade aplicável ao “Planejamento de Avaliação Operacional e Análise de seus Resultados para Prover Elementos de Informação que Auxiliem o Processo de Tomada REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162 TECNOLOGIA DA INFORMAÇÃO de Decisão, quanto ao Emprego ao Apoio Logístico e as Modificações de Meios e Sistemas Militares, e Desenvolvimento de Sistemas Criptográficos e Avaliação de Segurança da Informação para Sistemas Computacionais”, com relação ao atendimento das seguintes normas para Sistemas de Gestão da Qualidade : ISO 9001 : 2000, NBR ISO 9001 : 2000 e BS EN ISO 9001 : 2000 (ABNT, NBR ISO 9001 (2000) – Sistemas de Gestão da Qualidade – Requisitos). O reconhecimento na faixa bronze, por dois anos consecutivos, no Prêmio Nacional de Gestão Pública e a Certificação ISO 9001:2000, espelham a dedicação da tripulação do CASNAV na busca pela contínua melhoria da gestão, sendo mais um motivo de orgulho para todos os Casnavianos. IDENTIFICAÇÃO As necessidades de conhecimento são identificadas, em uma das instâncias, a partir das carências evidenciadas pelos Encarregados de Divisão e respectivos Gerentes de Projeto, em face dos requisitos para a consecução dos produtos e serviços pactuados nos Temos de Compromissos firmados com seus clientes. Outra forma de identificação de necessidade de conhecimento ocorre a partir da percepção de lacunas de conhecimento, mediante comparação com outras organizações, e da observância das tendências tecnológicas, com vista a manter a Organização capacitada para atender a toda demanda de serviço compatível com a sua Missão. As necessidades de conhecimento são supridas cumprindo-se as diretrizes estabelecidas nos Planos de Capacitação e Programas mencionados no item 1 – Introdução, tendo-se o foco voltado para a execução das atividades pertinentes aos macroprocessos da Organização, e considerando-se as competências institucionais estabelecidas no Regulamento. Os macroprocessos, cuja absorção de conhecimento é direcionada pelo Planejamento Estratégico, encontram-se listados na Tabela 1. TABELA 1 Macroprocessos Direcionados pelo PE DESENVOLVIMENTO E MANUTENÇÃO O desenvolvimento e a manutenção do conhecimento são realizados por meio de várias ações e iniciativas que emanam também da Alta Administração e do nível gerencial, e são alicerçadas em Sistemas de Informação, que dão suporte ao gerenciamento, ao armazenamento, informação e à comunicação, tais como o SIG (módulo ModPes), o SAPA e o SiGDEM. A utilização desses sistemas, de forma integrada, permite uma Gestão do Conhecimento consistente, corroborada por requisitos de proteção e compartilhamento. Ao utilizar os recursos disponibilizados pelos sistemas, especificamente os do módulo ModPes, a Organização terá um banco de dados que contém, de forma organizada e atualizada, as principais informações acerca do conhecimento, da capacitação e da área de atuação de todos os seus servidores. Quando do cumprimento dos Planos de Capacitação, ou na necessidade de utilização do servidor em determinada tarefa, o CASNAV recorre a consultas a esses sistemas, para verificar o nível de conhecimento do servidor, mediante a participação em cursos, congressos ou eventos similares, e se há necessidade de aquisição de novo conhecimento ou desenvolvimento do conhecimento já obtido. Além da utilização de Sistemas de Informação, a Gestão do Conhecimento complementa-se com as seguintes ações: REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162 159 CARLOS MIGUEL CORDEIRO DOS SANTOS, DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO – Cumprimento da Ordem Interna de Capacitação dos Militares e Servidores Civis; – Consulta às avaliações de desempenho; e – Cumprimento da Ordem Interna de Edição, Reprodução, Encadernação e Impressão de Documentos Técnicos (DT) – que estabelece no seu Anexo C um fluxo de tramitação de DT produzidos internamente, prevendo o arquivamento dos originais desses documentos, desde que classificados com grau de sigilo inferior a “secreto”, na Biblioteca da Organização. Além dos DT produzidos internamente, todas as outras fontes de conhecimento adquiridas, tais como periódicos, revistas técnicas, livros, etc, são também disponibilizados na biblioteca. Esse conjunto de Processos, alinhados com as diretrizes estabelecidas nos Planos e Programas de Capacitação, visa atingir os seguintes objetivos: – Prover condições para um ambiente de trabalho favorável ao compartilhamento de informações e de conhecimento, assim como à capacitação e ao desenvolvimento de inovações de processos finalísticos, de apoio e de gestão e à aplicação de novas tecnologias; – Incentivar a ampliação dos conhecimentos e das competências essenciais ao cumprimento da Missão; e – Gerar mecanismos seguros e atualizados, por meio de SI, para a armazenagem dos conhecimentos, observando-se os requisitos de preservação e acessibilidade. FORMAS DE INCENTIVO PENSAMENTO CRIATIVO AO A Tabela 2, a seguir, apresenta ações e iniciativas por parte do CASNAV, que contribuem para o incentivo ao pensamento criativo de seus colaboradores. A participação em Eventos Técnicos, no Brasil e no exterior, propicia a identificação, o desenvolvimento e a atualização do conhecimento, traduzindo-se assim em mais uma forma de incentivo. O incentivo ao pensamento criativo e inovador é verificado pela ênfase concedida à publicação de artigos por parte dos servidores do CASNAV. O Planejamento Estratégico da Organização, na meta: “Aumentar a participação, por parte de servidores do 160 TABELA 2 Exemplos de Formas de Incentivo ao Pensamento Criativo Ação / Iniciativa Participação em Eventos Técnicos (simpósios, congressos, seminários, etc). Incentivo à Publicação de artigos em simpósios, periódicos e livros. Envio de servidores para cursos de especialização, mestrado e doutorado. Propósito Identificação, desenvolvimento, atualização do conhecimento, e o domínio de tecnologias de ponta. Ênfase ao pensamento criativo e inovador. Incentivo ao crescimento intelectual. CASNAV, em palestras e apresentação de cursos, nas áreas de: Análise de Sistemas, PO, Engenharia de Sistemas, Segurança da Informação, Criptologia, Matemática e Estatística”, prevê que os artigos publicados e aprovados sejam apresentados em conclaves, nacionais e internacionais. O CASNAV arca com o ônus da inscrição para publicação dos artigos, quando aprovados. Outra ação é o incentivo para publicação em periódicos ou livros, nacionais e internacionais. A diretriz decorrente do Plano Plurianual de Capacitação de Pessoal que, alinhada às metas de capacitação estabelecidas no Planejamento Estratégico, muito contribui para definir um ambiente propício ao desenvolvimento do conhecimento, é o incentivo ao envio de servidores para cursos de mestrado e doutorado, no Brasil e no exterior, seja por vias formais, mediante Portaria, ou por iniciativa e interesse do próprio servidor, quando então a Organização o indica e encaminha às instituições de ensino, liberandoo para a freqüentar as aulas e para o cumprimento dos demais compromissos com a instituição na qual está freqüentando o curso, sem a exigência de compensação das horas dedicadas ao mesmo. FORMAS DE ATRAÇÃO OU RETENÇÃO DE TALENTOS/COMPETÊNCIAS A Tabela 3, a seguir, apresenta ações e iniciativas por parte do CASNAV, que contribuem para a retenção de talentos e competências de seus colaboradores: REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162 TECNOLOGIA DA INFORMAÇÃO TABELA 3 Ações para Atrair ou Reter Talentos e Competências Ação / Iniciativa Propósito Incentivar o pensamento Plano de Carreira de Ciência criativo e inovador, assim e Tecnologia com como atrair e reter talentos e gratificação de Titulação. competências. Incentivo à Publicação de artigos em Eventos Ênfase ao pensamento Técnicos, Periódicos e criativo e inovador. Livros. Envio de servidores para Incentivo ao crescimento cursos de especialização, intelectual. mestrado e doutorado. Manter a credibilidade do Incentivo ao desafio CASNAV junto à intelectual. comunidade científica. Fornecer segurança para Estabilidade. desenvolvimento profissional. O incentivo ao pensamento criativo e inovador, assim como a atração e a retenção dos talentos e competências, mediante as facilidades propiciadas pela Organização, fica reforçado pelo que estabelece o Plano de Carreira de Ciência e Tecnologia, que rege as carreiras dos servidores civis, o qual prevê gratificações incidentes sobre os vencimentos dos servidores com cursos de especialização, mestrado e doutorado. O incentivo à publicação de artigos em Eventos Técnicos, no Brasil e no exterior, assim como em periódicos e livros, caracterizam-se como forma de atração ou retenção de talentos, visto que, ao ter um trabalho publicado e apresentado em um evento da magnitude de um conclave, os servidores têm a oportunidade de ter o seu nome divulgado em meio à comunidade científica e tecnológica, tornando-se motivo de satisfação própria, incentivando a produção de mais trabalhos e, por conseguinte, criando um maior vínculo com a Organização. Outros aspectos que se constituem em fatores de atração são o desafio intelectual de manter a credibilidade do CASNAV junto à comunidade científica, a estabilidade do emprego e a disponibilização de oportunidades de atualização tecnológica pelo CASNAV aos seus colaboradores. A atração e a retenção de talentos e competências, associadas ao incentivo ao pensativo criativo e inovador se refletem no amadurecimento da Organização, fruto REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162 do comprometimento dos servidores civis com os requisitos de desempenho, como pode ser comprovado pela tendência de aumento das médias das avaliações de desempenho, demonstrada pelo Indicador de Avaliação de Desempenho (IAD), tendência esta que pode ser observada na Figura 1. FIGURA 1 Evolução IAD CONCLUSÃO O Conhecimento torna-se um ativo quando se cria uma ordem útil a partir da capacidade intelectual geral, ou seja, quando assume uma forma coerente, quando capturado, de modo que possa ser descrito, compartilhado e explorado, e quando pode ser aplicado a algo que não poderia ser realizado (STEWARD, THOMAS A.,1998). Dentro deste conceito, o Conhecimento é um bem que se funde no próprio produto do CASNAV. É pré-requisito da Organização que seus colaboradores, desde o seu ingresso, sejam submetidos a processos contínuos de qualificação, atualização e treinamento, visando à melhoria dos produtos e serviços, conforme evidenciado no Plano Plurianual de Capacitação de Pessoal. Esses processos de capacitação são parte integrante da Gestão do Conhecimento da Organização. Além disso, o CASNAV utiliza, de modo formal e rotineiro, um conjunto de Sistemas de Informação, a maioria desenvolvidos internamente, de modo a atender às suas necessidades diárias de uso. 161 CARLOS MIGUEL CORDEIRO DOS SANTOS, DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO Alguns exemplos da utilização prática da Gestão do Conhecimento para melhoria dos produtos e serviços são: Na Tabela 4, constam exemplos de inovações / melhorias introduzidas recentemente, a partir das práticas de GC. – Relatório de Lições Aprendidas (RLA); TABELA 4 Exemplos de Inovações ou Melhorias. – Elaboração de um Plano de Trabalho para Gestão do Conhecimento (PTGC); – Relatórios Anuais de Adestramento (RAA), Relatórios de Metas de Capacitação (RMC) e Painéis de Indicadores (PI); 2003 – Aprimoramento do módulo MODPES do SIG. O RLA faz parte da Fase de Encerramento do Projeto, e tem a finalidade de garantir que experiências obtidas durante a execução do Projeto sejam documentadas para futuras consultas. Este relatório vem sendo aprimorado, para que cada vez mais as experiências bem sucedidas sejam aproveitadas e as mal sucedidas possam ser evitadas. O CASNAV, reconhecendo a importância da Gestão do Conhecimento, está elaborando um PTGC, que irá tratar das metas estabelecidas para esta Gestão. A partir de consulta aos RAA, aos RMC e aos PI, que apresentam os dados referentes ao desenvolvimento intelectual, bem como aos mapas de apropriação de mão-de-obra, é possível estabelecer um comparativo entre dados anteriores e atuais, referentes a capacitação. O Módulo ModPes, do SIG, propicia, além da organização e da atualização das informações pessoais e funcionais, o pronto acesso às mesmas. Assim, no caso de um Gerente de Projeto ou Encarregado de Divisão necessitar de infor mações sobre um funcionário, para melhor alocá-los nas atividades, poderá obtê-las de modo ágil e atualizado. 162 Principais Inovações e Melhorias Implementadas Período 2004 2004 / 2005 Inclusão da biblioteca do CASNAV à rede "Bibliotecas Integradas da Marinha" (BIM). Revisão do Regimento Interno. Implementação de medidas para a motivação de equipes. Edição de Ordem Interna, abordando aspectos da absorção do conhecimento. Criação da meta, no Planejamento Estratégico, com base no "Capability Maturity Model Integrated" (CMMI). Utilização do pregão eletrônico nas licitações. Ampliação da abrangência do Sistema de Informações Gerenciais – SIG. Integração do SIG com a Divisão de RH REFERÊNCIAS ABNT, NBR ISO 9001 (2000) – Sistemas de Gestão da Qualidade – Requisitos. Rio de Janeiro. CASNAV – Relatório de Gestão do CASNAV 2004/2005. Rio de Janeiro. GOVERNO DO BRASIL – Instrumento para Avaliação da Gestão Pública – Ciclo 2005. Brasília. PAGLIUSO, ANTONIO TADEU (2005) – Benchmarking : Relatório do Comitê Temático. Qualitymark Ed. 2005. Rio de Janeiro. STEWARD, THOMAS A.(1998), Capital Intelectual – A nova vantagem competitiva das empresas – Editora Campus, 12ª edição. Rio de Janeiro. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162 TECNOLOGIA DA INFORMAÇÃO Critérios para seleção e coleta de informações comparativas em um órgão da administração direta federal: estudo de caso em uma Organização da Marinha do Brasil Denise Mesquita de Barros Engenheira de Produção – CASNAV [email protected] Renato Porthun Engenheiro Eletricista – CASNAV [email protected] Victor Ramos Caruso Físico – CASNAV [email protected] Carlos Miguel Cordeiro dos Santos Engenheiro de Telecomunicações – CASNAV [email protected] Resumo O conceito de desempenho tem como pressuposto a comparação dos resultados obtidos, interna e externamente, com referenciais pertinentes. Assim, uma organização só poderá precisar sua posição competitiva, caso possua informações de resultados e de melhores práticas de outras organizações que lhe sirvam como impulsionadoras na busca da excelência. Além disso, uma organização que visa o alto desempenho precisa definir que tipos de informações comparativas necessita, considerando seus objetivos estratégicos, todas as partes interessadas e os principais processos, dentre outros aspectos. Este trabalho apresenta como são selecionadas e coletadas as informações comparativas, informações estas oriundas de referenciais selecionados de forma lógica, não casual, no Centro de Análises de Sistemas Navais, uma Organização Militar Prestadora de Serviços, pertencente à estrutura da Marinha do Brasil. Apresenta, também, como são definidas, considerando-se o Planejamento Estratégico da Organização; como são priorizadas; os processos relacionados; e qual a sistemática utilizada para definição de critérios de seleção. Palavras-chave Gestão de informações comparativas. Seleção. Coleta. Prioridades. Criterion for selection and collection of comparative information in a direct administration of a federal institution: case study in an Organization of the Brazilian Navy Abstract The concept of performance assumes the comparison of the results obtained, internally and externally, with valid references. In this way, an organization can only precise it’s competitive position if the information of results and the best procedures of other organization, that act as propelers in the search of excellence, are available. Besides that, an organization that aims a high performance needs to determine the sort of comparative information necessary, considering it’s strategic goals, all parts interested and the main process, among other aspects. This paper presents how the comparative information are selected and collected, information originated in references selected in a logical, non casual, structure at Centro de Análises de Sistemas Navais(CASNAV) a Service Provider Military Organization linked to the Brazilian Navy. Also presents, considering the Organization Strategic Planning, how related process are defined, are given priority and what is the systematics utilized to define selection criteria. Keywords Comparative information management. Selection. Collection. Priorities. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169 163 DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO, CARLOS MIGUEL CORDEIRO DOS SANTOS INTRODUÇÃO O Centro de Análises de Sistemas Navais (CASNAV), visando à melhoria contínua dos seus processos por meio da agregação de diferenciais competitivos e, por conseguinte, propiciar a ampliação do reconhecimento da excelência da Organização pela comunidade científica e tecnológica, busca e seleciona informações que possam ser utilizadas para fins de comparação. A referenciação é uma poderosa ferramenta para, a partir do aprendizado de práticas reconhecidas, propor soluções inéditas e criativas. A participação em associações de classe, grupos de “benchmarking” (PAGLIUSO, ANTONIO TADEU – Benchmarking: Relatório do Comitê Temático), fundações, comitês de prêmios de excelência, visitas a empresas, são alguns exemplos de fontes de informações comparativas. – Idealização de um modelo para o Sistema de Comando e Controle (SISMC²), presidido pelo Presidente da República, na qualidade de Comandante Supremo das Forças Armadas; – Projetos de criptografia; e – Projeto de um centro de comando e controle para o Comando do Teatro de Operações Marítimo (CCTOM). Em 1993, foi reconhecido como órgão da área de Ciência e Tecnologia da Administração Pública Federal Direta e, a partir de janeiro de 1997, passou a funcionar como uma Organização Militar Prestadora de Serviços em Ciência e Tecnologia (OMPS-C), integrando o Sistema de Ciência e Tecnologia da Marinha, desde junho desse mesmo ano. Além disso, o CASNAV utiliza mecanismos que garantem que as informações obtidas no processo de referenciação sejam efetivamente utilizadas para melhorar o entendimento dos processos internos, estabelecer metas que o impulsionem rumo à excelência e promover melhorias que gerem impacto positivo no desempenho organizacional. Atualmente, os projetos do CASNAV estão divididos nas seguintes áreas de atuação: Este artigo apresenta como é realizada a Gestão das Informações Comparativas no CASNAV, dando maior ênfase a como se realiza a seleção e a coleta dessas Informações. – Avaliação Operacional (AO) – Procura estimar a eficácia e a adequabilidade operacional de um sistema por meio de experimentos controlados, com o maior realismo possível. O CASNAV O CASNAV é um órgão público da administração direta, pertencente ao Sistema de Ciência e Tecnologia da Marinha, criado em 9 de junho de 1975, com a finalidade de desenvolver estudos para a configuração e a otimização de sistemas de interesse da Marinha, bem como controlar e promover a execução das atividades de pesquisa operacional em todos os seus escalões. Sua primeira e grande tarefa consistiu na avaliação operacional das Fragatas adquiridas na Inglaterra em 1970, primeiras plataformas de combate brasileiras a possuir sistemas de armas e de propulsão informatizados. A esse empreendimento outros se seguiriam, de importância igualmente significativa, tais como: – Informatização dos jogos de guerra; 164 – Desenvolvimento de Sistemas – Visa fornecer uma estrutura composta de processos, métodos e ferramentas para a construção de software com alta qualidade. – Gestão Eletrônica de Documentos (GED) – Desenvolvimento de modelos de workflow e de segurança, nos quais são aplicados procedimentos mandatórios e/ou discricionários para a gestão eletrônica de documentos corporativos, com o propósito de garantir requisitos de segurança, tais como: confidencialidade, integridade, disponibilidade e autenticidade ; e – Segurança da Informação – Desenvolvimento de algoritmos e sistemas criptográficos, bem como elaboração de recomendações de Segurança para ambientes computacionais. Em 11 de outubro de 2001, o CASNAV celebrou, junto à Marinha do Brasil (MB), um Contrato de Autonomia de Gestão (CAG), visando à pactuação de metas. Este contrato tem por finalidade elevar a capacidade operacional do CASNAV, de modo a contribuir para o aprimoramento dos processos de aparelhamento e emprego de sistemas e meios de REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169 TECNOLOGIA DA INFORMAÇÃO interesse da MB, em conformidade com a missão e com a visão de Futuro desta Organização. Por força de meta pactuada no CAG, o CASNAV vem concorrendo ao Prêmio Nacional de Gestão Pública do Governo Federal desde 2003, prêmio este que tem como objetivo, entre outros, estimular órgãos e entidades da administração pública brasileira a priorizar as ações voltadas para a melhoria da gestão e do desempenho institucional. Nos anos de 2004 e 2005, o CASNAV foi reconhecido na Faixa Bronze, na Categoria Administração Direta. (CASNAV – Relatório de Gestão do CASNAV 2004/2005 e Governo do Brasil – Instrumento para Avaliação da Gestão Pública – Ciclo 2005). O CASNAV detém, desde 1 de abril de 2003, o certificado de aprovação pelo Lloyd’s Register Quality Assurance, do seu Sistema de Gestão da Qualidade aplicável ao “Planejamento de Avaliação Operacional e Análise de seus Resultados, para Prover Elementos de Informação que Auxiliem o Processo de Tomada de Decisão, quanto ao Emprego ao Apoio Logístico e as Modificações de Meios e Sistemas Militares, e Desenvolvimento de Sistemas Criptográficos e Avaliação de Segurança da Informação para Sistemas Computacionais”, com relação ao atendimento das seguintes normas para Sistemas de Gestão da Qualidade : ISO 9001 : 2000 , NBR ISO 9001 : 2000 e BS EN ISO 9001 : 2000 (ABNT, NBR ISO 9001 (2000) – Sistemas de Gestão da Qualidade – Requisitos). O reconhecimento na faixa bronze, por dois anos consecutivos, no Prêmio Nacional de Gestão Pública e a Certificação ISO 9001:2000, espelham a dedicação da tripulação do CASNAV na busca pela contínua melhoria da gestão, sendo mais um motivo de orgulho para todos os Casnavianos. DEFINIÇÃO / PRIORIDADES / CRITÉRIOS As Informações Comparativas (IC) são definidas obser vando-se a aderência das mesmas ao Planejamento Estratégico (PE), considerando-se a pertinência específica aos Objetivos, Metas e Indicadores que nele constam, e também às diretrizes institucionais. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169 As IC são priorizadas com base nas avaliações dos Indicadores de Desempenho de cada uma das metas, procedidas pelos Gerentes das Metas. Os resultados são apresentados em reuniões do Conselho Consultivo, quando então são evidenciadas e priorizadas as necessidades e carências da Organização para a consecução dos seus objetivos estratégicos. No cumprimento dessa metodologia, destacam-se os seguintes critérios de seleção das IC: – Capacidade de agregação de diferencial competitivo perante o mercado; – Utilidade das IC para outros órgãos da MB; – Validade de aplicação das IC para aferição do desempenho dos macroprocessos; e – Viabilidade da coleta dos dados, mediante os requisitos de disponibilidade, continuidade, consistência, atualização e confiabilidade. PROCESSOS RELACIONADOS A Tabela 1, a seguir, apresenta a correlação entre os processos do CASNAV, a natureza da Informação e os objetivos e metas estipulados para a Organização. SISTEMÁTICA / PRÁTICAS / AÇÕES A sistemática para definição de critérios para seleção de IC baseia-se na identificação de Organizações de referência, que desenvolvam atividades similares ou pertinentes àquelas desenvolvidas no CASNAV. Essa identificação é pautada na correlação entre as informações essenciais e as respectivas metas da Organização, as quais estão estabelecidas no seu PE. Esta sistemática leva em conta as necessidades de informação da Organização, evidenciadas pelos responsáveis de cada um dos Processos, Objetivos e Metas a elas relacionados, e pelos respectivos gerentes dos projetos. Cabe aos Conselhos Consultivo e Técnico, com base na sistemática adotada, selecionar os critérios, de forma que, a partir dos mesmos, seja possível atribuir às IC de interesse para o CASNAV os seguintes requisitos: Consistência; Atualização; Coerência (pertinência) com os processos; Credibilidade; Adequação quanto à utilização; Abrangência; Validade no tempo; Grau de idoneidade da fonte; e Veracidade do conteúdo. 165 DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO, CARLOS MIGUEL CORDEIRO DOS SANTOS TABELA 1 Principais Informações Comparativas Utilizadas As principais práticas de obtenção das IC estão sintetizadas na Tabela 2, a seguir. A captação e análise sistemática de informações referentes a gestão de outras organizações com perfil similar ao do CASNAV, especialmente as Organizações Militares Prestadoras de Serviço (OMPS), por meio da realização de “benchmarking”, traz oportunidades para melhorias e inovações que, quando analisadas e consideradas pertinentes, são incorporadas aos Processos do CASNAV. O CASNAV é referência, no País, no que tange à AO, que abrange as atividades de Teste e Avaliação de 166 Sistemas e PO, usando a TI como ferramenta de apoio, tendo obtido, como já mencionado, a Certificação ISO 9001:2000 no processo de AO (desde 1 de abril de 2003). As IC são obtidas a partir das auditorias externas para certificação ISO, cujos auditores trazem práticas de sucesso de outras organizações. Outras IC são obtidas, no país, por meio da participação em Eventos Técnicos, dentre os quais podem ser citados o Simpósio de Pesquisa Operacional e Logística da Marinha (SPOLM), o Simpósio de Tecnologia da Informação da Marinha (INFORMAR), o Encontro Nacional de Engenharia REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169 TECNOLOGIA DA INFORMAÇÃO TABELA 2 Principais Práticas de Obtenção de Informações Comparativas de Produção (ENEGEP) e o Simpósio Brasileiro de Pesquisa Operacional (SBPO). Nesses eventos, são apresentados os trabalhos desenvolvidos no CASNAV e obtidas informações sobre o que se desenvolve em outras instituições, tais como simulação, análise de experimentos e utilização de técnicas alternativas. Nessas oportunidades, é possível avaliar, comparativamente, o nível em que se encontram os trabalhos desenvolvidos pelo CASNAV. Há eventos no exterior também nesta área, aos quais o CASNAV tem enviado, com freqüência, representantes. Podem ser mencionados os eventos organizados por: International Federation of Operational Research Societies (IFORS), International Test and Evaluation REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169 Association (ITEA), The Institute for Operations Research and the Management Sciences (INFORMS) e Military Applications Society (MAS). O uso do processo de “benchmarking”, após visitas a outras instituições, inclusive de outros países, e a comparação com outras OMPS-C da MB (Instituto de Pesquisa da Marinha – IPqM e Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM) e com os Órgãos que fazem parte do Plano de Carreira de Ciência e Tecnologia do Governo Federal (Instituto Nacional de Metrologia – INMETRO, Comissão Nacional de Energia Nuclear – CNEN, Instituto Nacional de Propriedade Intelectual – INPI, etc), é 167 DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO, CARLOS MIGUEL CORDEIRO DOS SANTOS importante fonte de conhecimento e obtenção de Informações Comparativas. TABELA 3 Principais Ações de Melhorias Implantadas Outros modos de obtenção de IC ocorrem por meio de consultas a “sites” da Internet e pela leitura de Publicações Técnicas, que contenham assuntos de interesse para a Organização . A partir de 2001, foi implementada uma Pesquisa de Clima Organizacional (PCO), realizada inicialmente com instrumentos internos, tendo-se repetido em 2002. Em 2003, com o intuito de atribuir mais credibilidade e transparência ao processo, foi contratado um consultor externo para desenvolver nova PCO, sendo repetida nos anos de 2004 e 2005 pelo mesmo consultor. As informações econômico-financeiras são obtidas a partir do Relatório Econômico-Financeiro elaborado pela Diretoria de Finanças da Marinha (DFM), encaminhado ao Conselho Financeiro e Administrativo da Marinha (COFAMAR), com distribuição a todas as OMPS. O referido Relatório tem o propósito de fornecer, aos diversos setores da Administração Naval, elementos sobre o desempenho econômico-financeiro das OMPS-I/C/H, em cada trimestre. As informações utilizadas na elaboração das análises são obtidas a partir dos registros efetuados no Sistema Integrado de Administração Financeira (SIAFI) e no Sistema de Acompanhamento do Plano Diretor (SIPLAD). Objetivando a melhoria contínua dos seus processos operacionais, por meio da captação de IC que propiciem a agregação de valores que elevem o desempenho desses processos, o CASNAV adotou, dentre outras, as seguintes ações (Tabela 3). Por meio da participação nos eventos organizados pela SOBRAPO, é possível obter informações correlatas à área de Pesquisa Operacional (PO), que são extremamente úteis para o aprimoramento e a atualização das atividades inerentes ao Processo de Avaliação Operacional (PAO). A candidatura ao Programa Nacional de Gestão Pública propicia, a partir das oportunidades de melhoria indicadas pela banca avaliadora, perceber as carências da Organização em termos comparativos e como está situada entre as demais instituições do Governo Federal. Além disto, as informações obtidas por meio de consulta a Relatórios de Gestão de diversas organizações, especialmente das que possuem perfil de atuação análogo ao do CASNAV e das 168 reconhecidas pelo referido programa nas faixas ouro e prata, permitem verificar como o CASNAV se apresenta em relação ao mercado. A adesão ao PBQP Software, no qual o CASNAV tem dois projetos em andamento, gera informações sobre o que as empresas brasileiras estão realizando na busca por melhorias na produção de software, e as tendências do setor. Ainda na busca pela melhoria do conhecimento dos processos e do desempenho da Organização no setor de informática a partir de IC, o CASNAV firmou convênio com a COPPETEC, fundação vinculada à COPPE/UFRJ, que lhe tem permitido participar de uma série de treinamentos na área de engenharia de software, bem como aderir a um software gratuito para desenvolvimento de sistemas, fornecido pela própria COPPE. Além dessa iniciativa, o CASNAV tem procurado se adequar aos níveis 6 e 7 do MPBSBR, como um passo intermediário para o “Capability Maturity Model Integrated” (CMMI), e adota como referência a Norma ISO 12.207, que define os processos de software. A filiação à Associação Brasileira de Instituições de Pesquisa Tecnológica (ABIPTI) propicia uma rica fonte de Informações Comparativas, por meio do acesso à base de dados dessa associação, que congrega, dentre outras, empresas com perfis institucionais análogos ao do CASNAV. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169 TECNOLOGIA DA INFORMAÇÃO CONCLUSÃO Gerenciar um processo significa planejar, desenvolver, executar e controlar as suas atividades, e avaliar, analisar e melhorar seus resultados, proporcionando um melhor desempenho da Organização. Os dados obtidos a partir das Informações Comparativas se transformam em informações que assessoram a tomada de decisão e alimentam a produção de conhecimentos. Dentro deste enfoque, a Gestão dessas informações se torna imprescindível para avaliar como a Organização se encontra em relação ao mercado, permite identificar as melhores práticas em uso e propicia a implementação das mudanças necessárias para melhoria contínua. Por meio dessa Gestão, o CASNAV vislumbrou melhorias e inovações que, quando analisadas e consideradas pertinentes, foram incorporadas aos processos existentes, tais como: – Emprego de novas técnicas aplicáveis à otimização de Sistemas de Simulação, oriundas de observações/ contatos em simpósios e congressos, o que proporcionou uma maior redução de custos e maior agilidade e diversidade em termos de variabilidade dos experimentos realizados no processo de Avaliação Operacional, aliada ao aumento da confiabilidade na análise dos mesmos. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169 – Utilização dos resultados obtidos na Pesquisa de Clima Organizacional, permitindo a comparação do nível motivacional dos colaboradores do CASNAV com a média das empresas brasileiras e, consequentemente, fazendo com que a Organização adotasse medidas urgentes para mobilização e motivação de seu pessoal. – Empenho, por parte do CASNAV, em promover um fórum para reunir todas as OMPS, quando poderão ser comparados os resultados obtidos e, consequentemente, adotadas as melhores práticas de Gestão. REFERÊNCIAS ABNT, NBR ISO 9001 (2000) – Sistemas de Gestão da Qualidade – Requisitos. Rio de Janeiro. CASNAV – Relatório de Gestão do CASNAV 2004/2005. Rio de Janeiro. GOVERNO DO BRASIL – Instrumento para Avaliação da Gestão Pública – Ciclo 2005. Brasília. PAGLIUSO, ANTONIO TADEU (2005) – Benchmarking : Relatório do Comitê Temático. Qualitymark Ed. 2005. Rio de Janeiro. 169 DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA Redes neurais recorrentes aplicadas na detecção multiusuário em sistemas de comunicação sem fio DS-CDMA Deolinda Fontes Cardoso Centro de Análises de Sistemas Navais – CASNAV – MB Praça Barão de Ladário s/ nº, Ilha das Cobras, Edifício 8, 3º andar Centro E-mail: [email protected] Tiago Travassos Vieira Vinhoza Centro de Estudos em Telecomunicações da PUC-Rio – CETUC Rua Marques de São Vicente nº 225 – Gávea E-mail: [email protected] Resumo CDMA (Code Division Multiple Access) é uma das tecnologias mais promissoras para aumentar a capacidade de sistemas de comunicação sem fio. Nessa tecnologia, todos os usuários podem transmitir ao mesmo tempo e cada usuário utiliza todo o espectro de freqüência disponível para transmissão. Entretanto, o maior obstáculo ao desempenho é a interferência de múltiplo acesso (IMA), que é o resultado da impossibilidade de manter a ortogonalidade entre os sinais dos usuários na recepção. A detecção multiusuário (MUD) é a estratégia mais efetiva para minimizar os efeitos adversos da IMA. Infelizmente, o detector multiusuário ótimo é considerado NP-Hard e diversas estratégias sub-ótimas vêm sendo pesquisadas. Neste trabalho, apresentamos um estudo comparativo da aplicação de estruturas não lineares baseadas em redes neurais recorrentes (RNR), com decisão realimentada (DF) aplicadas no problema de MUD. Os resultados apresentados permitem considerar que o emprego de estruturas não lineares com decisão realimentada, pode combater de forma mais efetiva os efeitos adversos da interferência entre símbolos (IES) e da interferência de múltiplo acesso (IMA). Palavras-chave Redes Neurais Recorrentes; Detecção multiusuário subótimo; Interferência de Múltiplo Acesso; Máxima Verossimilhança. Recurrent Neural Networks Applyed in Multiuser Detection of Wireless Communication Systems DS-CDMA Abstract Code Division Multiple Access is a promising wireless communication technology. In CDMA systems all users’ signals overlap in time and frequency and cause mutual interference. This article describes the multiuser detector based in Recurrent Neural Networks (RNN) with Decision Feedback in order to minimize the effects of multiple access interference in wireless communication systems. Keywords Recurrent Neural Networks; Multi-user Detection Sub-optimum; Multiple Access Interference; Maximum Likelihood. 170 INTRODUÇÃO A demanda por serviços de comunicação sem fio vem crescendo rapidamente e, num futuro próximo, é esperado um crescimento ainda maior, devido ao desenvolvimento de novos serviços de transmissão multimídia e vários sistemas baseados em localização global. Para possibilitar esse desenvolvimento, é imperativo que os sistemas futuros, denominados 3G (terceira geração) e 4G (quarta geração), suportem altas taxas de transmissão de dados (da ordem de Gigabits). Isso requer bandas de freqüência consideráveis, o que nem sempre é possível, por tratar-se de um recurso bastante caro e escasso. Em decorrência, é primordial que esses sistemas sejam capazes de prover alta eficiência espectral. A tecnologia CDMA é um dos métodos mais eficientes para multiplexar usuários em sistemas de comunicações, uma vez que estes são separados por códigos distintos, ao invés de bandas de freqüências ortogonais, como em FDMA (Frequency Division Multiple Access) ou por slots ortogonais, como em TDMA (Time Division Multiple Access). A separação por códigos permite que todos os usuários possam transmitir ao mesmo tempo e cada usuário utiliza todo o espectro de freqüência disponível para a transmissão. Em adição, apresenta propriedades bastante atrativas, com bom desempenho em canais com múltiplos percursos. Entretanto, o maior obstáculo, que limita a capacidade do sistema CDMA, é a Interferência de Múltiplo Acesso (IMA). Esta fonte de interferência é resultante da impossibilidade de manter a ortogonalidade entre os sinais dos usuários na recepção. Além da IMA, outras fontes de interferência prejudicam o desempenho desse sistema, tais como: a Interferência de Banda Estreita; a Interferência entre Símbolos (IES) e o ruído inerente ao receptor. Uma das formas de minimizar os efeitos adversos desses diferentes tipos de interferência, presentes no canal de transmissão rádio móvel, é realizar o processamento dos sinais recebidos dos vários usuários REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 TECNOLOGIA DA INFORMAÇÃO de forma conjunta, usando as informações contidas nestes sinais para melhorar a detecção de cada usuário individualmente. O receptor multiusuário ótimo ML (Maximum Likelihood) [1] é capaz de minimizar a probabilidade de erro do sinal recebido, porém, sua complexidade cresce exponencialmente com o número de usuários no sistema. Por esta razão, um grande esforço de pesquisa está sendo realizado, no sentido de desenvolver receptores sub-ótimos, que realizam a supressão de interferência, com baixos requisitos de complexidade. Redes neurais têm sido utilizadas no projeto de receptores para sistemas de comunicações, devido à sua capacidade de classificação, generalização e mapeamento não linear. Em adição, receptores neurais apresentam resultados de desempenho superior, na separação dos sinais de diferentes usuários, em presença de canais de comunicações seletivos em freqüência e ruído. Neste trabalho, apresentamos um estudo comparativo de detectores multiusuário baseados em redes neurais recorrentes, que incorporam a técnica de decisão realimentada (decision feedback – DF). Os resultados apresentados permitem considerar que o emprego de redes neurais com decisão realimentada, pode combater de forma mais efetiva os efeitos adversos da IES e da IMA [2,3], por usar a realimentação de decisões passadas para realizar decisões no instante corrente. Este trabalho está organizado da seguinte forma: a Seção 2 apresenta o modelo do sistema DS-CDMA; a Seção 3 descreve o problema da detecção multiusuário ótima; a Secção 4 aborda os receptores de detecção multiusuário baseados em redes neurais recorrentes; a Seção 5 descreve os resultados de desempenho; e a Seção 6 apresenta as conclusões. O MODELO DO SISTEMA DS-CDMA O modelo matemático, ilustrado na Figura 1, a seguir, considera o canal reverso de um sistema DS-CDMA com modulação BPSK e com K usuários ativos. Cada usuário transmite um bloco de (2M + 1) símbolos bk(i), onde i ∈ [-M,...,M ] representando o i-ésimo intervalo de tempo. Os blocos são separados por um período de guarda Tg para assegurar que não exista interferência entre blocos adjacentes. Blocos de diferentes usuários são transmitidos sincronamente, porém, no nível de símbolo o sistema é, em geral, REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 assíncrono. O máximo atraso relativo ηk do k-ésimo usuário é limitado pela duração de símbolo T. O sinal em banda básica transmitido pelo k-ésimo usuário ativo é dado por: pk (t) = Ak ∑∞i= -∞ bk(i) sk(t-iT-ηk) bk (i) ∈ {+/- 1 +j0} com j2 = -1, bk(i) denota o i-ésimo símbolo do usuário k; A k é a amplitude; e s k(t) representa a forma de onda de espalhamento expressa por: sk(t) = ∑Ni= 1 ak(i) φ (t-iTc) com ak(i) ∈ { +/-1/√N} e φ(t) é a forma de onda do chip, Tc é a duração do chip e N é o ganho de processamento dado por: N=T/Tc. Cada usuário transmite em um canal multipercurso com resposta impusional hk(t). Na entrada do receptor, o sinal composto de todos os usuários é corrompido por ruído aditivo Gaussiano branco, formando o sinal recebido r(t), que é demodulado de forma coerente. A seguir, o sinal é filtrado por um filtro casado ao pulso de chip e amostrado à taxa de chip, produzindo o vetor recebido dado por: r(i) = ∑Kk= 1 Ak Hk(i) Bk(i)Sk + n(i) onde n(i) é o vetor de ruído complexo gaussiano; Bk(i) é a matriz diagonal de símbolos do k-ésimo usuário; a matriz Sk contém versões deslocadas da seqüência de assinatura do usuário k; e Hk (i) é a matriz que implementa convolução do sinal do usuário k com o canal correspondente. Para o receptor convencional multiusuário linear one shot, onde é observado e detectado apenas um símbolo a cada instante, o vetor de observações u(i) é dado por: u(i) = SH r(i) = [ u1 u2 ...uk ]T, onde S é a matriz que representa o banco de filtros casados às assinaturas dos usuários. A seqüência de vetores na saída do filtro casado a cada usuário é dada por: u(i) = [u1(i) u2(i) … uK(i) ]T O vetor u(i) apresenta estatísticas suficientes para a detecção multiusuário ótima. Por simplicidade, a amostragem no tempo é considerada síncrona com k = iT + ηk onde k = 1,...K. 171 DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA A saída do filtro casado ao canal pode ser reescrita na forma: uk(i)=bk(i).Rkk(0) + ∑M j= -M bk(j).Rkk(i-j) + ∑Km=1 ∑M b (j).Rkm(i-j) + nk (t)|t=iT+ηk j=-M m onde k ∈ [1,...,K] e i ∈ [ -M ,..., M]; ∑ M j=-M b k (j).R kk (i-j) representa a parcela de Interferência entre símbolos (IES); ∑Km=1 ∑M j=-M bm(j).Rkm(i-j) representa a parcela de Interferência de múltiplo acesso (IMA); e nk (t)|t=iT+ηk é a componente do vetor do ruído presente no canal rádio móvel. Os parâmetros R km (i) e R kk (i) são compostos, respectivamente, por elementos da matriz de correlação cruzada e por elementos da matriz de autocorrelação do canal de propagação. Assim, para o k-ésimo, a parcela da IES depende da função de autocorrelação da forma de onda da assinatura do sinal sk(t) e da resposta de impulso do canal hk(t); e a parcela da IMA no k-ésimo usuário (devido ao mésimo usuário) depende da função de correlação cruzada das formas de onda da assinatura sk(t) e sm(t) de cada usuário e da resposta de impulso do canal hk(t). Os símbolos detectados são dados por: b’(i) = sgn (Real[u(i)]), onde b’(i) é o vetor contendo os símbolos detectados do i-ésimo símbolo dos K usuários, sgn(.) é a função sinal e Real(.) é o operador que retira a parte real do argumento. DETECÇÃO MULTIUSUÁRIO ÓTIMA (MLSE) No receptor, a demodulação de determinado usuário requer o processamento do sinal, de forma a suprimir os diferentes efeitos adversos do canal de comunicações e da interferência de múltiplo acesso (IMA). A MUD é a estratégia mais promissora para aumentar a capacidade e o desempenho de sistemas CDMA, através da minimização dos efeitos adversos da IMA. Nessa estratégia, desde que os códigos, as amplitudes dos usuários e os parâmetros do canal sejam conhecidos pelo receptor, a informação dos vários usuários é usada de forma conjunta, com o intuito de melhorar o processamento do sinal de cada usuário. Em [1], o autor apresentou o detector multiusuário ótimo que minimiza a probabilidade do erro através da MLSE (Maximum Likelihood Sequence Estimation). O MUD ótimo para canais multipercurso [4] é aquele que fornece a seqüência de estimativa de máxima verossimilhança para a seqüência de bits transmitida: b’ = arg max p(u | b) com b ∈ {-1,1}K A seqüência de vetores de símbolos estimada b’(i) que maximiza a função de log likelihood, dada na expressão acima, é a seqüência que minimiza a distância entre a seqüência do vetor de saída do filtro casado ao canal e todas as possíveis seqüências de vetores de símbolos de informação. O máximo absoluto da função de log likelihood pode ser obtida através do algoritmo de Viterbi [4], que apresenta complexidade O(2 K), crescente exponencialmente com o número K de FIGURA 1 Modelo do sistema DS-CDMA BPSK com K usuários 172 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 TECNOLOGIA DA INFORMAÇÃO usuários ativos no sistema. Por essa razão, a detecção multiusuário ótima é um problema NP-Hard, sendo intratável computacionalmente mesmo para um baixo número de usuários. RECEPTORES COM REDES NEURAIS RECORRENTES As estruturas não lineares são capazes de lidar de modo eficaz com as incertezas encontradas no sinal recebido; sejam as provocadas pela hostilidade do canal de comunicações, pela interferência de outros usuários ou pelo ruído do receptor [6]. Geralmente, apresentam resultados superiores na separação dos sinais de diferentes usuários, principalmente, em presença de canais de comunicações seletivos em freqüência e ruído. Em adição, oferecem a possibilidade de uma implementação adaptativa. As redes neurais recorrentes possuem uma ou mais conexões realimentadas, onde cada neurônio artificial é conectado aos outros neurônios e são consideradas adequadas aos problemas de equalização e de detecção multiusuário. Isto porque tratam, de forma eficaz, as funções de transferência de canais de comunicações, que apresentam nulos espectrais profundos, o que acarreta regiões de decisões ótimas com mínima probabilidade de erro. Receptores com decisão realimentada e filtros lineares De um modo geral, a literatura [13] indica que a utilização de uma seção de decisão realimentada (DF) em um receptor multiusuário (MUD-DF) aumenta a sua capacidade de cancelar a IMA e a IES. A estrutura realimentada minimiza os efeitos da IMA e da IES, de forma mais efetiva, ao tentar cancelar a contribuição dos sinais interferentes nos instantes de decisão. Além disso, os sistemas baseados em realimentação podem reduzir o efeito de aumento do ruído, que geralmente ocorre em receptores MMSE (Minimum Mean Squared Error), permitindo o filtro linear direto ter maior flexibilidade no combate à IMA e à IES. Na Figura 2, é ilustrado um receptor DF do tipo one shot (em um instante de tempo apenas um símbolo de cada usuário é observado e detectado). Para o receptor que incorpora a seção realimentada, os símbolos detectados são: bk’(i) = sgn(Real[wkH(i) u(i) – fkH(i) b’(i)]) onde wk(i) = [wk,1(i)...wk,K(i)]T e fk(i) = [fk,1(i)....fk,K(i)]T são, respectivamente, os vetores de coeficientes complexos da seção direta e realimentada do receptor, para o usuário k e o i-ésimo símbolo em um sistema com K usuários. O vetor b’(i) contém as decisões do receptor. Ao adotar decisão realimentada do tipo paralela, a matriz F(i) = [f1(i) ... fK(i)] de dimensão KxK tem os elementos da diagonal principal iguais a zero, para evitar o cancelamento dos símbolos desejados. A solução MMSE adaptativa (receptor ilustrado na Figura 2) é obtida através do algoritmo LMS (Least Mean Square) [11]. Considerando a função de custo dada por: FIGURA 2 Receptor one shot com decisão realimentada paralela. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 173 DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA FCUSTO (wk(i), fk(i)) = E[|bk(i) – (wkH (i) u(i) – fkH (i)b’(i))|2] Utilizando esta modelagem, o vetor de estados da RNR para o usuário k é descrito por: Calculando as expressões do gradiente em relação à wk (i) e fk (i) e usando os valores instantâneos dessas expressões em uma técnica de gradiente descendente, obtém-se as recursões: xk(i+1) = [ σ(w1H ξ(i)) σ(w2H ξ(i)) ... σ(wqH ξ(i)) ]T wk(i+1) = wk(i) + µw errok*(i) u (i) fk(i+1) = fk(i) + µf errok*(i) b’ (i) Onde o sinal de erro é dado por errok (i) = bk(i) – (wkH(i) u(i) – fkH(i) b’(i)), o asterisco denota o conjugado complexo, bk(i) é o sinal ou símbolo desejado para o k-ésimo usuário receptor. No modo de treinamento, é usada uma seqüência de símbolos conhecidos e, no modo de operação, as decisões tomadas são utilizadas como seqüência de treinamento para adaptação dos parâmetros. Os parâmetros µ w e µ f são, respectivamente, os passos do algoritmo para as seções direta e realimentada. Receptores neurais com decisão realimentada Para o treinamento do equalizador neural, é empregado o algoritmo Real Time Recurrent Learning (RTRL). Neste algoritmo de aprendizado, o ajuste dos pesos sinápticos é feito em tempo real, isto é, enquanto a rede processa o sinal. Este algoritmo é derivado a partir da descrição da rede por equações de estado. onde se supõe que todos os neurônios tem a mesma função de ativação σ (x) = tanh (x); O vetor wj é o vetor de coeficientes (pesos sinápticos) complexos do neurônio j na rede recorrente, e o vetor ξ(i) é composto pelo vetor de estados passados x(i1) e pelo vetor de observações u(i). A estimativa dada pela estrutura neural recorrente é dada por: y(i) = Cx(i) = C σ(Wax(i-1) + Wbu(i)) onde C é a matriz que seleciona e combina os estados da rede para formar a estimativa y(i) e Wa e Wb são, respectivamente, matrizes com os pesos sinápticos provenientes da malha de realimentação e das entradas. Assim, com xk(i) = σ(W1H(i) ξ(i)), onde Wk é a matriz com os vetores de pesos dos neurônios da rede neural para do usuário k, obtém-se os valores na saída do receptor neural com decisão realimentada, dados por: b’k(i) = sgn (Real [Cxk(i) – fkH (i) b’(i)]) onde o vetor fk(i) contém os parâmetros da seção realimentada, que realiza o cancelamento da interferência do detector multiusuário, e C é uma matriz que seleciona o número de saídas da rede neural utilizadas para formar a estimativa y(i). A Figura 3 FIGURA 3 Diagrama do receptor multiusuário adaptativo de decisão realimentada com filtro FIR e rede neural recorrente na seção direta. 174 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 TECNOLOGIA DA INFORMAÇÃO ilustra o diagrama de blocos do MUD neural com decisão realimentada one shot (uma saída b’k(i) por vetor de observação u(i)). Receptor neural adaptativo Para ajustar os parâmetros do receptor multiusuário neural com decisão realimentada, pode ser adotada a técnica adaptativa baseada no gradiente estocástico. A diferença principal desse algoritmo e do algoritmo RTRL é que aquele considera a seção realimentada do receptor, e o RTRL foi desenvolvido para ser utilizado em uma estrutura exclusivamente neural e recorrente. A função de ativação da rede neural, sendo a tangente hiperbólica, facilita o processo de adaptação, devido a ser uma função diferenciável e pelo fato de apresentar uma expressão analítica para a sua derivada, dada pela secante hiperbólica ao quadrado (d tanh(x)/ dx = sech2(x)). A função de custo adotada no algoritmo adaptativo de gradiente estocástico é dada por: FCUSTO (wk(i), fk(i)) = E[|bk(i) – (wkH (i) u(i) – fkH (i)b’(i))|2] = | ∈k(i) | = |errok(i)|2 utiliza o critério MMSE, a partir dos valores de erro instantâneos da expressão dada por: errok(i)=bk(i) – (Cxk(i) – fkH (i) b’(i)) Após calcular os termos do gradiente estocástico em relação a Wk e fk e, usando a regra da cadeia em xk(i) = σ(W1H(i) ξ(i)), obtém-se a expressão de recursão, que descreve a dinâmica do processo de aprendizagem do receptor neural: Λk,j(i+1) = k(i) (Wk1:K(i) Λk,j(i) + Uk,j(i)) onde k(i) é uma matriz diagonal com elementos correspondentes à derivada da função de ativação σ (x) = tanh (x), com respeito ao seu argumento em wk,jH (i) ξk(i); e Uk,j(i) é a matriz que possui todas as linhas com elementos iguais a zero, exceto a j-ésima linha, que é dada pelo vetor ξ(t). A regra de ajuste dos coeficientes da seção realimentada do MUD neural DF é dada por: RESULTADOS EXPERIMENTAIS Neste trabalho, são investigados os desempenhos dos receptores multiusuário, que empregam redes neurais recorrentes adaptativas diferentes dos propostos em [5] e que utilizam estruturas de cancelamento de interferência através de decisão realimentada (Decision Feedback – DF). Uma versão do detector RNR adaptativo sem cancelamento de interferência foi publicada em [9], e receptores adaptativos RNR com DF foram descritos em [10]. Detectores multiusuário adaptativos, com e sem cancelamento de interferência, que empregam o critério MMSE, são examinados com o algoritmo LMS (Least Mean Square) [11] e comparados aos receptores neurais, que operam com o algoritmo baseado no gradiente estocástico denominado RTRL (Real Time Recurrent Learning), proposto por Williams e Zipser [12]. Nossa investigação, baseada em [2], avaliou os desempenhos de receptores multiusuário lineares e neurais com e sem decisão realimentada, comparando seus desempenhos com o detector convencional de um único usuário (SUD) e com o limiar de desempenho de um único usuário (SU Bound), que corresponde ao SUD em um sistema com apenas um usuário e sem IMA. A medida de comparação é a taxa de erro de bits (Bit Error Rate – BER); quanto menor for essa medida mais eficiente é o sistema. Para examinar os receptores, é considerado um sistema DS-CDMA BPSK (Binary Phase Shift Keying) com seqüências de espalhamento de Gold com N=15 e largura de banda de 3.84 Mhz, típica de sistema DSCDMA faixa larga e com taxa de transmissão de 256 kbps. A freqüência de portadora é de 1900 MHz. Supõe-se que os canais são estatisticamente independentes e identicamente distribuídos. O desempenho e a convergência, em termos de BER, dos receptores multiusuário, são avaliados em canal seletivo em freqüência com desvanecimento de Rayleigh. Os resultados de desempenho ilustrados referem-se à BER média dos K usuários em questão. Além dessas considerações, os canais são normalizados, apresentando potência unitária no receptor. fk (i+1) = fk (i) + µf errok* (i) b’ (i) Sendo que, nesta equação o sinal de erro é função da rede neural recorrente. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 175 DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA A Figura 4 ilustra as curvas de BER versus Eb/N0. A Figura 5 ilustra as curvas BER versus número de usuários. É possível observar que os resultados alcançados pelo receptor MUD DF Neural RTRL são superiores ao MUD neural RTRL sem DF, ao MUD DF LMS, ao MUD linear LMS e ao SUD. FIGURA 4 Desempenho em BER versus Eb/N0 dos receptores multiusuário em um canal seletivo em freqüência com desvanecimento de Rayleigh. CONCLUSÕES Este trabalho abordou o problema da detecção multiusuário, em sistemas de comunicações sem fio, que utilizam a técnica de DS-CDMA. Foram avaliados os desempenhos de receptores multiusuário adaptativos, que utilizam técnicas de inteligência artificial adotando redes neurais recorrentes (RNR). Os receptores multiusuário RNR foram comparados aos detectores multiusuário com filtros FIR lineares. Os receptores MUD lineares utilizaram o critério de desempenho MMSE (Minimum Mean Squared Error) através do algoritmo LMS (Least Mean Square) e os receptores neurais utilizaram o algoritmo RTRL (Real Time Recurrent Learning). Em adição, foram avaliados os desempenhos desses receptores, incorporando estruturas de decisão alimentada DF (Decision Feedback). Uma das principais vantagens de esquemas com decisão realimentada paralela, é proporcionar um desempenho uniforme com relação aos diferentes usuários. Por outro lado, a desvantagem principal é a susceptibilidade à propagação de erros. A solução MMSE adaptativa para o receptor MUD-DF pode ser obtida através do algoritmo LMS. Os maiores problemas deste algoritmo são: apresentar uma taxa de convergência muito lenta e a existência de dispersão significativa entre o maior e menor autovalor da matriz de autocorrelação do vetor de observações. O MUD neural RTRL com Decisão Realimentada (DF) consegue melhor desempenho que o MUD neural RTRL sem Decisão Realimentada, superando, mais ainda, os MUD lineares LMS com e sem Decisão Realimentada e o detector de único usuário (SUD). O que comprova que a estratégia de decisão realimentada DF é eficaz para cancelar os efeitos adversos da IMA e IES e aumentar a capacidade do sistema. A estratégia DF consiste em tentar minimizar a contribuição dos sinais interferentes nos instantes da decisão. FIGURA 5 Desempenho em BER versus número de usuários dos receptores multiusuário em um canal seletivo em freqüência com desvanecimento de Rayleigh e Eb/N0 = 8 dB. 176 Os receptores neurais apresentam maior complexidade, em comparação com os detectores convencionais baseados em filtros lineares com resposta impulsional finita FIR (Finite Impulse Response). Isto porque empregam funções não lineares para formar regiões de decisão na detecção dos símbolos transmitidos, ao contrário dos detectores convencionais que utilizam funções lineares. Entretanto, o emprego de estruturas neurais é atrativo para situações onde o fator de espalhamento é baixo (número de elementos REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 TECNOLOGIA DA INFORMAÇÃO de processamento é reduzido) e o número de usuário operando com altas taxas de transmissão é pequeno. Sob este aspecto, o compromisso complexidade computacional versus desempenho oferecido pelos detectores neurais é bastante promissor. REFERÊNCIAS Com base nessas considerações, é viável a aplicação de estruturas neurais com decisão realimentada em sistemas de telefonia celular DS-CDMA. Nesses sistemas, os usuários que operam com altas taxas de transmissão podem ser acomodados, reduzindo-se o ganho de processamento N e adotando um fator de espalhamento menor [7,8]. Em tais situações, apesar da interferência de múltiplo acesso (IMA) ser relativamente baixa, em virtude do número reduzido de usuários, a interferência entre símbolos (IES) pode causar uma significativa degradação no desempenho do sistema. Nesse contexto, RNR utilizadas no projeto de receptores MUD são bastante promissoras e apresentam desempenhos superiores às estruturas lineares [2,5,9,10]. [3] HONIG, M.L. e POOR H. V. Adaptive Interference Suppression em Wireless Communications: Signal Processing Perspectives, PrenticeHall, cap. 2, 64-128, 1998. Os resultados desta investigação permitem considerar que receptores MUD com estratégias de DF e RNR permitem alcançar desempenho superior ao dos receptores MUD lineares. Isto é devido às estruturas neurais permitirem dimensionar o tamanho e os coeficientes da rede à partir dos parâmetros característicos do sistema de comunicações. Além de permitirem reduzir o ganho de processamento para atender às transmissões com altas taxas de dados. Sugestões para trabalhos futuros: analisar a convergência dos algoritmos para receptores neurais no caso linear; propor novos algoritmos com baixa complexidade que empregam seleção de dados e passos variáveis para estruturas neurais. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177 [1] VERDU, S. Multiuser Detection, Cambridge, 1998. [2] DE LAMARE, RODRIGO C. Estruturas e Algoritmos para Detecção Multiusuário e Supressão da Interferência em Sistemas DS-CDMA. Tese de Doutorado em Engenharia Elétrica. Pontifícia Universidade Católica do Rio de Janeiro. Dezembro de 2004. [4] HESS J., REINHARDT M., LINDNER J., BOSSERT M., DONDER A., BECK M., Performance of Optimum and Suboptimum Multiuser Detection in DS-CDMA Mobile Radio Systems. IEEE Second Symposium on Communications and Vehicular Technology, SVCT’94, Bélgica, 7481, 1994. [5] TEICH W. G., SEIDL M. e NOLD M. Multiuser Detection for DSCDMA Communication Systems based on Recurrent Neural Networks Structures, IEEE ISSSTA’98, Setembro, 863-867, 1998. [6] HAYKIN, S. Neural Networks: A Comprehensive Foundation, 2nd Ed, Prentice-Hall, 99 [7] PHYSICAL Layer Standard for CDMA2000 Spread Spectrum Systems (Release C), Telecommunications Industry Association, TIA/EIA/ IS-20002.2-C, Maio 2002. [8] PHYSICAL Layer aspects of UTRA High Speed Downlink Packet Access (Release 4) 3rd Generation Partnership Project, 3GPP TS 25.2, Series, Technical Specification, 2001. [9] DE LAMARE R.C. e SAMPAIO NETO R. Analysis of Adaptive Multiuser Receivers for DS-CDMA using Recurrent Neural Networks. SBrT/ International Telecommunications Symposium, 2002. [10] DE LAMARE R.C. e SAMPAIO NETO R. Adaptive Decision Feedback Multiuser Detectors with Recurrent Neural Networks for DS-CDMA in Fading Channels. Proceedings IEEE International Conference in Telecommunications (ICT), Fortaleza, Agosto, 2004. [11] HAYKIN S. Adaptive Filter Theory, 4rd Edition, Prentice-Hall, 2002. [12] WILLIAMS R.J. e ZIPSER A. Learning Algorithm for continually running fully Recurrent Neural Networks. Neural Computation, vol. 1 pp. 270-280. 1989. [13] ABDULRAHMAN M., SHEIKH A. U.K e FALCONER D. D. Decision Feedback Equalization for CDMA. Indoor Wireless Communications. IEEE Journal on Selected Areas in Communications, vol 12, no. 4, 1994. 177 CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO Gerenciamento pró-ativo distribuído com garantias fim-a-fim de QoS e tolerância a falhas em serviços multimídia Capitão-de-Corveta (EN)Marcio Elkind Mestre em Engenharia Elétrica, concentração em Redes IPqM – Instituto de Pesquisas da Marinha E-mail: [email protected] Jorge Lopes de Souza Leão Docteur Ingénieur – Univ. Paul Sabatier de Toulouse GTA – Grupo de Teleinformática e Automação Universidade Federal do Rio de Janeiro E-mail: [email protected] Resumo Apresentamos a concepção de um sistema de gerência distribuída e pró-ativa para a distribuição de vídeo de tempo real, que controla a admissão de novos fluxos e a QoS fim-afim de aplicações, segundo uma política preemptiva de prioridades. Ocorrendo falhas na distribuição, a gerência procura degradar graciosamente a qualidade dos fluxos de vídeo sendo distribuídos. Os sistemas de distribuição de vídeo e de gerência são construídos sobre uma infraestrutura que utiliza componentes disponíveis comercialmente. Palavras-chave Gerência distribuída. Tolerância a falhas. QoS. Distribuição de vídeo. Prioridades entre fluxos. Proactive and Distributed Management with end-to-end QoS Garantees and Fault Tolerance in Multimedia Services Abstract We present the conception of a system that manages, in a distributed and proactive way, the admission of new streams and the end-to-end QoS of applications, based in a preemptive priority scheme. As failures happen in the distribution system, the management tries to gracefully degrade the quality of the videos being distributed. The distribution and management systems are supported by an infrastructure based on commercially available components. Keywords Distributed management. Fault tolerance. QoS. Video distribution. Stream priorities. 178 INTRODUÇÃO A gerência pró-ativa de redes objetiva detectar preventivamente degradações de desempenho de aplicações, bem como prover suporte à realização de futuras ações. A distribuição de vídeo em tempo real (e.g. radar) em navios da Marinha do Brasil criou a necessidade de uma gerência automática, que controle a QoS fim-afim e admita novos fluxos de forma preemptiva. Franceschi, em [3], utiliza um monitor inteligente que extrai informações via SNMP de uma rede local. A linguagem PROLOG é usada para representar uma base de conhecimentos e detectar anomalias de QoS. O trabalho em [16] descreve um agente que coleta informações e utiliza redes Bayesianas para inferir próativamente a degradação da QoS. No trabalho em [24] é proposto o uso do roteamento OSPF com QoS (Q-OSPF), do MPLS, para encaminhar os pacotes e de um algoritmo com base em QoS para fazer o controle de admissão. A tolerância a falhas é obtida por uso de diversidade de caminhos. Em [2], sobre uma infra-estrutura de gerenciamento distribuído, propõe-se o uso de Inspetores de Desempenho enviados, por um Gerente de Domínio, a elementos a serem monitorados (roteadores, estações). Estes Inspetores, que obtêm informações através de SNMP, de RTCP e do sistema operacional, usam um algoritmo baseado em limiares para decidir quando enviar um alarme de quebra de QoS ao seu Gerente de Domínio. Já em [1], estendendo a infra-estrutura usada em [2], é proposta a instalação de inspetores nas bordas e no interior de um domínio MPLS para, monitorando a tendência de QoS, decidir pelo rerroteamento de fluxos dentro deste domínio. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 TECNOLOGIA DA INFORMAÇÃO Entretanto, não é do nosso conhecimento uma proposta de gerência pró-ativa que trate de forma integrada a QoS fim-a-fim, o controle de admissão preemptivo de fluxos de vídeo e reaja às ações tomadas pelos mecanismos de tolerância a falhas existentes na infra-estrutura . O restante deste artigo está estruturado da seguinte forma. A seção 3 descreve o sistema proposto. Na seção 4 é especificada uma infra-estrutura, comercialmente viável, para suportar os sistemas de distribuição de vídeo e a Gerência. A concepção do sistema proposto é descrita na seção 5. A seção 6 detalha a implementação do Inspetor de Desempenho e resultados obtidos. Na seção 7, concluímos e propomos uma continuidade para o trabalho. DESCRIÇÃO DO SISTEMA O Sistema Confiável de Distribuição de Vídeo (SCDV), disposto na Figura 1, tem como objetivo a distribuição de fluxos de vídeo e de dados segundo o paradigma cliente-servidor. Ele procura manter a QoS dos fluxos de vídeo, atendendo a uma política de prioridades definida para os fluxos e para os clientes. Sob uma perspectiva macroscópica, o SCDV constituise de duas partes: – uma infra-estrutura, que constitui o núcleo físico do sistema, tendo seus próprios mecanismos que oferecem diversos serviços e permitem receber controles externos; e – uma entidade distribuída que gerencia todo o SCDV, colhendo informações e atuando pró – ativamente na infra-estrutura, sempre com uma visão panorâmica do que ocorre nos seus diversos componentes. Requisitos do sistema proposto 1. O sistema diferencia 3 tipos de fluxos segundo prioridades: – Mensagens Imediatas (MI); – Vídeos de Tempo Real (VTR); e – Dados Comuns (DC). Obs: Além destes, existe o controle da infra-estrutura de suporte ao SCDV, que também deve ter alguma REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 FIGURA 1 Descrição do SCDV garantia de vazão para que o sistema atenda os seus requisitos. 2. O sistema diferencia os clientes segundo prioridades. Os clientes são executados em nome de usuários comuns ou privilegiados; 3. O sistema é capaz de tratar a QoS dos fluxos de MI e VTR; 4. O sistema possui um controle de admissão que garante a QoS dos fluxos (MI e VTR), levando em conta as prioridades (dos fluxos e dos clientes); 5. O sistema possui um serviço de gerência pró-ativa da QoS. Esta gerência leva em conta o conjunto dos fluxos e dos clientes, e suas prioridades, e a conectividade do sistema (ou de seções do mesmo); 6. O sistema deve ser tolerante à falhas quanto à distribuição dos vídeos, envidando todos os esforços para garantir a entrega aos clientes com QoS. Esta tolerância refere-se a: – perdas de enlaces: defeito no cabeamento, placas de rede, tanto nos clientes quanto nos servidores, e defeito nas portas dos comutadores; e – falha de um comutador: não acumulativo, pois em caso de quebra de um, as ligações com o outro comutador devem estar operacionais. 7. O sistema não é tolerante à falhas quanto à geração dos vídeos, pois cada vídeo é produzido, em tempo real, a partir um único sensor; e 179 CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO 8. O sistema é tolerante à falhas de clientes, pois estes operam consoles multifuncionais, bastando o usuário iniciar um novo cliente em outro console. INFRAESTRUTURA DE SUPORTE AO SCDV A infra-estrutura deve ser constituída de componentes, protocolos e padrões disponíveis atualmente. Sua arquitetura está baseada nos níveis 2 e 3 do modelo OSI da ISO, provendo: roteamento unicast e multicast, reorganização de enlaces, resiliência dos comutadores, tratamento da QoS e de perdas de pacotes. – PIM-DM e SSM (Protocol Independent Multicast/ Dense Mode e Source Specific Multicast); – DVMRP (Distance Vector Multicast Routing Protocol); e – MOSPF (Multicast Open Shortest Path First). O protocolo MOSPF, além de não ser comercialmente implementado, tem como desvantagem o alto custo computacional [4]. Roteamento Unicast no SCDV Nos protocolos baseados no estado dos enlaces, cada nó somente propaga informações quando há uma alteração nos seus enlaces (LSAs), e esta é difundida para todo domínio, de forma que cada nó tem rapidamente a nova configuração do sistema. Esta característica é essencial para a tolerância a falhas no SCDV. Uma escolha natural seria uma extensão do OSPF para roteamento com QoS, o Q-OSFP (RFC 2676). Contudo, apesar do Q-OSPF ser um padrão [5] e existirem trabalhos relacionados [6], nossa pesquisa nos principais fabricantes de equipamentos (3Com, Cisco, Juniper, NortelNetworks), revelou que esse protocolo ainda não é implementado. Em conseqüência, nossa escolha será o OSPF, por ser comercialmente difundido, por facilitar o balanceamento de carga e por possuir boa convergência [9]. Roteamento Multicast no SCDV O encaminhamento multicast é mais eficiente que a difusão broadcast, por permitir a recepção dos dados apenas por membros de um grupo previamente definido, ao invés de inundar os dados para toda a rede. É, também, mais eficiente que várias comunicações unicast (ponto a ponto) simultâneas, porque faz melhor uso do meio de comunicação, evitando redundância de informação trafegada [8]. Em [8] é apresentado o gráfico da Figura 2, segundo o qual, os protocolos mais apropriados, conforme a métrica de dimensão da rede, são: 180 FIGURA 2 Comparação dos Protocolos de Roteamento Multicast Em [10] é feita uma comparação entre os protocolos DVMRP, PIM-DM, PIMSM e o PIM-SSM. As métricas usadas foram a capacidade de reconfiguração da árvore de distribuição, a taxa de utilização dos enlaces da rede e o número e a carga de pacotes de controle de roteamento. Os autores concluíram que o PIM-SSM é o protocolo mais indicado para ser usado no serviço de distribuição vídeo. Escolhemos o protocolo PIM-SSM porque, além das métricas mencionadas, é implementado nos roteadores atuais, é adequado a redes de médio porte e é compatível com o protocolo de roteamento unicast escolhido (OSPF). Reorganização de enlaces partidos Caso ocorram falhas em algum enlace ou comutador, o SCDV deverá ser capaz de rapidamente ajustar-se à nova configuração. As situações que podem ocorrer são: – rompimento de ligações entre comutadores: neste caso, o protocolo Spanning Tree (STP) irá habilitar uma ligação que fora previamente bloqueada; e REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 TECNOLOGIA DA INFORMAÇÃO – rompimento de uma das ligações entre um nó e um comutador: este caso pode ser visualizado na Figura 1, onde nó está ligado por enlaces principal (P) e alternativo (A) com os dois comutadores. O sistema operacional detectará que uma das interfaces de rede está inoperante, avisando à aplicação, que poderá redirecionar o fluxo para a outra interface de rede. Resiliência dos comutadores O VRRP (Virtual Router Redundancy Protocol) [11] atua na camada 3 e trata os roteadores redundantes como um grupo, onde um mestre é eleito. Se o mestre falhar, o VRRP elege um novo mestre para grupo. Em [23] são avaliadas situações de falha, indicando que o tempo mínimo de reconfiguração da rede varia de 4 a 12 segundos, com o HSRP (proprietário Cisco). A tecnologia XRN, da 3Com, habilita cada comutador membro a rotear pacotes localmente. Em [12] são medidos os tempos de recuperação quando um dos enlaces ligados ao conjunto XRN é partido e quando a alimentação de um dos comutadores XRN é desconectada. No primeiro teste, em 822 milisegundos, todo o tráfego foi redirecionado ao enlace restante, enquanto que, no segundo, em apenas 438 milisegundos o comutador restante assumiu todo o tráfego. A tecnologia XRN, da 3Com [14], é mais rápida, portanto será escolhida. Então, para o SCDV, a distribuição de classes será conforme a Tabela 1. TABELA 1 Classes no SCDV (ordenadas por prioridades decrescentes) Classe DiffServ Mensagens Imediatas (MI) EF Cliente Prioritário AF4_alta Vídeos alta prioridade (VAP) AF3_alta Vídeos média prioridade (VMP) AF2_alta Vídeos baixa prioridade (VBP) AF1_alta Dados comuns (DC) BE Classe do SCDV DSCP 101110 100110 011110 010010 001010 000000 Perda de pacotes no SCDV A rede pode descartar pacotes de forma randômica, principalmente por congestão nos comutadores. Além disto, o retardo nos pacotes pode ser grande o suficiente que os inviabilize na aplicação. Algumas técnicas têm sido propostas para contornar o problema e discutidas em [22]. A proposta em [23], na Figura 3, pode ser incorporada nos codecs a serem usados no SCDV. Com este esquema, é possível a recuperação de até quatro pacotes seguidos (no exemplo da figura, recupera-se 2, 3, 4 e 5). Tratamento de QoS no SCDV A QoS será medida fim-a-fim pelas aplicações, podendo disparar ações preventivas pela Gerência (descritas em 5) e a infra-estrutura possui um esquema para tratamento de QoS. Devido ao processamento adicional gerado pela granularidade da arquitetura IntServ e às limitações do esquema Precedência por IP, a arquitetura escolhida para controlar QoS no interior do SCDV é a arquitetura DiffServ. A arquitetura DiffServ (Differentiated Services – RFCs 2474 e 2475) [15] baseia-se no tratamento diferenciado de fluxos para garantir QoS dentro de seu domínio a uma classe de tráfego (e não a um fluxo individual). Esta arquitetura tem dois principais componentes: marcação dos pacotes e o comportamento nó-a-nó (PHB). REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 FIGURA 3 Esquema de FEC a ser adotado pelos codecs. ARQUITETURA DO SISTEMA PROPOSTO Diferenciação dos Fluxos O objetivo da diferenciação entre os fluxos no SCDM é orientar o controle de admissão e a distribuição dos recursos do sistema segundo uma regra comum, ou seja por um valor numérico de prioridade. 181 CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO Controle da Admissão O controle de admissão será requisitado apenas na solicitação de estabelecimento de uma conexão. Este controle permitirá a conexão de acordo com a prioridade da classe solicitante. Uma conexão será aceita se houver recursos disponíveis na rede e/ou se essa for mais prioritária que outras já existentes. Isto significa que, mesmo que a rede já esteja em sobrecarga, dependendo da situação, algum fluxo/ cliente poderá ser preterido em função de outro. Como exemplo, se o Comandante de um navio desejar ver qualquer vídeo, algum fluxo e/ou cliente menos prioritário terá sua conexão degradada e até mesmo suspensa. Outra situação é o secionamento parcial, onde resta(m) ligação(ões) entre as seções A e B. A pior hipótese é ilustrada se for considerada a ligação em tracejado: ainda existe uma ligação entre o Cliente_m e o Comutador_2. Observa-se que, a princípio, a função do Cliente_m não é comutar pacotes e sim consumilos. Se o Gerente_1 tiver conhecimento deste seccionamento, poderá solicitar ao Cliente_m que reencaminhe informações (Mensagens Imediatas) ao Comutador_2. Caso a gerência seja distribuída por todas as estações, capacitando-as com inteligência, o próprio Cliente_m pode encaminhar pacotes adiante, por intermédio de seu software aplicativo. O envio de fluxos de vídeo por este enlace poderá ser muito restrito, visto que este não é um enlace tronco. Distribuição dos fluxos Os fluxos de vídeo não serão armazenados em lugar algum ao longo do sistema, visto que se trata de geração de informações e respectivo consumo em tempo real. Logo, o cliente receberá os quadros que estiverem sendo produzidos a partir do momento da sua solicitação. Monitoramento da QoS fim-a-fim O monitoramento da QoS no cliente inicia-se quando este, ao tentar estabelecer uma conexão com um servidor, instancia um Inspetor de Desempenho (ID), com o qual ficará relacionado. Como exemplo, temse na Figura 1, o Cliente_2 desejando receber vídeos dos Servidores 1 a 3. O Inspetor_2_1 está instanciado no Cliente_2 e relaciona-se ao Servidor_1. Conectividade do Sistema Caso a rede seja totalmente secionada por falhas, cada seção sobrevivente (A e B) deverá envidar todos os esforços para continuar funcionando, isto é, os seus clientes continuarão a receber os vídeos dos servidores alcançáveis. O secionamento total está ilustrado na Figura 4, se desconsideramos inicialmente a ligação em pontilhado. Tudo transcorre como se existissem dois sistemas independentes: SCDM_A e SCDM_B. Observa-se que todos os requisitos da seção 3.1 continuam sendo aplicáveis, mas a cada uma das seções isoladamente. 182 FIGURA 4 Secionamento do SCDV devido à falhas. Gerenciamento do SCDV A Gerência do SCDV deverá monitorar e reagir às ações dos mecanismos existentes de tolerância à falhas e QoS, aliada às diretrizes da seção 5. Além disto, como a Gerência será calcada no paradigma “peer-to-peer”, o panorama global do sistema é replicado nos gerentes (em número de dois, no caso ilustrado nas Figuras 1 e 4), de maneira que, caso um falhe, o outro assume o controle imediatamente. Objetivos da gerência – Efetuar o controle de admissão de novos fluxos, segundo a política de diferenciação preemptiva, descrita na seção 5; REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 TECNOLOGIA DA INFORMAÇÃO – Monitorar, através de algoritmos inteligentes e preditivos, qualquer piora na QoS fim-a-fim das aplicações; – Detectar a conectividade do sistema (ou de uma seção deste); – Efetuar o diagnóstico panorâmico do sistema; e – Manter a QoS fim-a-fim das aplicações, degradando-a o mínimo possível, caso ocorram falhas em comutadores e/ou ligações. Um diagnóstico é uma função diferente de uma monitoração. Enquanto esta apenas detecta a ocorrência de um fenômeno, de forma isolada e sem vistas a descobrir suas causas, aquele procura investigar as causas, que freqüentemente estão relacionadas a outros componentes do sistema. Desta forma, o monitoramento é uma função adequada ao Inspetor de Desempenho (ID) e a Gerência efetua o diagnóstico, de forma semelhante à descrita em [2]. O Inspetor de Desempenho é responsável pelo monitoramento da QoS fim-a-fim entre um servidor e um cliente, reportando alarmes para a Gerência. Esta adota uma linha de ação, sempre fundamentada no panorama do sistema. Avaliação panorâmica do estado do sistema A avaliação do panorama do sistema e a escolha da melhor linha de ação estão inter-relacionadas. Dependendo do tipo de problema que ocorreu, a solução será diferente. Se, por exemplo, a QoS num determinado cliente começar a degradar, a gerência da rede deve avaliar se um problema é: – Apenas em um fluxo deste cliente ou em outros fluxos; Escolha de linhas de ação Após a gerência ter avaliado o estado global do sistema, algumas medidas podem ser tomadas, tais como: – Rerroteamento de tráfego pelos comutadores do sistema; – Redistribuição (com fins a balanceamento) de tráfego na saída dos servidores; – Redução de recursos de rede alocados a um fluxo; – Redução da quantidade (com conseqüente degradação da qualidade) de tráfego de saída dos servidores; e – Suspensão de um fluxo: • Total nos servidores; ou • Parcial a partir de certo ponto na rede. IMPLEMENTAÇÃO DO INSPETOR DE DESEMPENHO O SCDV é um sistema complexo, portanto decidimos implementar inicialmente o Inspetor de Desempenho, responsável por monitorar uma conexão, entre um cliente e um servidor e com a possibilidade de gerar alarmes de tendência de piora da QoS. Estes alarmes serão informados à Gerência, que pode escolher dentre as linhas de ação descritas em 5.2.3 para normalizar preventivamente o sistema. Foi adotado o Java Media Framework (JMF) para a implementação dos códigos do Transmissor e do Receptor, conforme a Figura 5. – Apenas no fluxo deste cliente ou em outros fluxos também; – Somente em um cliente ou em outros também; – É na mesma área da rede; – A rede está congestionada (provavelmente por queda de algum link); – Servidor está congestionado (aumenta o retardo, perda de pacotes,...); e – Cliente está congestionado (muitos processos rodando). REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 FIGURA 5 Topologia da implementação adotada 183 CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO No transmissor, adotamos a codificação H.263 para enviar, através do protocolo RTP, um vídeo de aproximadamente 10s para o receptor. indicará uma correspondente qualidade de vídeo. Adotamos as seguintes faixas de variação para as entradas, a serem programadas: O Emulador Paramétrico, originado a partir de [21], foi implementado em código Java, permitindo a variação dos parâmetros relevantes para a rede do SCDV (jitter e perdas). – de 0 a 80 ms para a média da exponencial; e A variação dos parâmetros de rede, pelo Emulador, ocorre segundo os seguintes modelos matemáticos: – Jitter – uma variável aleatória exponencialmente distribuída [13]; e – Perdas de Pacotes – uma cadeia de Markov, com dois estados (modelo de Gilbert) [7]. No receptor, o Inspetor de Desempenho usa as informações constantes nos Sender Reports (do protocolo RTP/RTCP) para alimentar um Classificador Neuro-Fuzzy (ANFIS)[4]. Este é programado com dados que representam o comportamento desejado para o sistema, ou seja, a saída (MOS) e as condições de rede (as entradas: jitter e perdas). A qualidade MOS é produzida a partir da média de notas dadas pelos avaliadores quando observaram 25 vídeos, relativos às condição de rede, conforme o método descrito em [24]. O comportamento desejado resultante desse método pode ser visualizado na superfície da Figura 6. O classificador, ao ser programado, “aprende” essa superfície indicando como está a qualidade do vídeo (MOS) que trafega pela rede, dadas suas condições. Para o caso de uma entrada não ser exatamente igual aos dados originalmente programados, a estrutura fará uma interpolação com as novas condições de rede e – de 0 a 80% do tempo no estado “RUIM”, no modelo de Gilbert, onde todos os pacotes são perdidos. Observa-se como a avaliação da qualidade subjetiva (critério MOS) do vídeo utilizado nos experimentos, varia em função dos parâmetros de rede: para o codec H.263 implementado no JMF, a qualidade foi mais sensível às perdas do que ao jitter. CONCLUSÕES E TRABALHOS FUTUROS Foi apresentado um sistema de gerência que, segundo uma política preemptiva de prioridades e de forma redundante e automática, controla tolerância à falhas, a admissão de novos fluxos e a QoS fim-a-fim de aplicações que distribuem vídeo. No Inspetor de Desempenho, os autores pretendem incluir a quantidade de pacotes no buffer do receptor, como variável de entrada no Classificador NeuroFuzzy, a fim de enviar um alarme apenas quando for haver “starvation” na aplicação, otimizando assim a QoS fim-a-fim e a QoP (Quality of Perception). A Gerência também deverá ser distribuída pelos nós da rede, através de uma arquitetura peer-to-peer, sendo indicada a tecnologia JXTA. REFERÊNCIAS [1] GOMES, R.L., “Autoria e Apresentação de Documentos Multimídia Adaptativos em Redes”, Dissertação de Mestrado, NCE/ UFRJ, 2001. [2] CECILIO, E.L, “Uma Arquitetura de Gerenciamento de Desempenho Pró-ativo Distribuído Usando Tecnologia Ativa”, XXI Simpósio Brasileiro de Redes de Computadores SbrC´03 [3] FRANCESCHI, A.S.M. et al, “Proactive Network Management Using Remote Monitoring and Artificial Intelligence Techniques, 2nd IEEE Sym. and Comm, 1997. [4] JANG, J.-S. R. and SUN, C.-T., 1995, “Neuro-Fuzzy Modeling and Control”, In: Proceedings of the IEEE. [5] APOSTOLOPOULOS, G., et al “QoS Routing Mechanism and OSPF Extensions”, in August 1999 – RFC 2676. FIGURA 6 Variação da Qualidade Versus Estado da Rede 184 [6] P. VAN MIEGHEM et al; “Hop-by-Hop Quality of Service Routing”, Computer Networks no 37 (2001) pags 407-423. [7] MARKOVSKI, V., “Simulation and Analysis of Loss in IP Networks”, Master of Applied Science Thesis, 2000. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 TECNOLOGIA DA INFORMAÇÃO [8] E. KOEHLER, “Solutions Reference Design: IP Multicast Television Distribution” – Nortel Networks, white paper, maio de 2003. [17] YISHAY Mansour and BOAZ Patt-Shamir, “Jitter Control in QoS Networks”,IEEE/ACM Transactions on Networking, vol. 9, no. 4, august 2001. [9] CISCO Systems, “OSPF Design Guide”, white paper – Updated: Aug 26, 2004. [18] DINIZ M.C. and SILVA, E. de Souza e, “Models for Jitter Control at Destination”, Proc. IEEE Intern. Telecomm. Symp., 1996. [10] IGOR M. Moraes e OTTO Carlos M. B. Duarte, “Uma Comparação entre Protocolos de Roteamento Multicast para Distribuição de TV na Internet”, XXI Simpósio Brasileiro de Telecomunicações, SBT’04. [19] CROZIE, Ken R.,”Implementing HSRP in the Enterprise Network” , Cisco Systems White Paper, 1997. [11] IETF, RFC 3768, http://www.ietf.org/rfc/rfc3768.txt. [12] DAVID Newman, “XRN Interconnect architecture”, Network World Global Test Alliance, 03/03/03. [20] GERLA, M. et al, “A QoS Network Management System for Robust and Reliable Multimedia Services”, Proceedings of the 5th IFIP/IEEE Conference on Management of Multimedia Networks and Services, October 2002. [13] TRUMP, T., “Estimation of Clock Skew in Telephony over Packet Switched Networks”, IEEE, 2000. [21] KROPOTOFF, A.B., “Um Emulador Paramétrico de Conexões Fim-a-Fim em Redes IP”, Dissertação de Mestrado, COPPE/UFRJ, 2002. [14] 3COM Corp, “Introduction to XRN™ Technology: a new direction for enterprise networking”, white paper, disponível em: http://www.3com.com/other/pdfs/infra/corpinf o/en_US/ xrn_wp.pdf [22] EDMUNDO de S. e Silva, ROSA M.M. Leão, BERTHIER R. Neto e SÉRGIO Campos, “Performance Issues on Multimedia Applications”, Lecture Notes in Computer Science – 2002 [15] CISCO Systems, “DiffServ – The Scalable End-to-End QoS Model”, White Paper, 2001 [23] FIGUEIREDO D.R. and SILVA, E. de Souza e, “Efficient mechanisms for recovering voice packets in the Internet”, In Proc. of IEEE/Globecom´99 [16] HOOD, C.S. and JI, C., “Intelligent Agents for Proactive Fault Detection”, IEEE Transactions on Reliability, vol 46, No.3 1997. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185 [24] ITU-T P.910, “Subjective video quality assessment methods for multimedia applications”, In International Telecommunication Union, September 1999. 185 186 CONTRIBUIÇÕES ESPECIAIS A análise de registros de maré extremamente longos Alberto dos Santos Franco Professor Emérito, Instituto Oceanográfico, Universidade de São Paulo. Björn Kjerfve Professor, Texas A&M University. Claudio Freitas Neves Professor Adjunto, COPPE, Universidade Federal do Rio de Janeiro. Resumo Comentam-se os resultados da análise harmônica de registros maregráficos extremamente longos, obtidos entre 1921 e 2000 no porto de Charleston (32o 46,5’ N, 79o 56,6’ W), Carolina do Sul, EUA. O comportamento do nível médio do mar nesta estação é comparado com aqueles observados em duas estações na costa brasileira: Cananéia (25o 01,0’ S, 47o 55,5’ W) e Santos (23o 57,3’ S, 46o 18,6’ W). As observações em Cananéia são de 1955 a 1993 e em Santos de 1971 a 1990. Atenção especial é dada à variação sazonal do nível médio do mar e aos possíveis efeitos de ocorrência simultânea de extremos de nível médio com preamares ou baixa-mares de sizígia. Palavras-chave Maré. Nível do mar. Análise harmônica. Registros de marés. Analysis of tidal records extremely larges Abstract Comments on the results from the harmonic analysis of tidal records extremely larges, taken from 1921 and 2000 in Charleston (32 o 46,5’ N, 79o 56,6’ W), South Carolina, USA. The behavior of the mean sea leval at that tidal station are compared to the ones observed at two tidal stations on the Brazilian coast: Cananéia (25o 01,0’ S, 47o 55,5’ W) and Santos (23 o 57,3’ S, 46o 18,6’ W). The observations at Cananéia were taken from 1955 to 1993 and from 1971 to 1990 at Santos. Spetial attention was given to the seazonal variation of the “mean” sea level and to the possible coidence of the extreme “mean” sea level with the spring tides. Keywords Tide. Sea level. Harmonic analysi. Tidal records. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 INTRODUÇÃO Em 1988, o primeiro autor escreveu um programa de análise de marés que poderia ser executado em PCs e foi convidado pelo segundo autor para apresentar uma série de palestras na Universidade da Carolina do Sul sobre o novo método de análise de maré. Isto serviu de estímulo para que outros oito programas em Turbo Basic fossem escritos para resolver problemas usuais associados com análise e previsão de marés. O embasamento teórico desses programas é explicado em Franco (1997) e Franco & Harari (1988). Após as palestras, os dois primeiros autores participaram da Conferência sobre Hidrodinâmica de Marés (15 a 18 Novembro, 1988), ocorrido em Gaithersburg, Maryland, EUA, (Parker, 1991), à qual o primeiro autor havia submetido um artigo comentando os resultados da análise obtidos pelo método recém criado (Franco & Harari, 1991). O conjunto desses programas, todos escritos em linguagem Turbo Basic, para DOS, foi denominado PAC. Recentemente, na medida em que as novas gerações de PCs permitiram processamento mais veloz, os programas originais foram convertidos para Visual Basic e a nova versão foi denominada PAC2000, contendo os seguintes programas: ANHACOR ANHAMA ANHAREF – análise de correntes de maré; – análise harmônica de elevações de maré; – análise harmônica refinada de registros de maré com duração média; LONGSERIE – análise de séries longas; ANACRUZ – análise espectral cruzada nível x nível ou nível x corrente; EXTREMOS – avaliação dos níveis extremos resultado de marés e ruído; NIMED – estudo de variações do Nível Médio do Mar (NMM); PREVISÃO – previsão de marés e correntes; HARM – edição de constantes harmônicas de marés e correntes para previsão; VERALT – verificação de registros de maré pelo método de Karunaratne; AGRASA – geração de uma tabela de componentres de água rasa e suas satélites. 187 ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES Os métodos de análise desenvolvidos por Franco (1988) eram baseados na FFT (Fast Fourier Transform). Nestes métodos (exceto no programa LONGSERIE), a série observada é substituída por outra interpolada, cujo número de termos é uma potência de 2. Aquela interpolação é feita pelo método das diferenças segundas, que se mostraram adequadas após exaustivos testes. As alturas horárias da maré analisadas neste trabalho foram observadas nos seguintes locais Estação Charleston, South Carolina, EUA Cananéia, São Paulo, Brasil Santos, São Paulo, Brasil Locais Estensão do registro (years) 32o 46,50’ N 79o 56,60 W 78.5 25o 01,0’ S 47o 55,7’ W 38 23o 57,3’ S 46o 18,6’ W 19 ANÁLISE HARMÔNICA DE LONGAS SÉRIES O método de análise de longas séries, desenvolvido em 1988, destinava-se à análise de séries que cobriam um ciclo nodal. Não se esperava, então, que esse método pudesse ser usado para analisar séries extremamente longas, tais como a observada em Charleston (SC), EUA, registrada horariamente desde 1 o de outubro de 1921 até 2000. De fato, as “dimensions” das matrizes no programa LONGSERIE limitavam-se a análises de séries que se estendiam a 18,69 anos, o que corresponde a 10 ´ 214 alturas horárias. A fim de testar a possibilidade de analisar séries de alturas horárias extremamente longas era necessário dispor de tais séries. O segundo autor providenciou esses dados e as necessárias “dimensions” do programa LONGSERIE foram ajustadas para conter uma série observada em Charleston. Poder-se-ia perguntar por que o programa ANHAREF, baseado no FFT, não foi escolhido para analisar séries extremamente longas, uma vez que a memória dos modernos PCs teria sido suficiente para processar tais séries com aquele programa. A resposta 188 é que os testes usando o método refinado (ANHAREF) para analisar uma série de 18,69 anos em Cananéia, mostraram que a precisão era muito inferior à alcançada com o programa LONGSERIE. Essa perda de precisão decorre do fato de ser o FFT um método recorrente, o que impede o uso do programa ANHAREF para analisar séries com amostras com mais de 3 ´ 214 valores, pois os erros de arredondamento crescem o suficiente para prejudicar os resultados. Além disso, não é possível ignorar a variação do nível médio durante 5 ou mais anos. Isto não acontece com o programa LONGSERIE, que é baseado na combinação de n análises de 214 alturas horárias com o FFT (Franco & Harari, 1988), que separa o nível médio a cada 214 horas (1,87 anos), pois, neste intervalo de tempo, a variação de longo período do nível médio pode ser considerada desprezível. Uma das finalidades da análise de longas séries é a obtenção das constantes harmônicas das componentes Sa , Ssa , Mf , Mm , MSf e Mtm . Contudo, o ruído de baixa freqüência é tão alto, que muito raramente essas componentes podem ser convenientemente isoladas adotando o teste estatístico com probabilidade de 99%, usado para a rejeição de pequenas componentes, quando empregado o programa LONGSERIE. Analisando os dados de Charleston, só as componentes Sa, Ssa e Mf resistiram ao teste estatístico, enquanto que, usando o mesmo teste nas análises de Cananéia e Santos, só a componente Sa resistiu ao teste estatístico para o mesmo nível de probabilidade. Por outro lado, para os três locais puderam ser isoladas sete componentes de longo período, efetuando, com o programa ANHAREF (Franco, 1978) a análise harmônica dos valores filtrados do nível médio (NM) diário. Tais valores podem ser calculados por qualquer filtro passa-baixa, tais como o de Godin (1972) ou o de Thompson (1983). Este último, como veremos mais adiante, fornece de fato melhores resultados nas baixas freqüências, pois o ganho da função de resposta do filtro de Godin decresce demasiado rápido na faixa de freqüência das componentes de longo período (0 a 1,6 grau/hora). A Tabela 2.1 mostra os resultados das análises do NM, efetuadas com os programas LONGSERIE e ANHAREF. Deve ser dito que os valores do NM foram corrigidos da tendência, expressa pela regressão calculada pelo método dos mínimos quadrados. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 CONTRIBUIÇÕES ESPECIAIS TABELA 2.1 Resultados das análises das alturas horárias e dos valores diários do NM COMPONENTES 1 Sa 0,0410686 No Símbolo frequência (o/h) 1 Sa 2 *Ssa 3 *Mm (-2) 4 *Mm (-1) 5 *Mm 6 *Mm (1) 7 *Mm (2) 8 *Mm (3) 9 *Mm (4) 10 *Msf (-1) 11 *Msf 12 *Msf(1) 13 *Mf (-3) 14 *Mf (-2) 15 *Mf (-1) 16 * M f 17 *Mf (1) 18 *Mf (2) 19 *Mf (3) 20 *Mtm (-2) 21 *Mtm (-1) 22 *Mtm 23 *Mtn (1) 24 *Mtm (2) 25 *Mtm (3) 26 *Mtm (4) 0,0410686 0,0821373 0,5399619 0,5421683 0,5443747 0,5465811 0,5536584 0,5558648 0,5580712 1,0136894 1,0158958 1,0181022 1,0865430 1,0887494 1,0909558 1,0980331 1,1002395 1,1024459 1,1046523 1,6331241 1,6353325 1,6424078 1,6446142 1,6468206 1,6561042 1,65831,07 LONGSERIE ANHAREF 5,05 H (cm) 2,11 IC. (±) 11,73 G (gr.) 11,85 K (gr.) 11,85 GW (gr.) 24,67 IC (±) 5,04 H (cm) 1,72 IC. (±) 7,02 G (gr.) 7,14 K (gr.) 7,14 GW (gr.) 19,97 IC. (±) 5,05 1,28 0,31 0,40 0,41 0,81 0,49 0,56 0,18 0,98 1,04 0,74 0,49 0,11 0,53 1,09 0,51 0,23 0,35 0,71 0,49 0,90 0,24 0,59 0,75 0,05 2,11 1,84 1,24 1,24 1,23 1,24 1,24 1,24 1,24 1,12 1,12 1,12 1,12 1,12 1,12 1,12 1,12 1,12 1,12 1,15 1,16 1,15 1,15 1,15 1,16 1,16 11,73 35,74 292,07 215,41 102,28 130,90 144,42 205,64 193,95 166,97 68,00 318,75 325,11 256,93 71,63 325,01 17,19 15,70 268,84 24,50 25,98 279,36 335,08 334,72 47,17 287,43 11,85 35,99 293,69 217,03 103,92 132,54 146,08 207,30 195,62 170,02 71,05 321,81 328,37 260,19 74,90 328,30 20,49 19,01 272,16 29,40 25,89 284,28 340,01 339,66 52,14 292,40 11,85 35,99 293,69 217,03 103,92 132,54 146,08 207,30 195,62 170,02 71,05 321,81 328,37 260,19 74,90 328,30 20,49 19,01 272,16 29,40 25,89 284,28 340,01 339,66 52,14 292,40 24,67 ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** ***** 5,04 2,34 *0,19 *0,30 *0,61 *0,38 *0,29 *0,12 *0,17 1,08 2,00 *0,73 *0,70 *0,18 *1,12 *1,69 *0,20 *0,55 *0,88 *0,94 *0,35 *0,51 *0,82 *0,09 1,11 *0,36 1,72 7,02 1,72 59,70 1,31 352,80 1,32 168,23 1,32 76,53 1,31 130,0 2 1,31 136,24 1,32 171,22 1,31 103,15 0,98 123,56 0,99 67,29 0,98 342,05 0,98 15,14 0,99 346,27 0,98 76,90 0,98 332,43 0,99 8,73 0,99 358,96 0,99 238,37 1,03 354,19 1,03 68,99 1,03 302,34 1,04 320,69 1,03 123,11 1,03 46,95 1,03 146,60 7,14 59,94 354,42 169,86 78,16 131,66 137,90 172,89 104,83 126,60 70,34 345,11 18,40 349,54 80,17 335,72 12,03 2,27 241,68 359,09 73,89 307,26 325,62 128,05 51,92 151,57 7,14 59,94 354,42 169,86 78,16 131,66 137,90 172,89 104,83 126,60 70,34 345,11 18,40 349,54 80,17 335,72 12,03 2,27 241,68 359,09 73,89 307,26 325,62 128,05 51,92 151,57 19,97 47,26 ***** ***** ***** ***** ***** ***** ***** 65,05 29,76 ***** ***** ***** 60,91 35,64 ***** ***** ***** ***** ***** ***** ***** ***** 68,22 ***** Uma vez que os valores diários do NM de Cananéia, filtrados com o filtro de Thompson, resultam de uma média ponderada móvel, as oscilações do NM com períodos inferiores a 40 horas são reduzidas pelo filtro em mais que 90%. Isto explica porque são obtidos melhores resultados para as componentes de longo período, quando são analisados os valores diários filtrados do NM. VARIAÇÕES ANUAIS DO NM Antes de estudarmos o comportamento do NM para as estações maregráficas escolhidas, é interessante dizer algumas palavras a respeito das alturas horárias da maré. Durante muitos anos o filtro de Godin tem sido bastante usado no Brasil para calcular o nível médio do mar. Entre suas vantagens, ele é muito fácil de programar (Franco, 1988) e só perde um dia e meio de dados em cada extremidade da série. No entanto, a resposta desse filtro em freqüência não é das REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 melhores, pois ele “alisa” fortemente a curva do NM e corta freqüências muito baixas. A Figura 3.1, a seguir, mostra a função de resposta dos filtros de Godin e de Thompson. Podemos ver aí que na freqüência de 3 graus/hora, correspondente a uma oscilação com período de 5 dias, o sinal é reduzido de 20% e que a redução de uma oscilação de 2 graus/hora (7,5 dias) é de 10 %, o que ainda é apreciável. Pode ser visto que o ganho do filtro de Thompson é igual a um no intervalo de 0 a quase 5 graus/hora (períodos de 3 a 1,5 dias) e que decai para 0 no intervalo de 5 a 10 graus/hora. Construir um filtro de Thompson, que é essencialmente uma média ponderada móvel no domínio do tempo, deve ser imposta uma forma matemática L( f ) para a resposta em freqüência, tal que esta decaia de 1 a 0 e devem ser especificadas freqüências para as quais a resposta seja nula. Esses pesos, no domínio de tempo, correspondem aos coeficientes de Fourier de uma aproximação S( f) para a desejada função de resposta e são determinados por um método de mínimos quadrados, sujeito a constrições. Isto é conseguido através dos 189 ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES multiplicadores de Lagrange ó j, calculados de modo a anular as contribuições das componentes harmônicas principais (Thompson, 1983). Aplicando o filtro de Thompson aos dados das três estações (Cananéia, Santos e Charleston), foram calculados os valores diários, mensais e anuais do NM. Parte dos valores mensais e anuais do NM e também as médias para cada mês foram tiradas da saída do programa NIMED (Tabela 3.1), corrido com os dados de Cananéia. Os dados das duas últimas colunas desta tabela são os que vemos na Figura 3.2, a seguir, onde também podemos ver a reta de regressão correspondente aos 38 anos cobertos pelas observações. No final da Tabela 3.1 vemos a variação média anual do NM, deduzida da regressão. O mesmo procedimento foi aplicado aos dados de Santos e Charleston, sendo os resultados os que vemos nas Figuras 3.3 e 3.4, a seguir, respectivamente. Os valores finais do NM fornecidos pelo programa NIMED podem, como já vimos, ser harmonicamente analisados com o programa ANHAREF (Franco, 1978) para obter as constantes harmônicas das componentes de longo período e das respectivas componentes-satélite. As Figuras 3.2 a 3.4 mostram que o NM oscila em torno de uma linha reta de tendência ascendente; além disso, as tendências diferem muito pouco das variações: 0,375, 0,353 e 0,389 cm/ano, respectivamente para Cananéia, Santos e Charleston. Se admitirmos que as variações anuais subsistem para as três estações, então a subida do nível médio durante os últimos 78 anos seriam 29,5 cm para Cananéia, 27,5 cm para Santos e 30,3 para Charleston. A figura 3.4 mostra claramente que há uma oscilação de longo período do nível médio do mar em torno da reta de regressão. Assim sendo, é compreensível que o período de 19 anos de observações efetuadas em Santos não seja suficiente para que consideremos muito rigorosos os resultados obtidos para esse porto. Acreditamos, porém, que os resultados obtidos para Charleston, baseados na análise de 78 anos de alturas horárias, seja bastante confiável. 190 FIGURA 3.1 Funções de resposta passa-baixa para Godin () e ) Thompsom ( TABELA 3.1 NIVEL MEDIO (cm) NM Regr, linear 1 2 3 4 5 6 7 8 9 10 11 12 anual anual 1955 155,7 155,8 163,0 163,3 161,4 162,0 167,3 150,9 152,6 162,8 152,1 154,7 158,5 159,5 1956 159,3 163,5 161,3 165,1 169,5 163,1 159,4 149,6 151,6 147,4 154,6 162,4 158,9 159,9 1957 153,3 169,4 166,9 163,7 148,4 156,4 162,5 156,0 164,4 155,7 150,9 154,6 158,5 160,3 1958 159,9 167,2 166,6 167,9 168,6 159,1 149,3 160,9 151,4 166,5 158,7 162,2 161,5 160,7 1959 163,1 168,3 164,9 161,9 167,5 163,6 156,5 167,6 159,9 155,4 158,2 161,3 162,3 161,1 1960 159,1 164,2 162,0 171,6 178,0 163,1 158,1 158,3 165,7 161,8 168,5 175,6 165,5 161,4 1961 171,5 171,9 176,2 180,0 172,9 165,7 163,0 159,5 163,3 153,9 159,5 158,9 166,4 161,8 1962 164,5 173,3 165,0 173,3 178,1 159,0 163,3 159,9 157,6 162,7 157,9 161,1 164,6 162,2 1963 169,5 164,5 171,5 177,5 177,8 166,4 164,5 162,9 165,9 150,0 156,3 164,5 165,9 162,6 1964 170,1 175,1 173,3 174,1 172,2 172,9 153,3 150,7 154,9 160,1 165,7 166,8 165,8 163,0 1965 165,7 179,8 185,6 180,2 173,6 151,4 158,3 155,2 155,5 158,7 151,7 164,1 165,0 163,4 1966 157,0 165,0 159,7 150,0 154,4 155,1 148,1 156,1 178,4 177,2 169,1 176,2 162,2 163,8 1967 171,1 183,5 143,9 157,9 146,3 165,0 154,2 166,5 166,1 162,0 168,2 166,1 162,6 164,1 1968 172,8 164,6 170,0 183,9 176,7 156,1 146,0 150,4 154,6 145,8 146,0 149,3 159,7 164,5 1969 163,0 179,4 184,6 163,5 158,1 158,7 158,0 169,9 154,6 158,9 153,0 149,3 162,6 164,9 1970 148,9 153,5 158,3 162,0 165,5 162,0 149,3 156,3 154,6 159,2 164,3 165,1 158,3 165,3 1971 163,8 167,1 169,2 185,3 172,4 172,4 158,4 156,2 142,7 154,9 154,3 159,0 163,0 165,7 1972 158,3 163,6 167,9 169,7 156,6 167,4 161,8 164,3 151,5 155,5 159,6 156,7 161,1 166,1 1973 159,0 160,2 164,5 169,6 171,8 155,9 163,4 168,8 166,3 158,1 166,0 163,5 163,9 166,4 1974 158,1 159,1 166,5 176,8 159,0 163,9 151,6 158,0 161,8 171,8 177,2 169,0 164,4 166,8 1975 176,2 176,9 174,8 172,0 166,8 158,0 149,7 147,5 141,5 153,3 152,3 157,7 160,6 167,2 1976 147,9 163,7 158,3 159,0 166,3 166,8 152,4 159,3 158,9 163,6 166,3 164,7 160,6 167,6 1977 159,7 156,9 172,0 173,1 177,3 168,8 159,1 170,0 161,1 154,0 158,2 154,3 163,7 168,0 1978 160,3 166,7 165,0 178,9 178,9 167,8 161,3 165,2 155,3 160,7 170,4 164,1 166,2 168,4 1979 161,4 168,3 175,9 180,2 178,6 172,4 161,2 163,7 163,8 166,3 172,8 172,2 169,7 168,8 1980 177,4 175,3 173,2 167,8 169,8 176,4 174,3 167,3 177,5 166,6 164,7 175,6 172,2 169,1 1981 174,9 167,3 180,9 169,9 163,3 171,7 169,6 164,7 168,3 169,7 170,0 169,7 170,0 169,5 1982 167,7 171,5 175,8 168,4 168,0 172,5 173,9 168,6 168,1 173,3 178,6 175,2 171,8 169,9 1983 170,7 173,7 183,1 175,2 181,1 187,2 185,9 175,7 175,3 168,3 170,2 169,7 176,3 170,3 1984 171,9 167,1 180,5 178,9 183,8 182,0 178,5 181,1 170,8 162,9 170,1 178,8 175,5 170,7 1985 170,3 173,1 176,9 179,5 179,3 179,6 169,1 170,9 164,7 169,1 165,1 167,8 172,1 171,1 1986 170,9 178,4 181,2 180,6 183,8 170,7 172,6 176,9 161,2 173,8 169,7 174,8 174,6 171,5 1987 176,6 182,3 179,8 180,1 193,1 179,6 175,9 173,3 177,4 177,9 167,1 167,6 177,6 171,8 1988 171,2 176,5 168,4 184,0 188,7 176,3 168,4 164,4 165,5 165,7 164,2 160,4 171,1 172,2 1989 160,5 173,6 175,8 175,5 177,8 175,4 171,4 162,2 177,1 162,9 170,2 155,7 169,8 172,6 1990 170,5 167,9 173,5 185,6 177,2 181,5 178,3 164,1 170,2 165,7 168,7 172,8 173,0 173,0 1991 167,4 178,8 173,7 173,5 170,7 179,3 169,4 161,0 158,3 167,8 163,9 170,9 169,6 173,4 1992 174,8 162,5 166,4 175,4 183,0 171,8 180,7 171,8 167,1 169,6 178,0 171,2 172,7 173,8 Médias Mensais 165,1 169,2 170,4 172,5 171,5 167,8 163,1 162,8 162,0 162,4 163,5 164,8 Tendência anual: 0,375 cm/ano NM da série: 166,5 cm REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 CONTRIBUIÇÕES ESPECIAIS VARIAÇÕES MÉDIAS MENSAIS O comportamento do NM é fortemente influenciado por oscilações produzidas por agentes meteorológicos. É, pois, importante estudar a ocorrência sazonal dessas oscilações como o primeiro passo para a compreensão (ou mesmo para a previsão) dos seus impactos sobre a morfologia da costa. Em vista disso, foram calculadas, para todo o período analisado, as médias mensais do nível médio para todos os anos, e seus resultados são os que vemos nos gráficos das Figuras 4.1, 4.2 e 4.3, a seguir, para Cananéia, Santos e Charleston, respectivamente. Tanto em Cananéia como em Santos, os mais altos valores do NM ocorreram em abril (Outono do hemisfério Sul), como podemos ver nas Figuras 4.1 e 4.2. Resultados análogos foram obtidos por Silva (1991), analisando dados observados na Ilha Fiscal, para o período 1965-1986. Se uma onda meteorológica, produzindo uma elevação apreciável do NM, e uma maré de sizígia ocorrerem simultaneamente, a região costeira poderá sofrer muitos danos. Em abril de 2001, por exemplo, uma frente fria coincidiu com uma maré de sizígia, na costa sul do Brasil, acarretando consideráveis prejuízos. Contudo, tal transtorno também pode ocorrer em outros meses. De fato, uma anômala tempestade, em janeiro de 1980, coincidiu com uma maré de sizígia, produzindo grandes danos em propriedades próximas das praias. FIGURA 3.2 Nível médio anual em Cananéia, SP, Brasil. FIGURA 3.3 Nível médio anual em Santos, SP, Brasil. A Figura 4.3 mostra que altos valores do NM ocorrem durante o Outono do hemisfério Norte (outubro). Este resultado relevante sugere a existência de um paralelo entre ambos os hemisférios e contradiz a crença geral de que, na costa brasileira, as maiores “ressacas” são as produzidas por agentes meteorológicos durante o inverno. Por outro lado, isto indica que os mais altos valores do NM não coincidem com a estação dos furacões (verão), na costa da Carolina do Sul). É importante analisar o comportamento das séries mensais do NM durante os períodos dos registros disponíveis. Há, para Charleston, uma evidente periodicidade dos valores altos do NM em setembro e outubro, podendo também ser identificada a ocorrência de furacões. O mesmo filtro de Thompson, com 121 pesos, que havia sido aplicado aos dados horários, foi então aplicado às séries mensais (médias REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 FIGURA 3.4 Nível médio anual em Charleston, SC, EUA. 191 ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES ponderadas móveis de 5 anos antes do mês escolhido até 5 anos depois do mesmo mês). Neste caso, são preservadas as freqüências menores que 5 graus/mês (período = 72 meses), ao passo que são removidas as oscilações com freqüências superiores a 10 graus/mês (período = 36 meses). Os valores filtrados do NM (VF-NM) estão mostrados na Figura 4.4, a seguir, juntamente com os valores mensais do NM. Ocorreram altos valores filtrados do NM em dois períodos diferentes: 1946-1950 (pico em maio de 1948, 94,25 cm) e 1971-1975 (pico em setembro de 1973, 98,22 cm). Os períodos de valores mais baixos do VF-NM ocorreram também em 1931, 1940, 1964, 1980 e 1989. Esta curva apresenta oscilações com períodos da ordem de 10 anos, que podem ser relacionados aos ciclos das manchas solares. Oscilações maiores podem ser observadas em Cananéia e Santos, mas os períodos de observação são demasiado curtos. No entanto, há uma clara indicação da subida do NM entre janeiro de 1976 e janeiro de 1983, seguindo ambas as curvas uma tendência similar. FIGURA 4.1 Média mensal do NMM em Cananéia, SP, Brasil (19551992). Uma vez definida a tendência do NM para um determinado lugar, fica evidente que há períodos, da ordem de 5 ou 10 anos, em que o NM se torna mais alto ou mais baixo. ESTATÍSTICA DO NM Quando se faz referência ao “nível médio do mar”, raramente se questiona a interpretação da palavra “média”. Quando, outrora, se acreditava que os oceanos oscilavam (marés) em torno de um valor médio estacionário, foram desenvolvidos vários métodos para filtrar a maré, bem como as influências meteorológicas e oceanográficas dos registros do nível do mar. Atualmente, já está bem estabelecido o fato de que o “nível médio do mar” apresenta flutuações em várias escalas temporais. Assim sendo, é desejável definir de forma precisa o significado da palavra “médio”. O uso da média aritmética de 24 alturas horárias para estabelecer o “nível médio diário” certamente não é adequado: poder-se-ia calcular facilmente a função de resposta associada. Médias ponderadas móveis com pesos capazes de filtrar a maré astronômica (como, por exemplo, o filtro de Thompson) são muitíssimo superiores às simples médias aritméticas. Estritamente 192 FIGURA 4.2 FIGURA 4.3 Média mensal do NMM em Charleston, SC, EUA (19212000). REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 CONTRIBUIÇÕES ESPECIAIS FIGURA 4.4 NM mensal e NM mensal filtrado para Charleston, SC, EUA. FIGURE 4.5 Variação mensal do NM and tendência filtrada. falando, não é matematicamente correto denominar este valor “nível médio do mar”; seria mais apropriado denominá-lo “nível do mar filtrado” (NMF). Para muitas finalidades da engenharia, é mais importante definir a estatística da permanência do nível do mar. Considerando que o nível do mar observado é, realmente, uma combinação da maré astronômica previsível e de outros fenômenos associados (principalmente efeitos meteorológicos e flutuações oceanográficas), procura-se estabelecer a estatística do NMF. A Figura 5.1 mostra o histograma do NMF em Charleston (SC) usando os intervalos de classe de 1 cm e 10 cm, para o ano de 1955. A distribuição normal N(µ , ó), onde ì e ó são, respectivamente, a média e o desvio padrão dos valores mensais do nível médio, está também representada na mesma figura. Embora os dados exibam um ajuste razoavelmente próximo da distribuição normal podemos observar um certo viés. Além disso, é importante observar que o nível correspondente a uma taxa de excedência (ou permanência) igual a 50% não coincide com o valor da média aritmética dos níveis, como foi bem demonstrado por Kalil (1999) em seis estações no Estado do Rio de Janeiro. A Figura 5.2 mostra a distribuição cumulativa e as curvas de permanência, calculadas com os intervalos de classe de 1 cm e 10 cm. As Figuras 5.3 a 5.5, a seguir, mostram a densidade de probabilidade do NM mensal em Cananéia, Santos e Charleston. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 FIGURA 5.1 Função densidade de probabilidade FIGURA 5.2 Distribuição de probabilidade cumulativa para Charleston, SC, ano 1955. 193 ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES CORRELAÇÃO CRUZADA ENTRE RUÍDOS METEOROLÓGICOS DE ESTAÇÕES MAREGRÁFICAS FIGURA 5.3 Densidade de probabilidade do NM – Cananéia, SP, 19551992. FIGURA 5.4 Densidade de probabilidade do NM para Santos. FIGURA 5.5 Densidade de probabilidade do NMM – Charleston, SC, 1921-2000. 194 Deve ser realçado que os dados registrados por estações maregráficas só podem fornecer variações relativas do nível médio; variações absolutas só podem ser obtidas desde que também sejam registradas as variações de nível do terreno. Este fato seria, por si só, suficiente para não estender as flutuações de longo período do nível do mar, de um lugar para outro. Se, além disso, são considerados os efeitos meteorológicos, torna-se evidente que o nível médio “instantâneo” não pode ser transferido de uma estação para outra, mesmo que elas estejam relativamente próximas, posto que elas podem estar sujeitas a diferentes regimes locais de vento. De fato, se duas estações estão situadas dentro de um mesmo sistema meteorológico e numa delas, a maré só foi observada durante um curto período (estação secundária), como por exemplo, um mês, e existe nessa área uma outra estação permanente (estação principal), onde o fenômeno tenha sido observado por um ano ou mais, englobando o mês da estação secundária, é possível remover uma parte considerável do ruído meteorológico da estação secundária, desde que se possa considerar que, naquele mês o ruído meteorológico de mesoescala é igual nas duas estações. Este é o caso das estações de Santos e Cananéia, distantes entre si aproximadamente 200 km, onde se pôde constatar a forte correlação entre níveis médios diários. A Figura 6.1 apresenta o NMM diário para o mês de abril de 1978, quando se obteve coeficiente de correlação igual a 0,969. FIGURA 6.1 NMM diário em Santos e Cananéia. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 CONTRIBUIÇÕES ESPECIAIS Entretanto, tomando-se duas estações como Arraial do Cabo e Ilha Fiscal, distantes cerca de 150 km, Paiva (1993) evidencia claramente os efeitos de empilhamento de água no interior da Enseada dos Anjos nos meses de dezembro e janeiro por ação dos ventos de NE, embora as duas estações estejam em geral submetidas ao mesmo sistema de mesoescala. Com base em estudos meteorológicos detalhados e análises estatísticas, é possível transferir as diferenças entre os respectivos NM de uma estação para outra para um curto período de tempo. Isto certamente não é válido se considerarmos as tendências de longos períodos, pois a subsidência da terra, a circulação oceânica e a meteorologia local podem, elas próprias, mostrar diferentes tendências. A Figura 6.2 mostra a correlação entre os níveis médios mensais em Santos e Cananéia. Os dados exibem uma fraca tendência para um período de observação de 19 anos, embora tenha sido mostrado que a tendência da elevação anual era semelhante nos dois locais. Se compararmos a série de dados de Charleston para o mesmo período com os de Santos (Figura 6.2) ou os de Cananéia (Figura 6.3), a correlação é extremamente pobre. Em virtude das séries de dados registrados na costa do Brasil não se estenderem a mais de 50 anos, este exemplo evidencia que não é possível extrapolar as variações do nível médio para o passado ou o futuro. Consequentemente, para que seja possível efetuar, no futuro, estudos sérios das variações relativas do NM, no Brasil, será necessário instalar novas estações com controle geodésico/meteorológico. CONCLUSÕES A principal vantagem da análise de longo período em relação à análise usual via FFT, reside no fato de não depender dos processos recursivos que deterioram a precisão dos resultados. Além disso, a análise usual fundamenta-se na hipótese de que o nível médio permaneça estacionário, o que não é razoável, como se comprova com os registros de Charleston, EUA, com aproximadamente 80 anos de duração. As variações anuais de nível médio do mar indicaram um aumento da ordem de 35 cm/século. Não se pode inferir daí qualquer comprovação de um aumento global do nível dos oceanos, pois os registros não foram corrigidos para outras variações de ordem tectônica ou geofísica. Contudo, as evidências indicam REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 FIGURA 6.2 correlação entre níveis médios mensais em 19 anos. FIGURA 6.3 Correlação entre níveis médios mensais em 19 anos. uma tendência de elevação local do nível médio do mar, que deve ser considerada ao se planejar obras e urbanização da região costeira, num contexto de gerenciamento costeiro integrado. A série de dados de Charleston ilustra muito bem as oscilações que existem do nível médio do mar em escalas decadais e reforça a necessidade de monitoramento permanente e de longo prazo. Tais oscilações possuem períodos e magnitudes que são características locais. Variações de NMM de 10 a 20 cm podem induzir a erros significativos na interpretação de cartas náuticas ou no projeto de obras de dragagem portuária: mudanças de valores esperados de profundidade podem ser erroneamente atribuídos à sedimentação ou erosão. Tal fato sinaliza para uma mudança de posicionamento quanto à hidrografia, que passa a exigir, além do monitoramento maregráfico para previsão de marés e do batimétrico para utilização de modelos de 195 ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES circulação hidrodinâmica, um monitoramento permanente geodésico-maregráfico para acompanhamento do nível médio do mar. Médias mensais de nível médio do mar, obtidas nas três localidades, indicaram elevação maior nos meses de outono. Este fato, já observado por outros autores na literatura, sinalizam um efeito físico ainda não explicado, mas que certamente exigirá uma análise conjunta oceanográfico-meteorológica. Nenhuma correlação existe entre os níveis médios mensais nas três localidades. Isto significa que não se pode simplesmente “transferir” nível médio de uma localidade para outra, nem mesmo valores absolutos de tendências de variação. Isto não impede que, para localidades próximas entre si, como Cananéia e Santos, ou Rio de Janeiro e Arraial do Cabo, sejam feitos estudos estatísticos adicionais e sejam investigadas as condições meteorológicas que regem tais localidades. Eventualmente, se forem coincidentes, poder-se-á então estabelecer correlações. Finalmente, os autores querem enfatizar a necessidade de uma definição mais precisa para o termo “nível médio”. Em primeiro lugar, deve-se distinguir o nível instantâneo do nível filtrado. Em segundo lugar, propõe-se a utilização de uma porcentagem de excedência (ou de permanência) quando se fizer referência ao nível “filtrado” do mar. 196 REFERÊNCIAS FRANCO, A.S. (1978), A refined method of tidal analysis. In: B. Kjerve (ed,), Estuarine Transport Processes, p.311-318, Univ, South Carolina Press, Columbia, 1978. FRANCO, A.S. (1997), Marés: fundamentos, análise e previsão. Diretoria de Hidrografia e Navegação. FRANCO, A.S. e HARARI, J. (1988), Tidal analysis of long series. International Hydrographic Review, Monaco, LXV (1). FRANCO, A.S. e HARARi, J. (1991), Comments on the results of a tidal analysis with a nodal cycle resolution level. In: Parker, B.B. (ed.), Tidal Hydrodynamics, p,737-751. John Wiley & Sons, Inc., New York, 1991. FRANCO, A.S. e HARARI, J. (1993), On the stability of long series tidal analysis. Monaco, International Hydrographic Review, LXX (1). GODIN, G. (1972), The analysis of tides. Liverpool, University Press. KALIL, A. F. D. (1999), Contribuições ao estudo do nível médio do mar no Estado do Rio de Janeiro, Tese de Mestrado, Programa de Engenharia Oceânica, COPPE/UFRJ, Rio de Janeiro. PAIVA, A. M. (1993), Estudo das variações do nível médio do mar em Arraial do Cabo, RJ, Relatório de Pesquisa, FAPERJ-COPPE/UFRJ. PARKER, B.B. (editor) (1991), Tidal Hydrodynamics. John Wiley & Sons, Inc., New York. SILVA, G.N. (1991), Variações de longo período do nível médio do mar: causas, conseqüências e metodologia de análise. Tese de M.Sc., Programa de Engenharia Oceânica, COPPE/UFRJ, Rio de Janeiro, 91 p. THOMPSON, R.O.R.Y. (1983), Low-pass filters to suppress inertial and tidal frequencies. Journal of the American Meteorological Society, June. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196 CONTRIBUIÇÕES ESPECIAIS Ciência, tecnologia e inovação para a defesa nacional – revisão de alguns conceitos CMG Arthur Lobo da Costa RUIZ, M. Sc. Escola de Guerra Naval Resumo Este texto reúne alguns princípios para a discussão do desenvolvimento científico e tecnológico de interesse da Defesa Nacional, assim como efetua uma revisão conceitual em alguns deles. São abordados a ciência, a tecnologia, a inovação, o desenvolvimento científico e tecnológico, a transferência de tecnologia e o processo de escolha da tecnologia a ser empregada. Palavras-chave Ciência. Tecnologia. Inovação. Pesquisa e Desenvolvimento. Defesa nacional. Science, technology and innovation for the national defense – revision of some concepts INTRODUÇÃO Em primeiro lugar, a tecnologia confere vantagens militares decisivas aos países que a possuem, e dada a contínua possibilidade de guerra no sistema internacional dos Estados, nenhum Estado que preze sua independência pode ignorar a necessidade de modernização defensiva. (Francis Fukuyama em O fim da história e o último homem) Este texto reúne alguns conceitos importantes para a discussão da temática do desenvolvimento científico e tecnológico. A ciência, a tecnologia, a inovação, a transferência de tecnologia e o processo de escolha da tecnologia a ser empregada, são discutidos. A abordagem sistematizada desses assuntos, inserida dentro do contexto internacional atual que é propício ao livre fluxo de transações comerciais, torna-se oportuna e de interesse direto para a concepção de estratégias de desenvolvimentos tecnológicos autóctones destinadas à Defesa Nacional. Abstract This text presents definitions of terms related to research and development in order to debate its influence on the National Defense, as well as it makes a reviw of a few of them. It also mentions subjects such as: science, technology, innovation, research and development, transfer of technology and process of technology chosen. Keywords Science. Technology. Innovation. Research and development. National defense. DISCUSSÃO Definindo Desenvolvimento Científico e Tecnológico Para definir desenvolvimento científico e tecnológico, deve-se compreender em primeiro lugar a concepção básica de ciência e tecnologia (CeT). Ao fazer essa conceituação, alguns autores estabelecem uma dicotomia entre a ciência e a tecnologia definindoas separadamente [5]: Ciência: é o conjunto organizado dos conhecimentos relativos ao universo, que envolvem os fenômenos naturais, ambientais e comportamentais. Tecnologia: é o conjunto organizado de todos os conhecimentos científicos, empíricos ou intuitivos empregados na produção e na comercialização de bens e serviços. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203 197 CMG ARTHUR LOBO DA COSTA RUIZ, M. SC. Em tese, então, a ciência seria totalmente desvinculada de objetivos práticos. Visaria a apenas descobrir e compreender os fenômenos do universo, distanciando-se da realidade. Quanto à tecnologia, seria apenas a ciência aplicada ao mundo real, o que estabelece, então, a separação entre elas. O autor ressalta [5], corretamente, a interdependência cada vez maior entre a ciência e a tecnologia e afirma a existência de conectividade entre elas ao reconhecer a imperfeição da definição apresentada. Com o intuito de visualizar essa incorreção, apresentase o seguinte exemplo: para o desenvolvimento do microfone, como conhecemos hoje, foi necessário estabelecer – antes – uma quantidade enorme de teorias multidisciplinares como a física do som, cerâmicas piezelétricas, eletricidade, mecânica e outras, mesmo sem o objetivo de desenvolver um equipamento que possibilitasse propagar a voz humana. Isso seria a Ciência. Para construir o microfone foi necessário o trabalho de técnicos e trabalhadores industriais que, por meio da experiência acumulada do conhecimento de processos laboratoriais, passados de gerações a gerações, contribuíram para torná-lo uma realidade prática. Isso seria a tecnologia. Ao analisar o exemplo acima, fica clara a relação interdependente entre a ciência e a tecnologia no desenvolvimento/aperfeiçoamento de produtos. Percebe-se que o desenvolvimento científico interage com o desenvolvimento tecnológico. O conhecimento científico sofre uma espécie de simbiose com a experiência técnica em um eterno ir e vir nas duas direções, sendo necessária a ocorrência de elos entre conhecimentos científicos (nas salas de aulas) e conhecimentos tecnológicos (práticos nos laboratórios). Com efeito, a revolução científica ocorrida nos séculos XVI e XVII criou o cientista experimental moderno, que necessita do experimento para obter a experiência e realiza a união inseparável da técnica com o saber [6]. Alguns autores [2] chamam a atenção que a difusão de uma invenção ultrapassa em importância ao da invenção original, pois a tecnologia gera mais tecnologia. É a chamada inovação. A inovação é a agregação de novos conceitos que possibilitam novas utilizações que, por vezes, superam em importância a 198 própria invenção original. A roda, comprovada pela primeira vez por volta de 3.400 a.C. perto do mar Negro [2], tem recebido uma série de inovações através dos tempos, que possibilitaram a criação de novas ferramentas, em um efeito em cascata. A inovação é exógena à concepção científica original e é resultante de novas necessidades ou novas percepções. É possível obter outro conceito de desenvolvimento científico e tecnológico ao recorrer à interpretação da concepção aristotélica de saber, estabelecida no texto Metafísica, principal obra do filósofo Aristóteles [4]. Aristóteles vê o conhecimento como um processo linear e sem rupturas. Nesse processo, a primeira etapa do conhecimento é a “experiência”. A “experiência” é o conhecimento prático baseado na repetição. Seria o “saber fazer” ou o know how. A etapa seguinte seria a “técnica”, onde o conhecimento das regras permite produzir determinados resultados, saber “o porquê das coisas” ou o know why. Importante notar que o ensinamento implica na transmissão de regras e de relações causais, portanto é necessário atingir o nível da técnica para poder ensinar. A etapa mais elevada do processo do conhecimento seria a “ciência” ou o “saber teórico”. Nesse nível, segundo as interpretações dos textos de Aristóteles, têm-se o conhecimento de conceitos e princípios, que se caracteriza por ser uma atividade contemplativa e totalmente desvinculada da prática. Acima da “ciência”, ainda segundo Aristóteles, só a “filosofia”, que seria uma ciência ainda mais elevada, dedicada às causas fundamentais e universais. Mais tarde, pensadores como Galileu Galilei e Francis Bacon, compromissados com questões do mundo real, perceberam a “ciência” e a “técnica” como um processo interativo para a obtenção de resultados práticos, a colher frutos advindos do processo do conhecimento linear. É possível interpretar que o filósofo tenha concebido duas ciências: uma mais elevada que a outra. A primeira, o “saber teórico”, seria uma ciência mais limitada a um campo específico do conhecimento e mais próxima da realidade, mas ainda vinculada a um caráter contemplativo e abstrato. E a outra ciência, a “filosofia”, mais próxima das causas universais, a chamada “filosofia primeira”. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203 CONTRIBUIÇÕES ESPECIAIS Para a Defesa Nacional, fica claro o interesse imediato no “saber teórico”, de utilidade mais momentânea e destinada a gerar produtos e serviços. À “filosofia primeira” ou “ciência pura” cabe também seu lugar e importância, sendo, sem dúvida, merecedora de incentivos e investimentos, que manterão o lugar cativo e de destaque nas Universidades. Ao fim da discussão, pode-se, então, definir os termos: Tecnologia: é a etapa do conhecimento que congrega o “saber fazer” ou o know how e o “saber o porquê das coisas” ou o know why. Ciência: é a etapa do conhecimento do “saber teórico” ou da “ciência aplicada”. Conseqüentemente, chega-se a: Desenvolvimento científico e tecnológico: é o progresso conjunto de todas as etapas do conhecimento – o “saber fazer”, o “saber o porquê das coisas” e o “saber teórico” – necessárias e suficientes ao desenvolvimento autônomo de uma área específica de interesse. A transferência de tecnologia É natural para as Forças Armadas (FA) o interesse em tecnologia. Os profissionais da guerra percebem instintivamente que a tecnologia possibilita vantagens militares decisivas, sendo de seu interesse e do país a modernização dos sistemas de defesa. Quando fazem análises prospectivas, estudiosos militares examinam as guerras passadas e observam atentamente o efeito do uso de novas armas nos conflitos que acontecem no momento. Em um contexto de nova ordem (ou desordem)1 mundial, os países em desenvolvimento, dentro de seus legítimos direitos, esforçam-se para atualizar os arsenais militares, de maneira a proporcionar a dissuasão aos potenciais rivais, na chamada corrida armamentista. Esses países, que não possuem tecnologia própria, e contam com escassos recursos financeiros, nem sempre têm a opção de compra de produtos militares que sejam otimizados para suas necessidades. Durante a negociação de venda, é comum às potências centrais agregarem aos produtos militares facilidades financeiras de financiamento. Dessa maneira, os países Notas de aula da disciplina “História” ministrada pelo Prof. Francisco Carlos. Curso MBA da COPPEAD/UFRJ ministrado na Escola de Guerra Naval em 2005. 1 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203 dependentes de tecnologia são levados a adquirir equipamentos nem sempre os mais adequados aos objetivos nacionais apenas por conveniências econômicas. Uma possibilidade estratégica a ser empregada é a transferência de tecnologia. O país comprador de produto militar tenta valorizar sua compra ao incluir nos contratos cláusulas de transferência de tecnologia, visando a uma posterior produção autóctone e à conseqüente diminuição de sua dependência externa em caso de conflitos. Nesse momento, de acordo com as definições anteriores, é útil enunciar-se a expressão “transferência de tecnologia”. Transferência de tecnologia: é o processo em que se passa ou se recebe, integralmente, as etapas do conhecimento do “saber fazer” (know how) e do “saber o porquê das coisas” (know why) sobre determinado produto, processo ou sistema. Nesse processo de transferência tecnológica, é importante a conjugação do “saber fazer”, para possibilitar a construção física do objeto de interesse, e o “saber o porquê das coisas”, para o entendimento do quê se faz e possibilitar, também, a disseminação dos conhecimentos adquiridos. Todo o ciclo de passagem tecnológico só irá culminar com a construção física e autônoma do objeto de interesse. Percebe-se que não se utiliza o termo “transferência de ciência aplicada”, apesar de ser um processo igualmente desejável. Para isso seria necessária a movimentação física da pessoa ou das equipes que detém o conhecimento teórico. Um bom exemplo dessa prática foi a remoção “voluntária” de cientistas alemães para a Rússia e para os Estados Unidos ao se encerrar o conflito da Segunda Guerra Mundial. Esses especialistas foram de fundamental importância na corrida armamentista que se iniciou com a guerra fria, notadamente nas áreas aeroespacial e atômica. Para o tema aqui abordado, deve-se ter em mente que desenvolvimento científico e tecnológico não ambiciona atingir, em um primeiro momento, graus elevados de ineditismo. Pode ser desejável, no início do processo, o desenvolvimento de uma tecnologia mais simples, haja vista que a prioridade das FA seria a de obter algum poder de dissuasão e de reduzir, também, a dependência tecnológica existente em relação a países dotados de tecnologia mais avançada. 199 CMG ARTHUR LOBO DA COSTA RUIZ, M. SC. Assim, alguns cuidados devem ser observados na condução do processo de transferência de tecnologia. Existem vários casos de sucessos e de insucessos nesse procedimento. Um exemplo de transferência tecnológica bem-sucedida foi a construção de uma série de submarinos no Brasil conduzida pelo Arsenal de Marinha do Rio de Janeiro (AMRJ). 1975. Naquela época, o governo, em face da demanda energética, firmou com a Alemanha um acordo que buscava não só a construção de oito usinas nucleares, mas também a transferência de tecnologia completa do ciclo do combustível nuclear e de projeto, engenharia e fabricação de componentes de centrais nucleares. O processo foi iniciado em 1979, quando foi estabelecida uma estratégia de longo prazo para a transferência e domínio da tecnologia de construção de submarinos. Para isso, todo o processo do conhecimento foi aquinhoado, desde as áreas de produção, gestão de qualidade, projeto, até o gerenciamento de materiais e manutenção. O programa sofreu atrasos na implantação, o que impediu que fossem atingidos os objetivos previstos originalmente. Uma usina de enriquecimento de urânio foi montada em Resende, RJ, mas nunca efetivamente funcionou, portanto sua viabilidade técnica continua sem a devida comprovação. Na verdade, o processo de enriquecimento de urânio utilizado, denominado jato centrífugo, ainda era experimental e cálculos teóricos demonstraram que o processo não era viável economicamente. Ocorreu que, possivelmente por pressões políticas, o processo do jato centrífugo foi vendido em substituição ao processo de ultracentrifugação originalmente acordado entre as partes. A transferência de tecnologia prevista nunca foi realizada. O planejamento previa o cumprimento de três etapas: 1. construção no exterior de um submarino de projeto alóctone, acompanhado por técnicos e engenheiros do AMRJ; 2. construção no Brasil, por brasileiros, de submarinos a partir do projeto alienígena; e 3. construção no Brasil de submarinos a partir de projetos nacionais. As etapas um e dois foram integralmente executadas, tendo sido lançados ao mar cinco submarinos. O submarino Tupi foi construído na Alemanha em 1987 e incorporado à esquadra em 1989. Seguiu-se a série de lançamentos dos submarinos construídos no AMRJ: Tamoio (1993), Timbira (1996), Tapajó (1998) e Tikuna (2005). Todos os submarinos construídos no Brasil já foram incorporados ao Setor Operativo da Marinha. O processo integral de transferência de tecnologia foi cumprido durante as etapas um e dois e, diante da estratégia estabelecida, é possível, então, passar à autonomia prevista na etapa três. No entanto, o cumprimento dessa terceira etapa estará intimamente ligado à decisão política de dar continuidade ao projeto. Investimentos importantes serão ainda necessários para manter o pessoal capacitado pronto a atuar nas respectivas áreas de especialização e revisar todos os processos de construção até então empregados para, enfim, viabilizar as tarefas de construir e projetar submarinos no Brasil. Como exemplo de insucesso de um processo de transferência de tecnologia, pode-se citar o contrato firmado entre Brasil e Alemanha na área nuclear em 200 Com o advento do fenômeno da globalização e da ratificação, pelo Brasil, do Tratado de NãoProliferação Nuclear (TNP) em setembro de 1998, era esperada maior abertura no processo de transferência tecnológica. No entanto, no que se refere a produtos militares, não houve mudança do panorama anterior de bloqueios nas aquisições de componentes e insumos para o desenvolvimento tecnológico do Brasil. No âmbito da iniciativa privada, a visão é muito parecida como constatam estudos recentes [3] sobre as atividades de CeT na indústria brasileira. Após a globalização, esperava-se uma acelerada disseminação tecnológica, que viria a atuar em três dimensões: a exploração global de tecnologia, a colaboração tecnológica global e a geração global de tecnologia. A realidade constatada, principalmente na área de polímeros, foi diferente. Não foram detectadas, no Brasil, empresas com capital nacional que fossem geradoras de tecnologia. A indústria nacional tem a tendência de contratar tecnologia, por considerar a atividade de pesquisa e desenvolvimento de alto risco e de custo também elevado. Por sua vez, as indústrias multinacionais preferem desenvolver tecnologia nos seus países, e, por isso, não demonstram interesse em REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203 CONTRIBUIÇÕES ESPECIAIS implantar centros de pesquisas e desenvolvimento (PeD) nos países periféricos. Dessa maneira, o setor de polímeros, mesmo após a desestatização ocorrida na “Nova República”, permanece controlado pelas empresas estrangeiras, que ditam os rumos a serem tomados. Constata-se, enfim, que, na verdade, os mercados de maneira geral foram globalizados, mas o desenvolvimento tecnológico ainda pertence à era pré-globalização. A solicitação e registro de patentes é um bom indicador indireto de quanto o conhecimento gerado por governo e empresas está se transformando em inovações tecnológicas – ou seja, em novos produtos ou processos produtivos. Nessa questão de patentes, os últimos indicadores são desanimadores. Dados preliminares de 2005 [9] disponibilizados pela Organização Mundial de Propriedade Intelectual (OMPI) – agência Especializada da Organização das Nações Unidas (ONU) – mostram que o Brasil está estagnado no número de registros internacionais de patentes e está aumentando a sua distância dos demais países “emergentes”. Durante 2005 foram registradas 283 patentes brasileiras, apenas duas a mais que em 2004. Entre as economias emergentes, o aumento de registros em 2005 foi de 20%. Para efeitos comparativos, a Coréia, com 4,7 mil patentes, lidera o grupo. O papel do Estado e a escolha de tecnologia O papel do Estado, direto ou indireto, é crucial no processo de desenvolvimento tecnológico. No setor privado, quando não há incentivo, a indústria de capital nacional permanece inerte e, assim, prefere adquirir tecnologias estrangeiras a desenvolver CeT. Os investimentos nessa área são altos e os retornos incertos. Em vários países, pode-se rastrear a presença do Estado como propulsor do desenvolvimento tecnológico. Existe uma grande concentração de produção científica nos países centrais e foi observado [3] que 85% das atividades de PeD de empresas alemãs, francesas, italianas, japonesas e norte-americanas são desenvolvidas, exclusivamente, no respectivo país de origem. Em qualquer país, o aparato estatal é o principal agente que dispõe dos recursos suficientes e ainda de disposição para suportar os riscos envolvidos. Devido à importância estratégica, existe o interesse estatal em REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203 adquirir vantagens tecnológicas, seguindo um planejamento de longo prazo e mantendo as equipes de CeT em atividade. A liderança governamental do desenvolvimento tecnológico, porém, não significa que a condução do processo deva ser totalmente entregue à iniciativa do Estado. O modelo de desenvolvimento tecnológico exclusivamente estatal não é mais viável, já que a velocidade e a diversidade da P&D de hoje são incompatíveis com a lentidão e a inércia de qualquer administração pública. É necessário agregar vetores da sociedade para aperfeiçoar esse desenvolvimento. Um sistema nacional de ciência e tecnologia envolve três setores principais: o governo, as empresas e as universidades. Essa sistemática foi modelada por Jorge Sábato, que a representou como um triângulo eqüilátero, em cujos vértices são colocados os três setores mencionados. A figura ficou conhecida como “Triângulo de Sábato” [5]. Nesse sistema, teórico e perfeitamente balanceado, o governo traça estratégias, estabelece prioridades de desenvolvimento e fornece o financiamento necessário. Observa-se que, mesmo durante a euforia das políticas neoliberais, a presença estatal permaneceu insubstituível. O setor universitário é o depositário do conhecimento técnico-científico e possibilita a formação de pessoal necessário a suprir, tanto os quadros de funcionários governamentais quanto os da indústria. O setor empresarial faz a junção com o mundo real, ao ficar atento às oportunidades de negócios, aperfeiçoar as técnicas fabris e acrescentar conhecimentos técnicos. Se feita uma analogia com o desenvolvimento tecnológico militar, substitui-se o governo pelas FA. O triângulo de Sábato terá, então, como vértices, as FA, as empresas e as universidades. As FA, que atuam por meio de centros e institutos de pesquisas, irão especificar os equipamentos ou sistemas que necessitam e fazer o acompanhamento técnico dos desenvolvimentos encomendados. As indústrias, que constituem o complexo industrial militar, irão produzir os protótipos do que foi especificado, dentro de padrões de eficiência e de economia, e depois atender às encomendas necessárias das FA. Finalmente, as universidades vão fornecer as pessoas especializadas, que atuarão por meio de convênios específicos com as FA e as empresas. 201 CMG ARTHUR LOBO DA COSTA RUIZ, M. SC. Consolidado o modelo a ser seguido pelas FA, seguese o processo de escolha da tecnologia a ser desenvolvida, ou seja, “o quê” deve ser escolhido (know what). Essa decisão, num ambiente de restrições orçamentárias, atinge elevado grau de importância. No caso das FA, esse processo tem um interesse peculiar devido ao eterno dilema: adquirir o sistema mais moderno, o chamado estado da arte, ou algo mais simples, que melhor se adequaria ao pessoal que vai manuseá-lo que, conseqüentemente, necessita de um apoio logístico viável. Não existe na literatura um processo definitivo para a escolha do produto ou sistema que melhor atenderia aos propósitos das FA, porém, é possível ter uma idéia inicial que oriente a discussão, baseada em algumas considerações sobre a avaliação operacional de sistemas apresentada por Mario J. F. Braga [1]. No modelo apresentado, o sistema tem três entradas e uma saída. As entradas seriam o desempenho, o aprestamento e o emprego, e a saída, a eficácia, assim definidos: Desempenho: é a medida física que descreve as possibilidades do sistema quando em perfeito funcionamento e empregado de maneira correta. Aprestamento: é a medida que mensura a capacidade do sistema de estar pronto a ser utilizado quando solicitado e a sua capacidade de se manter pronto enquanto necessário. É uma medida ligada diretamente à sua necessidade de apoio logístico. Emprego: é a medida da componente humana a atuar positiva ou negativamente na eficácia do sistema. Eficácia: medida do atendimento do propósito ou finalidade para que o sistema foi concebido. É importante notar o caráter de uma operação matemática de produto do sistema, que poderá resultar em uma saída (eficácia) nula, se qualquer um dos componentes de entrada (desempenho, aprestamento ou emprego) for de valor zero. Ou seja, pode-se adquirir o sistema mais moderno e sofisticado existente no mercado, mas, se o pessoal não for qualificado para operá-lo corretamente, sua eficácia será nula. Da mesma maneira, um equipamento poderá funcionar muito bem em seu país de origem, perto de sobressalentes e de engenheiros e técnicos que o conheçam bem, enquanto que em terras distantes esse apoio pode se tornar impossível. 202 Todas essas considerações devem ser levadas em conta no processo de escolha do sistema bélico a ser adquirido, com previsão ou não de transferência de tecnologia. Às vezes, um produto menos sofisticado e mais barato pode ser mais eficaz que outro dotado de sofisticação, porém de difícil manuseio e que necessite de intenso apoio logístico. CONCLUSÕES Neste trabalho foram discutidas e atualizadas as conceituações dos termos Ciência, Tecnologia, Inovação e Transferência de Tecnologia. Foi verificado que esse último reveste-se de um caráter de maior importância para a Defesa Nacional, uma vez que se trata de uma expressão amplamente utilizada nos meios de desenvolvimento tecnológico quando celebram contratos e convênios de C&T. O conceito também demonstra utilidade por ocasião de compras de sistemas e equipamentos militares, onde se pretenda que ocorra a transferência de tecnologia como cláusula de offset 2. A transferência de tecnologia foi abordada com a apresentação de casos de sucesso e de insucesso de transferência tecnológica. No contexto da iniciativa privada, foi verificado o caso da indústria de polímeros. Há a constatação – na literatura – de que os mercados de maneira geral foram globalizados, porém a tão esperada parceria no campo do desenvolvimento tecnológico permaneceu na era pré-globalização, ou seja, a geração de tecnologia continua como prerrogativa exclusiva dos países-sede de multinacionais do setor. Como modelo de sistemática de desenvolvimento tecnológico nacional, foi apresentado o “Triângulo de Sábato”. Nesse modelo, a presença do Estado tornase primordial, como definidor de políticas e incentivador direta ou indiretamente do desenvolvimento tecnológico. Também foi colhido na literatura um modelo de auxílio do processo de escolha de sistemas militares. Ele é baseado em atribuições de valores de desempenho, aprestamento e emprego, que resulta em medida de eficácia do sistema bélico examinado. Verificou-se que um produto menos sofisticado, advindo de produção autóctone, pode ser mais eficaz 2 Contrapartidas ou compensações por compras ou aquisições. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203 CONTRIBUIÇÕES ESPECIAIS que um similar importado que necessite de pessoal mais habilitado e de apoio logístico sofisticado. Toda essa discussão sobre escolha, transferência de tecnologia e a importância do Estado, como mostrado, leva a co]nclusão que as decisões nesse campo devam partir de uma política estratégica abrangente e de nível nacional [8]. REFERÊNCIAS 1. BRAGA, Mario J. F. Considerações sobre avaliação operacional de sistemas. Revista Pesquisa Naval, n. 2, p.47, out.1989. 2. DIAMONT, Jared M. Armas, germes e aço: os destinos das sociedades humanas. Rio de Janeiro: Record, 2001. 3. HEMAIS, Carlos A.; ROSA, Elizabeth O. R. e BARROS, Henrique M. A não-globalização tecnológica da indústria brasileira de polímeros medida por meio de patentes. Revista de Administração Contemporânea, V.3, n.3, p.157, set.1999. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203 4. MARCONDES, Danilo. Iniciação à história da filosofia: dos présocráticos a Wittgenstein. Rio de Janeiro: Jorge Zahar, 2005. 5. PIRRÓ E LONGO, Wladimir. Brasil: 500 anos. Belém do Pará, Universidade da Amazônia, 2000. V.2 – O desenvolvimento científico e tecnológico do Brasil e suas perspectivas frente aos desafios do mundo moderno. 6. REALE, Giovanni; ANTISIERI, Dani. História da Filosofia. São Paulo: Paulinas, 1990. 7. RUIZ, Arthur L. da C. A possível independência do Poder Naval de fontes externas e a orientação do desenvolvimento científico e tecnológico. 1995. Ensaio (C-SGN) – Curso Superior de Guerra Naval, Escola de Guerra Naval, Rio de Janeiro, 1995. 8. RUIZ, Arthur L. da C. Os sistemas científicos e tecnológicos do Ministério da Defesa e do Ministério da Ciência e Tecnologia. Possíveis parcerias com a Marinha. 2005. Monografia (C-PEM) – Curso de Política e Estratégia Marítimas, Escola de Guerra Naval, Rio de Janeiro, 2005. 9. JORNAL Folha de São Paulo. Ciência avança no país. Mas não gera riqueza. Reportagem de Marcelo Billi; publicado em 12 de fevereiro de 2006. 203 CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA A Antártica e o Brasil Contra-Almirante José Eduardo Borges de Souza Secretrário da Comissão Interministerial para Recursos do Mar E-mail: http://www.secirm.mar.mil.br Resumo: A região antártica tem um papel essencial nos sistemas naturais globais. Ao longo dos últimos vinte anos, importantes observações científicas, dentre as quais as relativas à redução da camada protetora de ozônio da atmosfera, à poluição atmosférica e à desintegração parcial do gelo na periferia do continente, evidenciaram a sensibilidade da região polar austral às mudanças climáticas globais. Cabe destaque a importância política e estratégica de o Brasil ser ator importante nas discussões sobre as garantias de uso da Antártica para fins pacíficos; na ordenação das investigações científicas e da cooperação internacional; na conservação dos recursos vivos; nas medidas de proteção ambiental; nas questões relativas ao ordenamento jurídico sobre pretensões de toda a ordem. A presença brasileira na Antártica, por meio da execução de um poderoso e bem sucedido programa do Estado brasileiro O PROANTAR, defende interesses nacionais no Continente Gelado e é um instrumento de projeção do país no cenário internacional. Palavras-chave Antártica; Brasil; Proantar; estratégia; meio ambiente. Antarctica and Brazil Abstract The Antarctica region plays an essential role in global natural systems. Throughout the past twenty years, important scientific researches, amongst which the ones related to the reduction of the atmosphere protective ozone layer, to the atmospheric pollution and to the partial continent periphery deicing, have brought up the sensitivity of the austral polar region to global climatic changes. Strategically and politically, Brazil must be an important actor on the discussions on the guarantees of the use of Antarctica for pacific ends; on scientific researches and international cooperation; on the conservation of natural resources; on the measures for environmental protection; on legal matters and all other agendas. The Brazilian presence in Antarctica, by means of the execution of a powerful and successful state program - the PROANTAR, defends national interests in the Continent and is an instrument of projection of the country in the international scene. Keywords Antarctica; Brazil; PROANTAR; Strategy; Environment. 204 INTRODUÇÃO Sempre houve, por parte do Brasil, interesse na Antártica. Somos o sétimo país mais próximo daquele continente; os fenômenos meteorológicos e oceanográficos brasileiros são influenciados pela imensa massa de gelo antártico; a abundância de fauna marinha é um celeiro que, se racionalmente explorado, se tornará uma importante fonte de alimentação por período indeterminado; a perspectiva da existência de grandes reservas de gás, petróleo e minerais excitam os interesses econômico e estratégico, assim como o fato de a região da Península ser próxima às rotas do Cabo e dos estreitos de Drake e Magalhães, onde a intensificação do tráfego marítimo tem significado especial para o Brasil, que comercializa 95% de seus produtos por via marítima. Sendo o único continente em que a vida humana foi impossível desde o aparecimento do homem até o advento da tecnologia, tornou-se uma região sem divisão geopolítica, sem o emprego do conceito de propriedade, tornando-se aberto a conquistas e ao interesse da comunidade internacional. Atualmente, regulado por um tratado internacional, o Tratado da Antártica, que entrou em vigor em 1961, o continente está livre de ambições territorialistas, livre da exploração econômica de suas riquezas continentais e tem sua fauna e flora protegidas, pelo menos até 2048, prazo de vigência do Protocolo de Madri, apenso ao Tratado. Hoje, a Antártica é dedicada à paz e à ciência, palco de inúmeras pesquisas científicas e tecnológicas, e tem seu destino decidido pelo consenso de 29 países, que possuem o título de Membros Consultivos do Tratado da Antártica, o Brasil dentre eles. As preocupações mundiais com o aquecimento global, com a quebra da camada de ozônio e com o aparente desequilíbrio meteorológico, que leva ao aumento da freqüência de aparecimento de fenômenos naturais extremos, deram maior relevância à Antártica, que, pelo seu volume imenso de gelo, é considerada como o “refrigerador” do planeta, tendo papel fundamental no estudo de tais ocorrências. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 CONTRIBUIÇÕES ESPECIAIS Como o homem chegou oficialmente à Antártica somente em 1820, principalmente induzido pela caça às baleias, e no intuito de não aumentar em demasia a concorrência na busca do tão precioso óleo usado em iluminação e dos ossos de baleia empregados na construção civil, o continente foi cercado por lendas, fascínio, curiosidade, medo e esperança, o que retardou a compreensão lógica dos fatores que fazem da região um local tão especial. HISTÓRIA Pitágoras acreditava que o mundo era uma grande circunferência e, quando as terras do Norte foram descobertas pelos gregos e batizadas como ARTIKUS, em homenagem à constelação da Ursa Menor, (ARTIKUS em grego significa URSO), ele conjecturou sobre a existência, no lado oposto do planeta, de uma massa continental que “equilibrasse” a Terra. Referindo-se às terras opostas, chamou-as de “Terra de Antichthon” ou “Antartikos”. Alguns geógrafos na Idade Média esboçavam em seus mapas grandes regiões de terras ao Sul do planeta, chamando-as de Terra Australis, mas somente a partir dos séculos XV e XVI é que começaram a surgir as primeiras descobertas comprobatórias da existência e configuração real da Antártica. Coube ao explorador inglês James Cook a proeza de ser o primeiro a cruzar o círculo antártico, em 17 de janeiro de 1773, porém os mares congelados o impediram de ir mais além. Em 1820 surgem os nomes de Nataline Palmer (norteamericano), Fabiam Thadeus von Bellingshausen (russo) e de Edwrd Brasfield (inglês) como os primeiros exploradores da região, e o de John Davis, pescador americano, como a primeira pessoa a desembarcar na Península Antártica. Embora a possibilidade de realizar descobertas e se apossar de novas terras fossem bons motivos para as aventuras no Sul do planeta, foi sem dúvida o aspecto econômico que mais incentivou as viagens à região na busca das baleias e focas cuja gordura e ossos tinham variadas aplicações no dia-a-dia dos idos dos séculos XVI. Após o período de caça, que se estendeu até meados do século XVIII, teve início uma era de investigações científicas, as quais se intensificaram na década de 30 REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 do século XIX, destacando-se o descobridor do Pólo sul Magnético, o britânico James Clark Ross, e o norteamericano Charles Wilkes, que realizou os mais sistemáticos estudos da região entre os anos de 1838 e 1843, mapeando muitas milhas da costa e identificando espécimes da fauna e da flora. Em 1898, o belga Adrian de Gerlache e sua equipe foram os primeiros a invernarem intencionalmente na Antártica, quando começaram a aparecer os problemas de ordem biológica e psicológica que, até hoje, atacam os homens antárticos, principalmente distúrbios como depressão e insanidade mental. O final do século XIX trouxe o advento do arpão explosivo, que dizimou as baleias do norte, o que redirecionou as atenções dos caçadores para a Antártica em um período conhecido como “anos heróicos”. Nessa mesma época houve o despertar do interesse científico, decorrente do VI Congresso Geográfico Internacional, realizado em 1895, no qual foi enfatizada a necessidade de se dedicar maior atenção à Antártica. Foi incentivada, então, uma corrida para se alcançar o Pólo Sul Geográfico, vencida pelo norueguês Roald Amudsen, às 15 horas de 14 de dezembro de 1911. Emocionado, Amudsen escreveu em seu diário: “assim se rasgou para sempre o véu, e um dos maiores segredos da Terra deixou de existir”. Nessa época de grandes aventuras, foram escritas páginas heróicas e trágicas, como a do inglês Robert Falcon Scott que, com roupas e equipamentos inadequados, perseguido pelo mau tempo, chegou ao Pólo Sul 34 dias após Amudsen, deparando-se com a bandeira norueguesa, o que lhe causou profundo desânimo. Seu retorno à base foi mais demorado do que o previsto e todos os alimentos foram consumidos antes do tempo. Scott e seus companheiros fizeram o último registro em diário em 29 de março de 1912, e foram encontrados congelados em 16 de novembro do mesmo ano. Ernest Shackleton foi outro herói antártico. Em sua tentativa de alcançar o Pólo Sul, teve seu navio, o “Endurance”, esmagado devido ao congelamento do mar. Em suas palavras: “ele estava sendo esmagado. Não instantaneamente, mas devagar, aos poucos. A pressão de dez milhões de toneladas de gelo vinha apertando seus costados e, moribundo, o navio gritava de agonia”. Depois da perda do navio, foram 12 meses de deslocamento em botes e a pé, até alcançarem a Ilha 205 CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA Elefante. Desse ponto, Shackleton e cinco homens se aventuraram em um dos botes na passagem do terrível Estreito de Drake e alcançaram as ilhas Geórgia do Sul. Cruzaram montanhas e chegaram a uma estação baleeira onde organizaram uma nova expedição. Shackleton voltou e, com sucesso, resgatou o restante de sua tripulação. O início da “era tecnológica” foi marcada pelo atingimento do Pólo Sul pelo ar, feito do Almirante norte-americano Richard Byrd, em 29 de novembro de 1929. No cenário internacional, o crescimento da tensão entre o Reino Unido, Argentina e Chile indicou um novo período na história da Antártica, com disputas acirradas de cunho territorialista. O advento do Ano Geofísico Internacional, de 1957 a 1958, foi o ponto de partida para a criação do Tratado da Antártica, que passou a vigorar em 1961, com a participação de 12 países e validade de 30 anos. O Brasil teve sua primeira participação na área Antártica em 1882, com a viagem da Corveta “Parnahyba”, sob o comando do então Capitão-deFragata Luis Philippe de Saldanha da Gama, que levou o Dr. Luis Cruls, Diretor do Obser vatório Astronômico, por ordem do Imperador D. Pedro II, para observar a passagem do planeta Vênus pelo disco solar. Em novembro de 1961, o Professor Rubens Junqueira Vilella, meteorologista, foi o primeiro brasileiro a pisar no Pólo Sul, sendo tal façanha raras vezes repetida por brasileiros até o tempo presente. Em 16 de maio de 1975, o Brasil aderiu ao Tratado da Antártica, ainda sem direito a voto. Realizou sua primeira expedição científica, com a participação do NApOc “Barão de Teffé”, de dezembro de 1982 a janeiro de 1983, e foi admitido como Membro Consultivo do Tratado em setembro de 1983, passando a ter direito a voz e voto nas decisões sobre o futuro do Continente Gelado. Em 6 de fevereiro de 1984 foi inaugurada a Estação Antártica Brasileira Comandante Ferraz e, nesse mesmo ano, o país aderiu ao Scientific Commitee on Antarctic Research – SCAR. No âmbito interno, o Brasil estabeleceu sua política Antártica – POLANTAR, e criou o Programa Antártico Brasileiro – PROANTAR, em 1982. 206 Ainda em 1982 criou a Comissão Nacional para Assuntos Antárticos – CONANTAR e, em 1984 o Comitê Nacional de Pesquisas Antárticas – CONAPA. O Presidente da República atribuiu, em 1982, à Comissão Interministerial para os Recursos do Mar – CIRM – a tarefa de implementar o PROANTAR, que completa em 2007 seu Jubileu de Prata. Embora o Tratado da Antártica tenha congelado as reivindicações territorialistas e impedido, ou retardado, possíveis confrontos, além de preservar o meio ambiente antártico de uma exploração desenfreada, proclamando a dedicação ao continente à paz e à ciência, ainda são significativamente importantes as posturas de várias nações em relação aos interesses na região, que podem se resumir em três grandes categorias: estratégica, científica e econômica. GEOGRAFIA De acordo com a Teoria da Deriva Continental, proposta por Alfred Wegener, na gênesis do planeta todos os continentes estavam unidos num único bloco, chamado Pangea que, por pressões geológicas e geofísicas, teria se partido, a princípio, em três porções. Uma dessas porções, chamada de Godwana, incluía as atuais América do Sul, África, Austrália, Índia e Antártica, esta última ocupando o centro do sistema. Novas pressões fracionaram a Terra de Godwana, e a Antártica foi o bloco que derivou mais para o sul. Os estudos relacionados à Paleontologia têm auxiliado na comprovação da Teoria de Wegener. A similaridade dos achados fósseis contemporâneos é indicação significativa para concretizar a realidade de Godwana. A Antártica está praticamente circunscrita pelo Círculo polar Antártico (66º 33’ S), e a massa continental mais próxima é a América do Sul. A distância entre a Terra do Fogo e a Península Antártica é de aproximadamente 1000km, na área denominada passagem de Drake. É possível identificar no continente áreas insulares e continentais, todas cobertas por grande manto de gelo. A Antártica possui um grande domo de gelo no altiplano glacial, com mais de 4800m de espessura em alguns locais. A oeste abriga uma depressão que, devido ao fantástico peso de 18 milhões de km3 de gelo, se estende a 2500m de profundidade abaixo do nível do mar. A leste, na porção que fica no hemisfério REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 CONTRIBUIÇÕES ESPECIAIS oriental, o alto planalto polar tem elevações que atingem 1500m de altitude, formadas por rochas subglaciais cobertas por 3800m de gelo. A espessura média da camada de gelo é de 2,1km, sendo que, na região do Domo de Charlie, a calota de gelo alcança sua maior espessura, com 4776m. Na tentativa de classificar, reconhecer e delimitar a Antártica, muitos geólogos e geógrafos adotam as montanhas transantárticas (supostamente uma continuidade dos Andes) como a barreira física que permite a divisão do continente em duas porções: a leste (oriental), ou Grande Antártica – coberta por um domo de gelo irregular sobre uma massa continental contínua; e a oeste (ocidental), ou Pequena Antártica, com cerca da metade do tamanho, inclui a Península Antártica e duas grandes barreiras de gelo, Ross e Filchner, sendo sua conformação mais irregular, com o aparecimento de muitas ilhas. A Grande Antártica, separada da Pequena Antártica pela Cadeia Transantártica, é uma massa continental enorme, onde se encontram formações as mais diversas: regiões secas – típicos desertos – sem vegetação, sem gelo e sem água: formações lacustres, como o lago Vanda com 7,2km de comprimento, 70m de profundidade média e cobertura permanente de gelo. A umidade relativa do ar do continente é de 0,2%, sendo, pois, extremamente seco e frio. A média anual de chuvas é da ordem de 1,5cm anuais, o que é comparável ao deserto de Gobi. No lago Vanda ocorre um interessante fenômeno. Como suas águas são as mais claras e transparentes do mundo, permitem a passagem da luz solar, de modo que a temperatura do fundo chega a 25ºC, enquanto que a temperatura de sua superfície é de – 18ºC. A Antártica possui cerca de 14 milhões de km2 de superfície, sendo que 98% são recobertas de gelo. Isso equivale a 1,6 vezes o tamanho do Brasil. No inverno, com o congelamento dos mares em seu entorno – fenômeno chamado de “pack-ice” – a área do continente alcança 30 milhões de km2 . A espessura do “pack-ice” varia de 1 a 10 metros, dependendo da idade e distância do litoral. Grande parte da costa antártica é circundada por plataformas de gelo que são partes flutuantes do manto de gelo e têm até 1200m de espessura. Nas frentes REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 dessas plataformas se formam os maiores icebergs, alguns com mais de 100km de comprimento. O Brasil concentra suas atividades na Península Antártica, cordilheira com 1500m de altitude média e 2500km de extensão, assim como grande parte dos países que desenvolvem pesquisas naquele continente. Isso se justifica em função dessa região apresentar condições climáticas mais amenas e por ser, geograficamente, mais acessível. A Península é a única massa continental que está fora do limite do Círculo Polar Antártico e é banhada pelos mares de Weddell e de Bellinghausen. Ela é de formação vulcânica ainda ativa com a última erupção tendo ocorrido em 1978, no vulcão da Ilha Deception. É de interesse particular do Brasil a Ilha Rei George, onde se encontram as edificações brasileiras. São 1338km2 de praias e montanhas, com apenas 26km2 livres de gelo, exatamente junto ao mar em uma estreita faixa de terra. Possui topografia acidentada e tem o seu pico máximo a 575m de altitude. Suas elevações representam bem a paisagem típica da Antártica, com grandes glaciares e “nunatacs” – palavra de origem esquimó que designa os picos arredondados de rocha ígnea que sobressaem nas camadas de neve. Com as características descritas acima, a Antártica ganhou a classificação de Terra dos Superlativos. É a região mais remota, mais desértica, mais estéril, de mais alta superfície média e mais inabitável do planeta. CLIMA A distribuição da temperatura média anual na Antártica apresenta predomínio de baixas temperaturas no interior: entre – 25ºC e – 45ºC. É na Antártica oriental onde ocorrem as menores temperaturas devido às maiores elevações. No verão, as médias são de –35ºC no platô antártico e de 0ºC na costa. No inverno, as médias são de – 55ºC no platô e de – 25ºC no litoral. A menor temperatura registrada na Terra foi de – 89,2ºC, em 23 de julho de 1983, na estação antártica russa de Vostok. Na Antártica existem muitos centros de baixas pressões distribuídos em um cinturão coincidente com o paralelo de 65ºS. 207 CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA No interior existe um anticiclone permanente, isto é, um centro de alta pressão, responsável pela estabilidade atmosférica naquela região, implicando escassa precipitação e ventos constantes que podem alcançar até 200km/h, o que transforma a Antártica no continente mais ventoso do planeta. A nossa região de interesse, a Península Antártica e o Estreito de Drake, está na rota dos centros de baixa pressão atmosférica, sempre associados a ventos fortes de norte a oeste, precipitação e mau tempo. Centros de alta pressão também passam na região e são associados a massas de ar frio do sul, ou quente do norte, com ventos amenos. A forte característica da região é a mudança rápida de situação, podendo ocorrer várias vezes em uma mesma semana, causando constantes variações de tempo, que podem se tornar dramáticas, com gradientes de pressão intensos e com ventos superiores a 150Km/h. Na Ilha Rei George, onde se localiza a Estação Antártica Comandante Ferraz – EACF, as temperaturas extremas registradas foram de – 32ºC e + 14,9ºC. É nessa região, Península e Estreito de Drake, que se encontra a Zona de Convergência Antártica, onde águas frias do oceano Austral submergem sob as águas mais quentes dos oceanos Atlântico e Pacífico, afetando as condições climáticas locais. O fato de a temperatura ao norte da Península ser próxima de 0ºC, mesmo em alguns eventos no inverno, cria regularmente condições para a formação de nuvens, nevoeiros e precipitação nas formas de chuva e neve. Esses fenômenos tornam a previsão do tempo nessa região muito complexa, requerendo grande vivência prática e boa formação teórica dos previsores na interpretação de dados e dos resultados de modelos numéricos. A Antártica é a região do planeta mais sensível às mudanças globais. É lá que percebemos primeiro as alterações que a Terra vem sofrendo. É lá, na Península Antártica, que aparecem os primeiros sinais de alterações climáticas. A primeira evidência de que a atividade humana está alterando as condições de vida no planeta foi a descoberta do buraco de ozônio, na Antártica, em 1985. 208 A EACF, na Ilha Rei George, na orla marítima, longe dos rigores do continente, permite ao Brasil uma posição privilegiada para desenvolver pesquisas sobre mudanças climáticas e ambientais e de suas conseqüências em diversos ramos da ciência. Uma abordagem didática da variabilidade do clima e a retrospectiva do registro das mudanças climáticas naturais e antropogênicas na história recente da Terra possibilitam conectar o atual quadro de mudanças climáticas com as futuras alterações climáticas na Antártica, e entender como essas mudanças afetarão, principalmente, o Brasil. FAUNA E FLORA Apesar das condições extremas, a vida dentro d’água, na costa da Antártica, é surpreendentemente rica, principalmente nas áreas livres de gelo. A vida animal limita-se a seres que estão vinculados ao mar, nele tendo seu habitat ou dele retirando seu alimento. As comunidades terrestres são pobres, em contraste com a vida marinha. Por existirem poucas alternativas alimentares, qualquer quebra na cadeia trófica terá conseqüências imediatas em várias populações. A cadeia alimentar antártica é baseada no camarão, o krill, que existe em tal quantidade quanto o peso de todos os seres humanos. A Convergência Antártica é uma grande barreira à movimentação de espécies, exceto para a baleia que se desloca entre a Antártica e os Trópicos. A grande maioria dos pingüins, focas, aves e peixes, no entanto, vivem permanentemente dentro da Convergência Antártica. Os organismos antárticos muitas vezes são considerados endêmicos, ou seja, vivem somente naquela região. A vida marinha é muito rica desde a superfície até o fundo, de regiões rasas até regiões abissais, sendo que muitos espécimes são maiores do que em regiões tropicais, talvez por crescerem lentamente e assim atingirem um tamanho grande ao longo de seu desenvolvimento. Esse fenômeno é conhecido como gigantismo dos organismos antárticos. Assim, no mar houve evolução e adaptação dos organismos criando um paraíso para a pesquisa. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 CONTRIBUIÇÕES ESPECIAIS Os mamíferos marinhos ainda preservam características específicas dos mamíferos terrestres dos quais se originaram (respiração pulmonar, fecundação interna, homeotermia e lactação) apesar de viverem muito ou todo o tempo na água. Nesse grupo estão as baleias, golfinhos, focas, lobos e leões-marinhos, morsas, peixe-boi e lontras. Eles se adaptaram às mudanças extremas do ambiente físico e biológico do oceano Austral, apresentando ciclos de vida relativamente longos e suportando variações na abundância de alimento em escalas de tempo e espaço grandes. As espécies migratórias são as baleia-jubarte, baleiaazul, baleia-mink e machos de cachalote. A razão de essas espécies se dirigirem para a Antártica é a fartura de alimento, principalmente o krill. A orca também é freqüentemente vista no verão antártico, mas ela se alimenta mais de pingüins e focas. O Brasil vem estudando a diversidade e a abundância de cetáceos na região da Península Antártica, além de estudos direcionados à migração, deslocamento, contaminação e o reconhecimento de indivíduos da baleia-jubarte. No fundo do mar, de um azul escuro, é muito grande a variedade e a quantidade de estrelas-do-mar, corais, esponjas, mariscos, vieiras e peixes de pequeno tamanho. É um ambiente altamente produtivo, com plânctons e pequenos camarões, que se proliferam durante o verão. Os peixes, que resistem às baixíssimas temperaturas, sem se congelarem, são uma importante fonte de pesquisas, assim como os fictoplânctons, essenciais para a fotossíntese global do planeta. É em terra, no entanto, que identificamos o símbolo da Antártica: o pingüim. Com seu andar cambaleante e seu “traje de gala”, representa, de forma simpática, o continente branco. Distribuídos em cerca de 25 espécies, possuem altura média de 70 cm, com exceção do pingüim imperador que alcança até 1,12m de altura. Algumas espécies de pingüins costumam nidificar em grupo, em locais denominados pingüineiras, às vezes dividindo o espaço com outras aves. A maioria das aves é oceânica, principalmente pela dificuldade em obter alimento no continente. Dentre REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 as mais comuns temos os petréis, as skuas, as gaivotas, as andorinhas-do-mar e as pombas. O petrel gigante tem envergadura de até 2,5m e as skuas são consideradas os urubus antárticos, já que são rapineiras. A andorinha-do-mar, com apenas 38cm de comprimento, voa todos os anos da Antártica para o Ártico, fugindo dos invernos. Já as pombas, que se alimentam de fezes nas pingüineiras, são pequenas e atacam os filhotes de pingüins. Enquanto a fauna mostra-se rica e significativa, a flora, mais tímida, não inclui vegetais superiores, resumindose à ocorrência de poucas espécies de gramíneas na Península Antártica, mais úmida e mais apropriada para a vida. No mais são algas, musgos e líquenes, estes últimos tirando, com sua policromia, a monotonia da paisagem do verão antártico. As algas marinhas chegam a formar espessas camadas ao longo das praias, enquanto que as terrestres desenvolvem-se pelas geleiras. Os musgos têm seu habitat natural em locais abrigados dos fortes ventos, formando massas compactas, enquanto que os líquenes – constituindo a maioria das espécies vegetais – vivem fortemente aderidos às rochas. A dificuldade no desenvolvimento de formas de vida vegetal deve-se não somente às condições climáticas extremas como também à pobreza do solo. No entanto, locais freqüentados por pingüins, ou outros animais antárticos, são potencialmente favoráveis para o desenvolvimento de vegetação, visto a nidificação favorecer o enriquecimento do solo pelo acúmulo de dejetos. RELEVÂNCIA DA ANTÁRTICA INTERESSE CIENTÍFICO A região antártica tem um papel essencial nos sistemas naturais globais. Ao longo dos últimos vinte anos, importantes observações científicas, dentre as quais as relativas à redução da camada protetora de ozônio da atmosfera, à poluição atmosférica e à desintegração parcial do gelo na periferia do continente, evidenciaram a sensibilidade da região polar austral às mudanças climáticas globais. Em uma dimensão mais ampla, a grandiosidade e vastidão do continente antártico, seus valores naturais e agreste, praticamente intocados pelo homem, por si 209 CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA só constituem um precioso patrimônio de toda a humanidade que cabe preservar. Inúmeras razões tornam a Antártica de excepcional interesse para a pesquisa científica. Algumas das mais notáveis são: – a região antártica é um dos principais controladores do sistema climático global. A região atua como o principal sorvedouro do calor que chega à Terra; – o gelo polar constitui o melhor arquivo da evolução do clima e da atmosfera ao longo de centenas de milhares de anos e com alto grau de resolução. Estudos geoquímicos de testemunhos de gelo permitem reconstituir a história de todos os elementos jogados na atmosfera pelo homem e pela natureza; – a posição polar do continente e a configuração do campo magnético da Terra propiciam condições excepcionais para estudos atmosféricos e do geoespaço; – dados meteorológicos antárticos são essenciais para o entendimento do sistema e elaboração de modelo climático do hemisfério Sul; e – o oceano Austral tem um papel importante na absorção de CO2. Cientistas estimam que 70% da água fresca do mundo e 90% de toda a água potável estão na Antártica. Os estudos dos peixes antárticos representam, além da possibilidade do aproveitamento econômico, lições dadas pela adaptação ao frio, alimentação energeticamente limitada e ciclos de vida lentos com alta longevidade e escassa fecundidade. O estudo com as aves depara-se com importantes questionamentos tais como a sobrevivência do pingüim imperador, único animal antártico a permanecer no interior do continente no inverno, ou sobre as pequenas aves que transitam entre o Ártico e a Antártica. O homem também é alvo de estudos quanto à sua adaptação ao meio ambiente e às suas modificações metabólicas e psicológicas quando no isolamento antártico. A geologia busca a potencialidade de recursos minerais. A glaciologia analisa as camadas de deposição de neve e desvenda a história do planeta. Nas perfurações, quanto mais profundo mais antiga a informação obtida. 210 A análise de fósseis também contribui com o conhecimento da história da Terra, que vem comprovando, inclusive, a existência, em tempos remotos, de uma floresta em grande parte daquele continente. Embora classificado em grandes áreas, os estudos na Antártica assumem caráter de multidisciplinaridade, principalmente quando a temática trata de assuntos ecológicos. Os estudos científicos têm sido o elo entre os muitos países que atuam na Antártica, porém, é o interesse econômico, inegavelmente, que impulsiona as atividades ali desnvolvidas. INTERESSE ECONÔMICO Conforme mencionado anteriormente, as primeiras viagens à Antártica foram induzidas pelo interesse na caça às baleias e focas, pelo valor econômico da gordura e dos ossos. Com o fortalecimento da teoria da Terra de Godwana, aumenta a expectativa de se encontrarem recursos minerais semelhantes àqueles do sul da África – ouro e diamantes – embora ainda pairem dúvidas sobre essa acertiva. Mesmo havendo cautela nas afirmações sobre as potencialidades minerais da Antártica – somente as pesquisas darão o veredito – são fortes os indícios da existência de ouro, prata, carvão, ferro, urânio, manganês e petróleo, conforme indícios encontrados da Península Fields, na Ilha Rei George. Uma riqueza, no entanto, não pode ser contestada: a imensa reserva de água doce. Existe em tal quantidade que já se realizaram tentativas de rebocar icebergs para nações ricas em petróleo e pobres em água, localizadas no oriente Médio. Os peixes e outros animais marinhos continuam sendo alvo de pesca em larga escala, representando poderoso mercado. É oportuno destacar que o Protocolo de Madri, que foi adotado em 1991 e entrou em vigor em 1998, proibiu a exploração econômica do continente por 50 anos. No entanto, destaca-se que o investimento tecnológico, necessário tanto à exploração mineral como de alimentos, somente tornar-se-á rentável se forem realmente confirmadas as especulações sobre a quantidade de tais recursos. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 CONTRIBUIÇÕES ESPECIAIS INTERESSE POLITICO E ESTRATÉGICO permite conhecer melhor o que acontece nas águas jurisdicionais brasileiras e com o nosso pescado. Não resta dúvida sobre a importância política e estratégica de o Brasil ser ator importante nas discussões sobre as garantias de uso da Antártica para fins pacíficos; na ordenação das investigações científicas e da cooperação internacional; na conservação dos recursos vivos; nas medidas de proteção ambiental; nas questões relativas ao ordenamento jurídico sobre pretensões de toda a ordem. No aspecto tecnológico das pesquisas, dominamos técnicas construtivas especiais com aplicação direta no país. Desenvolvemos estudos sobre corrosão, acústica, zoneamento ambiental e monitoramento de poluição e contaminação. O mundo atual vive fases turbulentas em vários pontos dos cinco continentes mas, ainda assim, o livre acesso a passagens críticas para a navegação é assegurado. Por isso, o continente antártico assume, dentre tantos outros papéis, o de eminentemente estratégico por dominar a parte sul das passagens entre os oceanos Pacífico, Atlântico e Índico. Uma provável interrupção da passagem do canal de Suez e o já comprometido canal do Panamá, restrito a navios de pequeno e médio portes, dão a magnitude da importância de vias marítimas alternativas que, para o Brasil, se tornam vitais dada a dependência do país ao seu tráfego marítimo. A presença antecipada a momentos de crise nos permite entender e aprender como viver e operar em áreas longínquas, inóspitas ao homem e perigosas para os meios navais. A experiência e o conhecimento não têm preço. Politicamente, o Brasil vem participar de um seleto grupo de países com capacidade de desenvolver pesquisa científica e tecnológica na Antártica e manter uma Estação Científica operando durante todo o ano. Reconhecimento e respeito internacionais são o ganho político. Além disso, ser admitido e se manter como Membro Consultivo do Tratado da Antártica nos dá poder político para regular e ordenar as atividades em um continente que influencia diretamente nosso país, principalmente nas áreas de meteorologia e de oceanografia. Na área de pesquisas, estamos conhecendo os segredos antárticos e aprendendo como eles interferem com nosso sistema de clima. Aprendendo como evolui o efeito estufa e a quebra da camada de ozônio. Hoje o Brasil possui a série de dados mais completa sobre o fenômeno do buraco de ozônio. Entender a vida marinha e sobre as correntes marinhas da Antártica REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 Na geologia e glaciologia estamos acumulando o conhecimento necessário para a descoberta de riquezas minerais e para o entendimento do que influenciou e do que influenciaria a vida no planeta. E todo esse conjunto será de fundamental importância para o aproveitamento racional, quando ele for permitido, de insumos básicos para a produção industrial e alimentação brasileiras. A PRESENÇA BRASILEIRA NA ANTÁRTICA A estação brasileira foi instalada no verão de 1984, quando o NApOC “Barão de Teffé” transportou oito módulos de aço, tipo containeres, que constituiriam o núcleo da Estação Antártica Comandante Ferraz, EACF, inaugurada em 6 de fevereiro daquele ano. Para se chegar a esse ponto, foi adquirido um navio, foram feitos intercâmbios com países experientes na Antártica, desenvolveu-se tecnologia própria de construção, foi feita uma expedição, a Operação Antártica I – OPERANTAR I, para reconhecimento da área e início das pesquisas, e houve a dedicação de muitos brasileiros empenhados em fincar o pavilhão nacional naquelas terras distantes. A estação começou tímida, com pequenos compartimentos e, hoje, conta com um área principal edificada de 2340m2, que propicia todo o conforto e funcionalidade necessárias ao bom desenvolvimento das pesquisas. Equipamentos de infra-estrutura e de pesquisa modernos, estruturalmente revitalizada, pode abrigar até 70 pessoas e realizar pesquisas em todas as áreas do conhecimento de interesse na Antártica. Além da área principal, ainda existem módulos no entorno da estação aplicados aos estudos de química, ionosfera, meteorologia, atmosfera e de radiação. Temos também dois refúgios em ilhas mais afastadas que dão o necessário suporte ao estudo da vida marinha. 211 CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA Duas características chamam a atenção na Estação brasileira: as condições de segurança e a capacidade de preservação ambiental, que nos elevaram à condição de estação referência nesse último assunto. Nosso navio foi substituído e hoje contamos com o NApOc “Ary Rongel”, que não só realiza o apoio logístico da EACF e dos refúgios e acampamentos como também o apoio para inúmeras pesquisas científicas. O PROANTAR O Programa Antártico Brasileiro é um programa do Estado brasileiro e conta com colaboração relevante de empresas privadas, além do natural suporte prestado pelos órgãos governamentais. A Marinha do Brasil realiza a maior parte do esforço logístico, planejando a operação, empregando o navio de apoio, operando e mantendo a EACF, os refúgios e os módulos isolados, realizando o Treinamento PréAntártico, para militares e civis, fazendo a seleção de pessoal, dando suporte logístico aos projetos de pesquisa, mantendo os equipamentos de transporte de pessoal e de material empregados nas operações antárticas e cuidando de todas as etapas de abastecimento, de alimentos, roupas especiais e equipamentos. A Força Aérea Brasileira complementa as atividades logísticas realizando oito vôos de apoio para a substituição de pessoal e abastecimento da EACF. O Ministério da Ciência e Tecnologia e o Conselho Nacional de Pesquisa e Desenvolvimento são responsáveis pela seleção, por mérito, dos projetos de pesquisa a serem realizados e pelo apoio financeiro aos pesquisadores. O Ministério do Meio Ambiente é responsável por cuidar do controle ambiental de todas as atividades desenvolvidas na Antártica. O Ministério das Minas e Energia, por meio da Petrobrás, é o fornecedor de todo o combustível especial usado no navio e em suas aeronaves orgânicas, nos geradores da EACF, nas aeronaves Hércules C130 da Força Aérea Brasileira e para movimentar todos os veículos de transporte de carga e pessoal na Antártica. A Telemar/Oi implantou e dá manutenção a um moderno sistema de telecomunicações que permite o 212 uso de telefonia, inclusive celular, e internet de alta velocidade com possibilidade de tele-conferência. O Ministério das Relações Exteriores se ocupa das reuniões internacionais e da internalização das normas e recomendações relativas ao Tratado Antártico. Órgãos como o INPE e o CPTEC se engajam significativamente na pesquisa metereológica. Além disso, temos outras empresas que realizam pesquisas de campo, e também o apoio do Congresso brasileiro, com uma Frente Parlamentar Mista que se ocupa, principalmente, de encaminhar emendas ao orçamento que favoreçam o PROANTAR. Na área universitária, temos a Fundação da Universidade do Rio Grande, que opera a Estação de Apoio Antártico – ESANTAR – responsável por cuidar das roupas e equipamentos especiais usados nas operações, e ainda várias outras universidades, como a Universidade do Estado do Rio de Janeiro, Universidade Federal do Rio de Janeiro, Universidade Vale do Rio Doce, Universidade do Vale do Rio dos Sinos, Instituto Oceanográfico da Universidade de São Paulo, Universidade Federal do Estado da Bahia, Universidade Federal de Pernambuco, encarregadas de coordenar os projetos de pesquisa. Como exemplo, a Universidade Federal do Espírito Santo cuida de todo o assunto na área Tecnológica, responsável pelo planejamento do Plano Diretor da EACF e pelos cuidados com os módulos e refúgios do programa brasileiro. CONCLUSÃO A Antártica é um continente com forte influência nas atividades globais que regulam a vida do planeta. Além disso, se constitui em importante reserva de riquezas fundamentais à economia e à sobrevivência humana. Ocupando posição estratégica, domina pontos focais do tráfego marítimo. Região sem divisão geopolítica, aguça o interesse territorialista de algumas nações e pode se tornar foco de graves crises internacionais. Hoje, a Antártica é protegida pelo Tratado Antártico e seus anexos, sendo a única região do planeta dedicada à paz e à ciência. A presença brasileira na Antártica, por meio da execução de um poderoso e bem sucedido programa do Estado brasileiro, é irreversível. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 CONTRIBUIÇÕES ESPECIAIS O PROANTAR defende interesses nacionais no Continente Gelado e é um instrumento de projeção do país no cenário internacional. Motivo de orgulho da capacidade de realização do povo brasileiro, foi implantado e mantido graças à determinação de muitos homens e mulheres deste país, que aplicaram seus esforços além do normal e lograram concretizar o sonho brasileiro de operar na Antártica, realizando pesquisas em favor da humanidade e contribuindo para a manutenção da paz no sexto continente. O caminho não foi nem será fácil. Muitas dificuldades foram e serão vencidas, nos restando a certeza de que estamos com o rumo certo. “Os primeiros passos do Brasil na Antártica foram, muitas vezes, desajeitados, porém sempre com a força e perseverança de quem ambiciona não somente andar, mas correr e, se possível, voar....” REFERÊNCIAS ALVAREZ, Cristina Engel de. Arquitetura na Antártica: ênfase nas edificações brasileiras em madeira. 1995. Tese. Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo (FAUUSP), São Paulo, 1995. ALVAREZ, Cristina Engel de. Desenvolvimento Tecnológico. Brasília. Secretaria da Comissão Interministerial para os Recursos do Mar. No prelo. ALVAREZ, Cristina Engel de. Tecnologia de Edificações. In: O Brasil e o Meio Ambiente Antártico: ensinos fundamental e médio/ coordenação Tânia Brito. – Brasília: Ministério da Educação, Secretaria de Educação Básica, 2006. Coleção Explorando o Ensino, v. 10, 2006. ALVAREZ, Cristina Engel de, SOARES, Glyvani Rubim, CASAGRANDE, Brás, CRUZ, Daniel Oliveira. Conceitos e critérios adotados para o Plano Diretor da Estação Antártica Comandante Ferraz In: Reunión Anual de Administradores de Programas Antárticos Latinoamericanos, 2005, Lima. Documento de Información. Lima: IANMPE, 2005. AQUINO, F.E.; SETZER, A. O clima na Amazônia Azul. In: SIMÕES, Carlos F.; CHAVES, Paulo de Tarso (ed.) Geografia: ensino fundamental e médio: O Mar no Espaço Geográfico Brasileiro. Brasília: Ministério da Educação, Secretaria de Educação Básica, 2005, p. 226-230 (Coleção Explorando o Ensino, v. 8). CAMPOS, R. et all. Documento Básico para uma Política de Ciência e Tecnologia para a Antártica. 1996. CAPOZOLI, Ulisses. Antártica, a última terra. São Paulo: Ed. da Universidade de São Paulo, 1991. DIEGUES, F. M. Fontes. Conferência pronunciada no dia 23/11/89, no 1º Congresso da Sociedade Brasileira de Geofícia. MINISTÉRIO DA EDUCAÇÃO. Antártica: ensinos fundamental e médio/coordenação Maria Cordélia Machado, Tânia Brito. – Brasília: Secretaria de Educação Básica. 2006. Coleção Explorando o Ensino, v.9, 2006. NUNES, Marcomede Rangel. O Brasil na Antártica, mais de vinte anos no mundo gelado. Rio de Janeiro: Régis Aló, 2005. PALO Jr, Haroldo. Antártica, expedições brasileiras. Rio de Janeiro: Cor/Ação Editora Ltda, 1989. REYNOLDS, J. The Distribution of mean annual temperatures in the Antarctic Península. British Antarctic Survey Bulletin, v.54, p.123-133.1981. SCAR, 2006. Antarctic in numbers. Scientific Committee on Antarctic. Research. Disponível em http://w.w.ww.scar.org/ information/statistics/. Acesso em 21 de abril de 2007. SIMÕES, J.C. Glossário da língua portuguesa da neve, do gelo e termos correlatos. In: Pesquisa Brasileira Antártica. Academia Brasileira de Ciências, v. 4: p.119-154, 2004. VIERS, George. Climatologia. Barcelona, 2ª ed. Espanha: Oikos – Tau Ediciones. 1981. CHILD, Jack. Antarctica and South Americn Geopolitics. New York. Greenwood Press, 1988. REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213 213 NORMAS PARA PUBLICAÇÃO NA REVISTA PESQUISA NAVAL A Revista Pesquisa Naval, editada pela Divisão de Ciência e Tecnologia do Estado-Maior da Armada, é uma publicação anual de trabalhos inéditos que tem como propósitos divulgar resultados científicos e tecnológicos de interesse da Marinha, bem como servir de veículo para intercâmbio com instituições que desenvolvem pesquisa de interesse naval. Nesse contexto, a partir desta edição, os trabalhos, prioritariamente, seguirão as áreas de interesse em Ciência e Tecnologia da Marinha, definidas no Plano de Desenvolvimento Científico e Tecnológico da Marinha (PDCTM), sendo: 1. Sistemas de armas e munições 2. Ambiente operacional 3. Processos decisórios 4. Sensores e guerra eletrônica 5. Desempenho humano e saúde 6. Materiais especiais 7. Energia 8. Arquitetura naval e plataformas 9. Tecnologia da informação 10. Telecomunicações 11. Nanotecnologia NORMAS EDITORIAIS 1. 2. Só serão publicados artigos inéditos. Excepcionalmente, serão aceitos trabalhos que já tenham sido publicados em periódicos estrangeiros. Caso isso ocorra, esses artigos serão submetidos à mesma avaliação de originais inéditos. O autor deverá apresentar autorização, por escrito, do editor da revista onde seu artigo tenha sido originalmente publicado, e acompanhado de cópia do mesmo. Os artigos serão apreciados e selecionados para publicação, de forma reservada e sem a identificação de autoria, pelo Comitê Editorial, que poderá sugerir ao autor que sejam efetuadas modificações para melhor enquadramento do tema ou adequação ao padrão gráfico da revista. e autorização para sua publicação e veiculação, bem como seu contato (instituição, endereço, e-mail, telefone e fax). A Coordenação da Revista encaminhará para os autores dos trabalhos aceitos um modelo de autorização. 6. Os originais serão publicados em língua portuguesa. 7. Cada autor receberá dois exemplares da revista. 8. Os trabalhos publicados não estarão sujeitos à qualquer tipo de remuneração. 9. No caso de haver número maior de trabalhos do que o comportado pela edição, os excedentes poderão ser editados em edições subseqüentes, se autorizado pelo autor. 10. Os trabalhos publicados passam a ser propriedade da Revista Pesquisa Naval, ficando sua reimpressão, total ou parcial, sujeita à autorização expressa do EMA. Deve ser consignada a fonte de publicação original. Os originais não serão devolvidos aos autores. 11. Serão de responsabilidade exclusiva dos autores as opiniões emitidas no artigo, bem como a obediência ao padrão culto da língua e as regras de ortografia e gramática 12. A coordenação da revista receberá como colaborações para a edição: 12.1. Artigos: compreende textos que contenham relatos de estudos ou pesquisas concluídas, matérias de caráter opinativo e revisões de literatura. 12.2. Relatos de experiências: compreende comunicações e descrições de atividades realizadas por sistemas, ser viços ou unidades de informação. 12.3. Recensões: compreende análises críticas de livros, de periódicos recentemente publicados, dissertações e teses. APRESENTAÇÃO DOS TRABALHOS O processo de seleção de trabalhos envolverá a avaliação de especialista do Comitê Editorial. A data do aceite será informada pela coordenação da Revista Pesquisa Naval. No sumário, a seqüência dos títulos obedecerá, dentro de cada tema, a ordem alfabética de nomes dos autores. Revisão gramatical: Deverá ser obrigatoriamente providenciada pelos autores do trabalho. 4. O número de originais publicado em cada edição será limitado a dois por autor. 5. Para trabalhos com autoria múltipla, é necessário informar a ordem de apresentação dos autores, declaração de cada um quanto à originalidade do trabalho Formato: As colaborações deverão ser encaminhadas por email ou em mídia magnética (disquete ou cd) acompanhado de uma cópia em papel, com entrelinhamento duplo. O arquivo deve estar gravado no formato Microsoft Word, versão 6 ou superior, observando o tamanho máximo de 2MB. 3. Idioma: O Português é o idioma oficial da Revista. Em caráter excepcional, por decisão do Editor-Chefe, poderão ser aceitos trabalhos na língua do autor quando, por alguma razão justificada, não for possível fazer a necessária versão do texto. 214 Tamanho: A extensão máxima do trabalho completo (texto, figuras, tabelas, gráficos, notas de rodapé, etc) deverá ser: artigos 20 laudas; recensões 5 laudas; e relatos de experiências 10 laudas. Página no formato A4 (21cm x 29,7cm). Margens: superior - 2cm, inferior - 2cm, esquerda - 3cm, direita - 2cm. Entrelinhamento duplo. Fonte em Times New Roman, tamanho 12. Uma lauda é uma página de no máximo 1.400 caracteres. Estrutura: Os trabalhos deverão conter as seguintes seções a partir da primeira página: – Título em português; autoria; resumo; palavras-chave; título em inglês; abstract; Keywords; introdução; metodologia; resultados; discussão; considerações finais; agradecimento (se for o caso); e referências Título do trabalho: Deve ser breve e suficientemente específico e descritivo. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 14; efeito negrito; letras maiúsculas e minúsculas; e parágrafo centralizado. Autoria: Deve conter o nome completo do autor; último grau acadêmico; vínculo institucional; endereço; telefone; fax; e e-mail. Isso se repetirá para cada um dos autores, no caso de autoria múltipla. É necessário informar a ordem de apresentação dos autores. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 12; efeito negrito somente para o nome do autor; letras maiúsculas e minúsculas; e parágrafo centralizado. Resumo: Deve ser elaborado um resumo informativo com no máximo 200 palavras, incluindo objetivo, método, resultado, conclusão. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 10; letras maiúsculas e minúsculas; e parágrafo justificado. Palavras-chave: Devem representar o conteúdo do texto. Serão no mínimo 3 e no máximo 6 palavras. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 10; letras maiúsculas e minúsculas; e parágrafo justificado. Title: Será a tradução para o inglês do título do trabalho. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 12; efeito negrito; letras maiúsculas e minúsculas; e parágrafo centralizado. Abstract: Será a tradução do resumo para o inglês, com no máximo 200 caracteres. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 10; efeito itálico; letras maiúsculas e minúsculas; e parágrafo justificado. Keywords: Deve ser a tradução para o inglês das palavraschave. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 10; efeito itálico; letras maiúsculas e minúsculas; e parágrafo justificado. Corpo do Texto: Deve seguir, sempre que possível, a estrutura: Introdução; Metodologia; Resultados e/ou 215 Discussão; e Considerações Finais. Formato: entrelinhamento duplo; fonte em Times New Roman, tamanho 12; efeito itálico somente para palavras estrangeiras; e parágrafo justificado. Notas: As notas contidas no artigo devem ser indicadas imediatamente depois da frase ou palavra a que diz respeito e no rodapé da página correspondente. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 9; efeito itálico somente para palavras estrangeiras; e parágrafo justificado. Agradecimento: Agradecimentos a auxílios recebidos para a elaboração do trabalho deverão ser mencionados no final do artigo, antes das referências. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 12; efeito itálico somente para palavras estrangeiras; e parágrafo justificado. Apêndices: Apêndices podem ser empregados no caso de listagens extensivas, estatísticas e outros elementos de suporte. Formato: entrelinhamento simples; fonte em Times New Roman, tamanho 12; efeito itálico somente para palavras estrangeiras; e parágrafo justificado. Figuras e tabelas: Serão aceitos fotografias nítidas, gráficos e tabelas (em preto e branco) com os respectivos números de ordem. Deverão estar intercaladas e referenciadas no texto. Se as ilustrações enviadas já tiverem sido publicadas, mencionar a fonte. Também deverão ser encaminhados em arquivos à parte, em software gráfico, com indicação de localização no texto e respectivas legendas. Referências: NBR 6023/2003. São da responsabilidade do autor a exatidão e a adequação das referências a trabalhos consultados e mencionados no texto. As fontes de comunicação pessoal, trabalhos em andamento e os não publicados não devem ser incluídos na lista de referências, mas indicados em nota de rodapé da página onde forem citados. Recomendações: Para aspectos gerais de apresentação, referências bibliográficas, citações, notas e demais detalhes, recomenda-se que se observem as normas da ABNT (NBR 5892, 6022, 6024, 6028, 10.520 e 12.256), bem como a norma de apresentação tabular do IBGE. Para encaminhamento dos trabalhos e quaisquer informações adicionais, contatar a Coordenação da Revista Pesquisa Naval: Divisão de Ciência e Tecnologia Estado-Maior da Armada Esplanada dos Ministérios, Bloco “N”, 8º andar Plano Piloto – CEP: 70.055-900 – Brasília/DF e-mail: [email protected] Tel/Fax: (61) 3429-1366 ESTADO-MAIOR DA ARMADA ESTADO-MAIOR DA ARMADA Subchefia de Logística e Mobilização Divisão de Ciência e Tecnologia Esplanada dos Ministérios, Bloco “N” - 8º andar CEP: 70.055-900 – Brasília/DF Tel: (61) 3429-1366 - Fax: (61) 3429-1383 [email protected]