PESQUISA NAVAL ISSN 1414-8595 Suplemento Especial da REVISTA MARÍTIMA BRASILEIRA NÚMERO 15 - SETEMBRO DE 2002 Serviço de Documentação da Marinha ISSN 1414-8595 PESQUISA NAVAL SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA PATROCÍNIO ESTADO-MAIOR DA ARMADA EDITOR-CHEFE V ALTE MARIO JORGE FERREIRA BRAGA SECRETARIA-EXECUTIVA DO CONSELHO DE CIÊNCIA E TECNOLOGIA DA MARINHA (SECONCITEM) EDITORES ADJUNTOS V ALTE LÚCIO FRANCO DE SÁ FERNANDES CENTRO DE ANÁLISES DE SISTEMAS NAVAIS – CASNAV C ALTE (EN) OLAVO AMORIM DE ANDRADE INSTITUTO DE PESQUISAS DA MARINHA – IPqM C ALTE PEDRO FAVA INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULO MOREIRA - IEAPM C ALTE (EN) ALAN PAES LEME ARTHOU CENTRO TECNOLÓGICO DA MARINHA EM SÃO PAULO - CTMSP COMITÊ EDITORIAL ANTONIO FREITAS, PhD - PO/Finanças - UERJ/IBMEC CARLOS RODRIGUES PEREIRA BELCHIOR, PhD - Engenharia Naval – UFRJ ELIANE GONZALEZ RODRIGUEZ, DSc – Oceanografia Biológica - IEAPM FLAVIO DA COSTA FERNANDES, PhD - Oceanografia - IEAPM JORGE MUNIZ BARRETO, PhD - Informática/Estatística - UFSC JOSÉ CARLOS ALBANO DO AMARANTE, PhD - Química - IME LUIZ FERREIRA CALOBA, PhD - Engenharia Elétrica - COPPE/UFRJ LUIZ FLÁVIO AUTRAN MONTEIRO GOMES, PhD - PO/Decisão - UFF/IBMEC MARCOS CESAR GOLDBARG, PhD - Informática – UFRN MARIA AUGUSTA SOARES MACHADO, DSc – PO/Estatística -IBMEC MAURICIO PAZINI BRANDÃO, PhD - Engenharia Aeronáutica e Astronáutica - CTA REINALDO CASTRO DE SOUZA, PhD - PO - PUC COORDENAÇÃO MARIA HELENA SEVERO DE SOUZA SUPERVISÃO ROSANA BARBOSA BUCHAUL EDIÇÃO SERVIÇO DE DOCUMENTAÇÃO DA MARINHA PESQUISA NAVAL ISSN 1414-8595 Suplemento Especial da REVISTA MARÍTIMA BRASILEIRA NÚMERO 15 - SETEMBRO DE 2002 Serviço de Documentação da Marinha A Pesquisa Naval, suplemento da tradicional Revista Marítima Brasileira, se destina a divulgar os resultados científicos e tecnológicos obtidos sob a égide da Marinha do Brasil, bem como servir de veículo para intercâmbio com instituições de pesquisa. Os artigos aqui publicados não refletem a posição ou a doutrina da Marinha e são de responsabilidade de seus autores. Pesquisa Naval / Serviço de Documentação da Marinha - v. 1, n. 1, 1988 - Rio de Janeiro - RJ - Brasil - Ministério da Marinha Anual Título Abreviado: Pesq. Nav. ISSN 1414-8595 1. Marinha - Periódico - Pesquisa Científica. Serviço de Documentação da Marinha CDU 001.891:623.8/.9 CDD 623.807.2 SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA SUMÁRIO Palavras Iniciais Marcos Augusto Leal de Azevedo Almirante-de-Esquadra Chefe do Estado-Maior da Armada ........................................................................................ VIII Apresentação Mário Jorge Ferreira Braga Vice-Almirante Secretário-Executivo do Conselho de Ciência e Tecnologia da Marinha ......................................IX Capítulo I Sobre Sistemas de Apoio a Decisão V Alte Mário Jorge Ferreira Braga, DSc Secretaria-Executiva do Conselho de Ciência e Tecnologia da Marinha Maria Augusta Soares Machado, DSc - Faculdades IBMECRJ Luiza Maria Oliveira da Silva, MSc - Faculdades IBMECRJ André Machado Caldeira - Escola Nacional de Ciências Estatísticas............................................13 Capítulo II Modelo de Programação Linear Binível para Alocação Dinâmica de Veículos CC(EN) Júlio César Silva Neves - Instituto Militar de Engenharia Raad Yahya Qassim - Departamento de Engenharia Mecânica da EE e COPPE da Universidade Federal do Rio de Janeiro Gisele Campos Neves - Centro Federal de Educação Tecnológica Celso Suckow da Fonseca ....................................................................................................................................31 Capítulo III Sistema Fuzzy com Aprendizado Aplicado ao Controle de Um Navio Cargueiro S. A. Valente, MSc. - Centro Universitário Positivo - UNICENP L. V. R. Arruda, PhD - Centro Federal de Educação Tecnológica do Paraná ............................41 Capítulo IV Método Multicritério para Seleção de Variáveis em modelos DEA João Carlos Correia Baptista Soares de Mello - Universidade Federal Fluminense Eliane Gonçalves Gomes – COPPE/ Universidade Federal do Rio de Janeiro Maria Helena Campos Soares de Mello - Universidade Federal Fluminense Marcos Pereira Estellita Lins COPPE - Universidade Federal do Riode Janeiro ..........................55 Capítulo V Aplicação da Técnica de Kernel na Detecção Sonar Cleide Vital da Silva Rodrigues - Instituto de Pesquisas da Marinha – IPqM - Universidade Federal do Rio de Janeiro - PEP/COPPE Basílio de Bragança Pereira - Universidade Federal do Rio de Janeiro - FM, NESC e PEP/COPPE Antonio Petraglia - Universidade Federal do Rio de Janeiro - PEE/COPPE .................................67 Capítulo VI Modelagem Numérica Hidrodinâmica Tridimensional da Região Costeira e Estuarina de São Vicente e Santos (SP) Joseph Harari - Instituto Oceanográfico da USP Ricardo de Camargo - Instituto Astronômico, Geofísico e de Ciências Atmosféricas da USP Luiz Bruner de Miranda - Instituto Oceanográfico da USP ..........................................................79 Capítulo VII Previsão De Energia Elétrica Usando Redes Neurais Nebulosas Maria Augusta Soares Machado, DSc. -IBMECRJ Reinaldo Castro Souza, PhD. - DEE-PUC-RJ André Machado Caldeira - Escola Nacional de Ciências Estatísticas V Alte Mário Jorge Ferreira Braga, DSc. - Secretaria-Executiva do Conselho de Ciência e Tecnologia da Marinha – SECONCITEM ..................................................................................99 Capítulo VIII Mapeamento do índice de vulnerabilidade ambiental ao impacto por óleo da zona costeira entre Ceará e Rio Grande do Norte, usando imagens orbitais e sistema de informações geográficas Gherardi, D.F.M. - Programa HIDRO-DSR/OBT -INPE Cabral, A.P.- Oceansat - Tecnologia Espacial para Monitoramento Ambiental S/C Ltda, Braga, C.Z.F.- Programa HIDRO-DSR/OBT – INPE Eichenberger, C.- Programa HIDRO-DSR/OBT – INPE ............................................................109 Capítulo IX Margens de Incertezas Sobre a Potência Total de uma Instalação Propulsora Nuclear para Submarinos CF(EN) Leonam dos Santos Guimarães - Centro Tecnológico da Marinha em São Paulo (CTMSP) Paulo César Leone,Dr. - Centro Tecnológico da Marinha em São Paulo (CTMSP) .....................117 Capítulo X Modelo de Avaliação de Riscos Sócio-Tecnológicos CF(EN) Leonam dos Santos Guimarães -Centro Tecnológico da Marinha em São Paulo ............131 Capítulo XI Emprego de Ferritas de Ni-Zn como Absorvedores de Microondas CC(EN) Maria Luisa Gregori - Instituto de Pesquisas da Marinha (IPqM) CC(EN) Emilson Gonçalves Paulo - Instituto de Pesquisas da Marinha (IPqM) 1T(T) Tadeu Henrique dos Santos - Instituto de Pesquisas da Marinha (IPqM) Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM) Roberto da Costa Lima - Instituto de Pesquisas da Marinha (IPqM) Júlio César dos Santos Leandro - Instituto de Pesquisas da Marinha (IPqM) .............................143 Capítulo XII Avaliação do Desempenho de Materiais Absorvedores de Microondas por Guia de Ondas Através dos Fatores de Dissipação Dielétrica e Magnética Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM) CC(En) Maria Luisa Gregori - Instituto de Pesquisas da Marinha (IPqM) Regina Célia Reis Nunes - Instituto de Macromoléculas (IMA) da Universidade Federal do Rio De Janeiro (UFRJ) Bluma Guenther Soares - Instituto de Macromoléculas (IMA) da Universidade Federal do Rio De Janeiro (UFRJ) .......................................................................................................................149 Capítulo XIII Nova Metodologia para a Estimativa da Cobertura de Nuvens S. L. Mantelli Neto MSc. - Laboratório de Energia Solar, Departamento de Engenharia Mecânica, Universidade Federal de Santa Catarina A.V. Wangenhein Dr. Rer. Nat. - Laboratório de Integração Software-Hardware, Departamento de Informática e Estatística, Universidade Federal de Santa Catarina E. B. Pereira PhD. - Departamento de Geofísica Espacial, Instituto Nacional de Pesquisas Espaciais .................................................................................................................................159 Capítulo XIV Estudo do Campo de Vento de Superfície Sobre o Atlântico Sul Usando Dados do Escaterômetro do ERS Marlos C. Baptista - Oceansat Tecnologia Espacial para Monitoramento Ambiental S/C Ltda José L. Stech - Instituto Nacional de Pesquisas Espaciais (INPE) João A. Lorenzzetti - Instituto Nacional de Pesquisas Espaciais (INPE) ....................................169 Capítulo XV Sobre a Reprodução Fiel em Cores Teodoro Oniga, PhD - Ex-Analista Sênior do CASNAV ...............................................................183 Capítulo XVI JAVAMIX: Sistema de Apoio a Decisão para Avaliação de Planos de Varredura de Minas CC José Corrêa Paes Filho, MSc. - Centro de Análises de Sistemas Navais Alan Washburn, PhD. - Professor Titular do Departamento de Pesquisa Operacional. - Naval Postgraduate School – Monterey, CA .......................................................................................211 Capítulo XVII Sistema de Apoio à Decisão Espacial para Roteamento de Veículos: Aplicação na Marinha CC Rogério Pesse - Centro de Análises de Sistemas Navais Roberto Diéguez Galvão - Programa de Engenharia de Produção, COPPE/UFRJ Júlio Francisco Barros Neto - Universidade Federal do Ceará ...................................................225 Capítulo XVIII Modelagem Matemática para Hidroacústica em Águas Rasas Usando o Método dos Elementos Finitos Sônia Maria Constantino Ferreira, - Fundação Universidade Federal do Rio Grande – FURG Volnei Andersson,- Fundação Universidade Federal do Rio Grande – FURG Humberto Camargo Piccoli, -Fundação Universidade Federal do Rio Grande – FURG ............241 Capítulo XIX Logística Militar: Eficiência na Paz e Eficácia na Guerra Eng. Civil João Antônio Junqueira Teixeira - Universidade Federal do Rio Grande do Sul 2º Ten Int Emílio Kerber Filho - Universidade Federal do Rio Grande do Sul .............................253 Capítulo XX Aspectos de Controlabilidade de Reatores CC(EN) Michel Kireeff Covo, MSc.Comissão Naval Brasileira em Washington/University of California at Berkeley .........................................................................................................263 Capítulo XXI Análise para Escolha de Material de Emprego Militar: Um Enfoque Multicritério Aderson Campos Passos - Indústria de Material Bélico do Brasil – Fábrica da Estrela Luiz Flávio Autran Monteiro Gomes - Faculdades IBMEC ........................................................273 Capítulo XXII Quantifying Trade-Offs Between Multiple Criteria in The Formation of Preferences Annibal Parracho Sant’Anna - Universidade Federal Fluminense Luiz Flávio Autran Monteiro Gomes - Faculdades IBMEC ........................................................291 PALAVRAS INICIAIS Esta revista é o exemplo de que espíritos empreendedores e altruístas, apesar de ainda cercados de dificuldades de toda ordem, podem conduzir projetos a espelharem conhecimento e desenvolvimento para o País. Há quinze anos, por entender que uma nação não se constrói sem independência tecnológica e, ainda, por entender a importância de os pesquisadores disporem de um canal de troca de informações científicas, o Almirante Mário Jorge Ferreira Braga fundou a revista “Pesquisa Naval”. Mais uma vez, circulando entre a comunidade científica, nacional e internacional, a “Pesquisa Naval” traz ao público diversas contribuições com a finalidade de difundir novas idéias e incentivar a divulgação de trabalhos científico-tecnológicos da nossa Marinha. Brasília, 30 de setembro de 2002 Almirante-de-Esquadra Chefe do Estado-Maior da Armada APRESENTAÇÃO É com grande satisfação, e com sentimento do dever cumprido, que apresentamos a 15ª Edição da Revista Pesquisa Naval. Neste número, 48% dos artigos são relacionados às pesquisas desenvolvidas nos Institutos e Centros de Pesquisas da Marinha, 46% são oriundos do Exército e instituições civis do Brasil e 6% de articulistas estrangeiros. Estamos certos de que a Revista Pesquisa Naval, nesses 15 anos transcorridos, constituiu importante instrumento, motivador e disseminador, da pesquisa de interesse naval no País. Vice-Almirante Secretário-Executivo do Conselho de Ciência e Tecnologia da Marinha I Capítulo SOBRE SISTEMAS DE APOIO A DECISÃO V Alte Mário Jorge Ferreira Braga,DSc Secretaria-Executiva de Ciência e Tecnologia da Marinha - SECONCITEM Maria Augusta Soares Machado,DSc Faculdades IBMECRJ [email protected] Luiza Maria Oliveira da Silva,MSc Faculdades IBMECRJ [email protected] André Machado Caldeira Escola Nacional de Ciências Estatísticas Resumo O propósito deste trabalho é definir conceitos de sistemas de Apoio a Decisâo de forma ordenada, sem abusar do rigor matemático para situar administradores e gerentes que necessitem usar os serviços de especialistas e, muitas vezes, decidir, calçados nos subsídios que eles produzem. Abstract The purpose of this paper is to define some concepts for Decision Systems to be used for decision makers. Palavras-chave: sistema de apoio a decisâo. Key words: decision systems. 14 Pesquisa Naval Nº 15, Setembro de 2002 1 – Introdução A grosso modo é possível conceituar a decisão como a atividade (meio arte, meio ciência) que consiste em escolher, entre alternativas, a mais adequada (OU conveniente...) segundo algum critério de adequabilidade (de lucratividade, de conveniência, etc.). Em algumas circunstâncias, quando todas as alternativas, e seu valor segundo o critério relevante, estão explícitas, decidir é a coisa mais fácil do mundo. Infelizmente, entretanto, estas circunstâncias são raras, pelo menos quando se trata de negócios, de trabalho; o usual, é haver áreas obscuras, ou em torno das alternativas, ou dos critérios, ou de ambos. Muito se tem estudado sobre teoria da decisão, ou sobre assuntos correlatos e afins .O propósito de todo este estudo é lançar luz, em alguns casos mais, em outros menos, sobre as mencionadas áreas de escuridão. O propósito deste trabalho, é fazer desfilar este conhecimento, de forma ordenada, sem abusar do rigor matemático pois a finalidade é situar administradores e gerentes que terão que usar os serviços de especialistas e, muitas vezes, decidir, calçados nos subsídios que eles produzem. Trata-se portanto de uma tentativa de fornecer a informação suficiente à organização mental diante do problema e não de ensinar técnicos que resolvem este ou aquele tipo de problema. O primeiro passo para a colocação dos assuntos atinentes a decisão, seria descrever com mais precisão o seu contexto. Podemos pensar que estamos diante de um certo número (que pode ser finito, ou infinito discreto, ou infinito contínuo) de alternativas, as quais nem sempre sabemos identificar, e que a nós pertence escolher entre elas (isto é, são variáveis sob nosso controle, ao menos parcial), mas sobre as quais pesa a ação de outras variáveis, fora de nosso controle (que também “ a priori” nem sempre conseguimos identificar) e que, da interação entre as duas resulta, para nós, um lucro ou um prejuízo; decidir, corretamente, seria escolher a alternativa de maior lucro, ou menor prejuízo, devendo-se ainda notar, que a determinação do “lucro” (que realmente, de um modo mais geral, é uma conseqüência) nem sempre é óbvia. Temos em mãos uma situação em que todos os aspectos relevantes, as variáveis de controle (ou políticas...), as variáveis independentes (ou grau de controle) e a interação entre elas (lucro, prejuízo, conseqüência...) podem estar sujeitas a obscuridade e/ou incerteza. Vejamos um pequeno e simples exemplo: O Sr. Fulano vai sair e quer decidir se leva o Guarda-Chuva; andar de GuardaChuva a tôa é desagradável, por outro lado ficar todo molhado também é.Entretanto, a primeira circunstância só se verificará se não chover, e a segunda se chover. Pesquisa Naval Nº 15, Setembro de 2002 15 As variáveis de controle (linhas de ação, alternativas, políticas) do Sr. Fulano, estão perfeitamente identificadas: A1 - Levar Guarda-Chuva A2 – Não levar Guarda-Chuva As variáveis independentes (no caso em pauta, se chamam “Futuras”) também estão: F1 - vai chover F2 – não vai chover Então, temos dois conjuntos: A = [A1; A2] E se tivermos uma função L, cujo domínio seja o produto: A X F = [ (A1,F1); (A1,F2); (A2;F1); (A2;F2)] E o contra domínio sejam números reais, poderemos, a cada par alternativa/ futuro, associar um número que meça o prejuízo (se for negativo é lucro) que ocorrerá; ou seja, para (A1,F1), por exemplo: L (A1,F1) = L Isto fica mais claro, se visto em forma de matriz, como na tabela 1 a seguir, onde os prejuízos não estão ainda quantificados. Tabela 1 – decisão sobre levar ou não um guarda-chuva A L T E R N A T I V A S F1 CHOVER F2 NÃO CHOVER A1 LEVAR GUARDA CHUVA NENHUM ALGUM A2 NÃO LEVAR GUARDA CHUVA ALGUM NENHUM Vemos que a interação A1F1 não conduz a prejuízo, o mesmo ocorrendo com A2F2; entretanto, A1F2 e A2F1 acarretam alguma espécie de perda. Claro, se pudéssemos (ou o Sr. Fulano) saber com certeza se vai chover ou não, seria simples decidir, como também se tivéssemos um número para os prejuízos, isto também ajudaria; vejam ainda que só montar o esquema pode ajudar muito (não no caso do exemplo, que é óbvio); por exemplo, em uma grande matriz , uma série de alternativas podem ser eliminadas por inspeção. 16 Pesquisa Naval Nº 15, Setembro de 2002 Continuando o exame do problema, vemos que se o futuro for certo, decidir não seria mais que olhar a matriz. Não sendo, todavia, o futuro certo, teremos que lidar com probabilidades de ocorrência para se chegar a alguma conclusão; ainda se os prejuízos fossem quantificados, Um modelo é uma abstração da realidade, ou seja, uma representação simplificada, que se destina a permitir que entendamos, consequentemente, possamos manipular, um fenômeno complexo. Um bom exemplo é um mapa rodoviário; devido à limitações de nossos sensores e da nossa capacidade de processamento, não conseguimos abarcar toda a complexidade da geografia que nos cerca e, facilmente, ficarermos perdidos. O mapa, abstraindo de toda aquela multidão de detalhes apenas o que interessa à nossa orientação, permite que nos localizemos, que possamos escolher atalhos, que possamos prever hora de chegada, etc. O mapa é, portanto, uma representação simplificada da realidade, que não conseguimos entender pelo excesso de detalhes. Vejam bem que milhões de coisas que estão na geografia não estão no mapa; se estivessem, ele acabaria deixando de ser modelo e não nos servir de nada; portanto, um modelo não pode (ou não deve...) nunca ser criticado pela ausência deste ou daquele detalhe, mas apenas pela ausência dos detalhes relevantes ao propósito que se tem em mente. 2 – Origens e Tipos do Risco As origens do risco correspondem a dois aspectos complementares: gestão da energia e natureza das partes envolvidas. Dado um sistema S, para que sua missão seja assegurada, necessariamente ele deve: a) possuir energia, no sentido mais geral do termo (elétrica, mecânica, química, magnética); b) ser capaz de adquirir energia; e c) poder filtrar ou eliminar todo excedente de energia introduzido por um conjunto de agressões internas ou externas de diferentes naturezas. Um projeto, construção, integração ou operação inadequados deste sistema implica inevitavelmente a uma elevação do nível de incerteza, podendo ultrapassar um limite admissível correspondente a um conjunto de medidas e meios previstos, o que em seguida pode conduzir à ocorrência de um acidente. Esta incerteza tem três causas genéricas: a) possibilidade de ocorrência de eventos aleatórios conhecidos porém cujos instantes de ocorrência são imprevistos, tais como falhas, erros humanos, agressões externas ou ameaças no sentido geral do termos; b) desconhecimento parcial ou total dos modos de falha das partes do sistema; e Pesquisa Naval Nº 15, Setembro de 2002 17 c) desconhecimento parcial ou total do modo de funcionamento do sistema em circunstâncias particulares, por exemplo um ambiente natural imprevisto ou desconhecido. A própria natureza das partes do sistema S ou dos elementos que nele entram ou que ele produz, ou do ambiente dentro do qual ele evolui, pode ser uma fonte de perigo e portanto conduzir a uma situação arriscada em configurações de funcionamento normal ou anormal. Por conseguinte, a análise de segurança do sistema têm por objetivo: a) analisar o conjunto de cenários de eventos conduzindo à ocorrência de um acidente cujo evento inicializador (ou origem) é uma das causas citadas; b) quantificar eventualmente a verossimilhança destes cenários em termos probabilísticos; e c) propor ações para redução do risco, concretizadas por proposições de “barreiras de segurança” tendo por objetivo controlar ou limitar a evolução de um cenário perigoso; Visando sua completeza, as análises de risco devem sistematicamente explorar os dois estados de funcionamento do sistema S: a) normal (especificado), para identificar os elementos intrinsecamente perigosos, internos e externos ao sistema (ambiente); b) anormal, para identificar as falhas internas que podem conduzir a um acidente, todas as causas confundidas. Como foi definido, o risco relativo de ocorrência de um evento indesejado durante uma atividade perigosa é determinado por dois parâmetros: a) probabilidade de ocorrência do evento indesejado (probabilidade das causas); e b) gravidade das conseqüências que finalmente correspondem a insucesso da missão, mortes, ferimentos graves, destruição de propriedades, degradação do meio-ambiente. Pode-se dizer que o risco relativo a um evento indesejado, evento que é considerado no presente, é definido simultaneamente: a) por um parâmetro descrevendo de modo sintético uma seqüência de eventos pertencentes ao passado (probabilidade de ocorrência do conjunto das causas); b) por um parâmetro descrevendo um conjunto de eventos potencialmente observáveis no futuro (gravidade das conseqüências). Dois tipos de riscos podem então ser considerados: a) risco médio durante uma atividade dada, definido como o risco acumulado que existe durante a execução da atividade considerada, para o qual a unidade de tempo não é explicitada pois ela corresponde à duração da atividade; b) risco instantâneo, definido como o risco permanente que existe durante a atividade considerada. Por exemplo, se r(t) é o risco instantâneo relativo à atividade considerada, cuja duração é T, pode-se considerar R como risco médio desta atividade: R = ∫T r(t) dt = rm . T 18 Pesquisa Naval Nº 15, Setembro de 2002 Pode-se também definir da mesma forma o risco médio ao qual está exposta uma população dada durante uma atividade, a partir do número de seus elementos que podem sofrer injúrias. No caso de uma população humana, pode ser ainda considerado o risco pessoal, que se refere a um único indivíduo. 3 – Conseqüências dos Eventos Indesejados seus Efeitos e Gravidades As conseqüências associadas a um evento indesejado incidem sobre as pessoas, o meio-ambiente, e os bens e propriedades. Pode-se identificar pelo menos seis grupos humanos sobre os quais incidiriam, de modo crescente, as potenciais conseqüências da operação normal, anormal e acidental de uma instalação industrial: a) trabalhadores da instalação diretamente afetos às atividades perigosas; b) trabalhadores da instalação não diretamente afetos às atividades perigosas; c) moradores das comunidades vizinhas à instalação; d) moradores da região sócio-econômica na qual está localizada a instalação; e) moradores da macro-região administrativa na qual está localizada a instalação; f) público em geral que apesar de residir a grande distância da instalação poderá vir a sofrer conseqüências através de efeitos sobre o meio-ambiente. Pode-se identificar pelo menos seis áreas geográficas (ou eco-sistemas) sobre os quais incidiriam, de modo crescente, as potenciais conseqüências da operação normal, anormal e acidental de uma instalação industrial. Note-se que estas regiões estão intimamente relacionadas aos grupos humanos supra-citados: a) área física da instalação onde são realizadas atividades perigosas; b) limites físicos da instalação; c) eco-sistema local; d) eco-sistema regional; e) eco-sistema macro-regional; f) eco-sistema global. Os efeitos das conseqüências decorrentes de um evento indesejado podem manifestar-se com relação ao tempo decorrido após o evento em: a) efeitos imediatos; b) efeitos retardados; c) efeitos a longo prazo. Além da defasagem no tempo, os efeitos podem manifestar-se dos modos: a) determinista, ou seja, dado a ocorrência do evento, existe certeza da ocorrência dos efeitos, em geral imediatos; e Pesquisa Naval Nº 15, Setembro de 2002 19 b) estocástico, ou seja, dado a ocorrência do evento, existe uma determinada probabilidade ou um aumento na probabilidade previamente existente, de ocorrência dos efeitos, em geral retardados ou a longo prazo. Exemplos típicos de efeitos estocásticos constituem os efeitos biológicos das radiações ionizantes [1,2] e os efeitos biológicos das substâncias químicas tóxicas e/ou cancerígenas, ambos a doses reduzidas (abaixo de um limiar determinista). Destes efeitos o câncer talvez seja o mais representativo: existe um risco individual natural elevado, independente de qualquer atividade industrial humana, de uma determinada pessoa contrair um câncer ao longo de sua vida. A exposição às radiações ionizantes ou a determinadas substâncias químicas em doses moderadas aumenta a probabilidade de ocorrência deste efeito, que entretanto mantém seu caráter estocástico. Considerando a elevada probabilidade natural de ocorrência de um câncer ao longo da vida de um indivíduo normal, da ordem de 25%, torna-se impossível demonstrar-se de uma forma determinista a relação causa efeito para um caso de câncer específico. Uma tal demonstração somente pode ser feita de forma estatística e para um grande número de casos ocorridos em indivíduos de um determinada população exposta, através de métodos epidemiológicos. Conclui-se portanto que os riscos associados ao efeito de ocorrência de câncer são duplamente probabilísticos [3], ou seja, existem: a) uma probabilidade de que um um grupo humano seja exposto; e b) uma probabilidade de que, decorrido um tempo t após a exposição surjam n casos suplementares de câncer (além daqueles devido às causas naturais) dentre os indivíduos do grupo. Independentemente da probabilidade, pode-se classificar qualitativamente os riscos em quatro categorias relativas à sua gravidade: a) Risco Catastrófico, que corresponde a conseqüências tais como danos irreversíveis ao homem (morte, invalidez permanente) e destruição total do sistema e/ou de seu ambiente; em princípio, considerando-se a amplitude do fenômeno ou o tempo disponível, nenhuma ação de segurança pode ser prevista ou mesmo ‘a priori’ realmente eficaz; conseqüentemente, a identificação de um risco catastrófico deve implicar sistematicamente a busca e validação de ações de prevenção. Para estas ações, um evento catastrófico deve ser tornado raro, isto é, de probabilidade muito pequena, além disto, é imperativo identificar o(s) evento(s) inicializador(es), chamado(s) “precursor(es)” cuja ocorrência é associada de modo quase determinista ao evento catastrófico; b) Risco Crítico, que corresponde a conseqüências tais como danos reversíveis ao homem (ferimentos graves mas não permanentes), ao sistema (destruição parcial) e ao ambiente; um procedimento de emergência (ou de salvaguarda) deve impedir a ocorrência destas conseqüências; isto implica que a identificação de um risco crítico deve conduzir à busca e validação de ações de prevenção e de proteção; 20 Pesquisa Naval Nº 15, Setembro de 2002 c) Risco Significativo, que corresponde a conseqüências tais como ferimentos leves, insucesso da missão sem destruição do sistema, ou longa indisponibilidade; d) Risco Menor, que corresponde a falha de elementos do sistema sem conseqüências sobre o sucesso da missão nem sobre a segurança As duas primeiras classes de risco são relativas à segurança. As duas últimas são geralmente relativas ao sucesso da missão. 4- Determinação de Objetivos de Segurança Denomina-se risco aceitável (ou admissível ou limite) o risco resultante de uma decisão explícita estabelecida de modo objetivo por comparação a riscos conhecidos e correntemente admitidos, sejam de causas naturais, sociais, tecnológicas ou econômicas [4,5]. A aceitabilidade do risco pelos indivíduos e pela sociedade é entretanto influenciada por numerosos fatores [6]. O mais importante dentre eles foi evidenciado por Starr [5], e está ligado ao caráter voluntário ou involuntário do risco incorrido: aceita-se incorrer em riscos voluntários até três ordens de grandeza superiores ao riscos involuntários. Identifica-se ainda outros fatores [7], tais como os efeitos imediatos ou retardados das conseqüências, a presença ou ausência de alternativas, o conhecimento preciso ou impreciso do risco, o perigo comum ou particular a certas pessoas, a reversibilidade ou irreversibilidade das conseqüências. Nos países industrializados, o risco de morte devido a doenças é da ordem de 10-2/ano, o que é uma referência para os mais altos níveis de risco involuntariamente aceitos. O mais baixo nível de risco involuntariamente aceito é aquele que resulta de fenômenos naturais excepcionalmente severos, que é da ordem de 10-6/ano. Entre estes dois extremos o público parece aceitar os riscos involuntários em função dos benefícios obtidos [6,7]. Uma pesquisa americana [8] chegou esquematicamente as seguintes conclusões sobre os níveis anuais de risco individual de morte: a) 10-3/ano: este nível de risco é inaceitável, ou seja assim que um risco aproximase deste nível devem ser tomadas medidas imediatas para reduzi-lo; b) 10-4/ano: o público reclama despesas públicas para controlar e reduzir estes riscos (rodovias, incêndios); c) 10-5/ano: os riscos neste nível são identificados pelo público, que entretanto se satisfaz com certas regras gerais para reduzi-los; e d) 10-6/ano: os riscos deste nível não inquietam o indivíduo médio; ele reconhece estes acidentes mas pensa que “isto só pode acontecer aos outros”, mostrandose resignado face a estes riscos. Os autores desta pesquisa concluem que o risco individual de morte de 10-7/ ano é um limite superior aceitável para o risco de acidentes de centrais nucleares. Pesquisa Naval Nº 15, Setembro de 2002 21 Existem ainda numeroso fatores que afetam a percepção do risco pelo público. Uma outra interessante pesquisa britãnica [9] mostrou a relação entre o risco percebido pelo público e o risco real. Os autores chegaram às seguintes conclusões: a) as causas de morte do tipo “doença” e “acidentes rodoviários” são consideradas como equivalentes, quando na realidade as primeiras são dez vezes mais numerosas; b) os riscos que contribuem de maneira significativa ao número total de mortes são subestimados; e c) os riscos que contribuem pouco ao número de mortes são superestimados; assim, eventos de caráter excepcional são considerados como muito mais mortíferos do que são em realidade. Esta enquete confirma o “senso comum” de que o público julga “menos perigosa” uma atividade que faz 1 morto todos os dias do que uma outra que faz 365 mortes um único dia do ano. A percepção dos riscos depende de numerosos fatores morais e psicológicos que são dificilmente quantificáveis ou mesmo explicáveis. Quando se refere às estatísticas de morte humana, deve-se ainda ter em conta que elas variam sensivelmente de um época a outra, entre regiões geográficas e por faixa etária da população considerada. Definitivamente, pode-se concluir que o risco aceitável, que é a projeção da percepção coletiva, social ou econômica do perigo associado, não pode ser definido de modo universal [10]. A busca do valor do risco aceitável passa por um compromisso entre aquilo que a instância responsável está disposta a pagar caso leve em conta ‘a priori’ a ocorrência do risco e as medidas de segurança resultantes, e quanto teria de desembolsar ‘a posteriori’, na hipótese em que o risco seja ignorado, devendo ser considerados: a) os custos de reparações de danos humanos, materiais e ambientais; b) os custos de indisponibilidade; c) impacto na mídia fatores estes que podem levar à parada definitiva da atividade. Dentro desta ótica, deve ser considerado o custo global da segurança, que compreende: a) custo dos estudos e dos dispositivos de segurança, que são custos ‘a priori’; b) custo dos acidentes, que são custos ‘a posteriori’; pode-se buscar um ótimo econômico a partir de: a) custos de investimento associados aos níveis de insegurança (ou riscos) residuais avaliados ‘a priori’; b) custos da insegurança (ou riscos) residuais associados aos custos de reparação que podem ser induzidos ‘a posteriori’. 22 Pesquisa Naval Nº 15, Setembro de 2002 Representando em abcissa os níveis de insegurança residuais correspondente às probabilidades de acidentes, a determinação do ótimo econômico pode ser visualizada pela Figura 1. CUSTO RISCO (a posteriori) CUSTO GLOBAL INVESTIMENTO (a priori) ______ RISCO ACEITÁVEL (com relação a um ótimo econômico) PROBABILIDADE DE ACIDENTE Figura 1: Otimização dos Custos da Segurança A escolha dos Objetivos Gerais de Segurança é uma etapa fundamental da Segurança de Funcionamento de sistemas, porque ela concretiza a fronteira entre o domínio do risco aceitável e o domínio do risco inaceitável dos estados de funcionamento do sistema: a) a fixação dos objetivos de segurança resulta de uma decisão das instâncias políticas e econômicas de mais alto nível, e não do especialista em segurança encarregado de uma atividade ou projeto; b) objetivo do sistema deve estar fora do alcance da observação ou, mais precisamente, da experimentação direta para que possa ser considerado como válido; este aspecto lhe confere uma natureza subjetiva que provoca uma quase impossibilidade de demonstração de seu atendimento inicial e manutenção ao longo da vida do sistema. A independência entre o político (“decisor”) e o técnico ou econômico é fundamental. Com efeito, por diversas razões, estes últimos podem minimizar os riscos reais por superestimação do nível tecnológico do sistema, indo até uma crença “quase religiosa” (ignorando portanto seu domínio de desconhecimento). A expressão de um objetivo de segurança [12,13,11,14] associado a um evento indesejado comporta três elementos: a) definição do ambiente de referência a considerar; b) definição precisa do evento indesejado; Pesquisa Naval Nº 15, Setembro de 2002 23 c) definição de uma probabilidade ou verossimilhança aceitável de ocorrência deste evento. O ambiente de referência (missão, natural e tecnológico) compreende: a) definição do perfil de missão, ou seja, as condições de utilização do sistema (duração, configuração) e as características das condições em que é feita esta utilização; b) inventário das condições potencialmente perigosas; c) ambiente ativo de referência, correspondendo a um conjunto de agressões ou carregamentos não nominais em projeto definido pelo nível de carregamento n e a probabilidade de que este carregamento seja excedido Pn=P(N>n). A definição precisa do evento indesejado é realizada a partir de: a) definição do sistema e de seus elementos intrínseca e potencialmente perigosos; b) inventário de eventos indesejados A descrição do evento indesejado deve ser claramente expressa, seja pela duração total ou parcial da atividade perigosa, seja por unidade de tempo de exposição às fontes de perigo, seja pela utilização puntual de um equipamento perigoso. Devido ao caráter aleatório dos objetivos de segurança, a probabilidade aceitável de ocorrência do evento indesejado pode ser definida de modo qualitativo ou quantitativos Os objetivos qualitativos podem ser expressos por uma escala de verossimilhança [15] ou a partir de um critério de projeto ligado à fase operacional: a) Escala de Verossimilhança: estabelecida a partir de níveis arbitrários tais como − impossível − altamente improvável ou altamente raro − improvável ou raro − plausível − muito plausível − quase certo − certo Note-se que os qualitativos de impossível e certo referem-se a eventos pertencentes ao domínio da certeza, enquanto os outros pertencem ao domínio da incerteza; a relação entre esta escala e a escala de gravidade anteriormente definida pode ser estabelecida impondo-se que um evento catastrófico seja altamente improvável e que a ocorrência de um evento crítico deva ser pelo menos improvável; é evidente que uma tal escala subjetiva varia de uma atividade a outra, mesmo que os eventos associados às verossimilhanças extremas sejam em princípio comuns; b) Critérios de Projeto [16]: tais como “Fail Safe”, para o qual qualquer falha conduz a um estado de pane seguro; o sistema é dito então “intrinsecamente seguro” ou 24 Pesquisa Naval Nº 15, Setembro de 2002 que possui “segurança integrada”; “Fail Operational / Fail Safe”, para o qual a primeira falha permite prosseguir a missão em segurança e a segunda falha conduz a um estado de pane segura; “No Fail”, para o qual nenhuma falha relativa à função ou ao equipamento considerado é aceitável. 5- Representação do Risco e dos Objetivos de Segurança O risco sendo definido a partir de dois componentes, pode ser visualizado sobre um gráfico cuja abcissa representa a escala das gravidades e a ordenada representa a escala das probabilidades (freqüência ou verossimilhança admissível). Este gráfico de criticidade, dito diagrama de Farmer [17] permite uma visualização dos domínios de riscos aceitáveis e inaceitáveis. O Gráfico 1 apresenta o estabelecimento de critérios sobre um digrama de Farmer. O limite entre os domínios é definido pela curva que une os pares (g1, p1), (g2, p2) e (g3, p3). A tendência atual é, entretanto, de considerar três domínios, incluindo um domínio intermediário dentro do qual as ações para melhoria da segurança devem ser analisadas sob um prisma de otimização (procedimento ALARA), levando-se em conta fatores econômicos e sociais. PROBABILIDADE 1 DOMÍNIO INACEITÁVEL P1 P2 P3 DOMÍNIO ACEITÁVEL ME NOR G1 SIGNI FICA TIVO G2 CRI TICO G3 CATAS TRO FICO GRAVI DADE Gráfico 1: Diagrama de Farmer Uma outra representação clássica do risco e dos objetivos de segurança é feita sob a forma de uma tabela dita tabela de criticidade [18], da qual a tabela 2 constitui um exemplo. O diagrama de Farmer apresenta a vantagem de visualizar uma função de distribuição de gravidades, estando portanto mais próximo da definição de risco e Pesquisa Naval Nº 15, Setembro de 2002 25 por isso é mais rico em informações. Tabela 2: Tabela de Criticidade Típica GRAVIDADE PROBABILIDADE QUASE-CERTO MENOR SIGNIFICATIVA CRÍTICA ACEITÁVEL INACEITÁVEL INACEITÁVEL INACEITÁVEL PROVÁVEL ACEITÁVEL ACEITÁVEL INACEITÁVEL INACEITÁVEL POUCO PROVÁVEL ACEITÁVEL ACEITÁVEL ACEITÁVEL INACEITÁVEL RARO ACEITÁVEL ACEITÁVEL ACEITÁVEL ACEITÁVEL CATASTRÓFICA Como foi visto, aceita-se para uma atividade (ou sistema) dado: a) ocorrência de um evento de gravidade insignificante com uma probabilidade próxima de 1; e b) ocorrência de um evento de severa gravidade com uma probabilidade não nula, porém muito inferior a 1. As análise de segurança e as ações delas decorrentes têm por objetivo eliminar, reduzir ou controlar um risco identificado e reconhecido como inaceitável após sua avaliação e sua comparação ao objetivo que lhe foi assinalado. As ações que permitem ter um risco aceitável são : a) Prevenção; b) Proteção; e c) Resseguro. Uma medida de prevenção corresponde à uma ação de redução do risco pela diminuição da probabilidade P de ocorrência do evento indesejado, sem diminuir a gravidade G de suas conseqüências. Esta definição corresponde ao senso comum associado à prevenção que consiste em impedir que um evento ocorra, sem sistematicamente considerar suas conseqüências. A partir de um risco inaceitável identificado como A num diagrama de Farmer, a ação de prevenção consiste em passar a um risco aceitável B por deslocamento paralelo ao eixo das probabilidades. A margem de segurança teórica é então definida pela entre a probabilidade resultante após a medida de prevenção e o objetivo em probabilidade que pertence, por definição, à curva de criticidade. Uma medida de proteção é uma ação de redução do risco baseada na redução da gravidade das conseqüências G do evento indesejado após sua ocorrência, sem diminuir sua probabilidade. Esta definição corresponde ao senso comum associado à proteção que consiste em limitar as conseqüências de um evento, sem considerar ‘a priori’ sua probabilidade de ocorrência, eventualmente próxima de 1. A partir de um risco inaceitável identificado como A num diagrama de Farmer, a ação de proteção consiste em passar a um risco aceitável B por deslocamento paralelo 26 Pesquisa Naval Nº 15, Setembro de 2002 ao eixo das gravidades. A margem de segurança teórica é então definida pela entre a gravidade resultante após a medida de proteção e o objetivo em gravidade que pertence, por definição, à curva de criticidade. O resseguro, contrariamente à prevenção e à proteção, não tem por objetivo nem reduzir a probabilidade nem a gravidade de um evento indesejado. Seu objetivo é transferir para um terceiro (o segurador) total ou parcialmente as conseqüências financeiras do risco. A partir de um risco inaceitável identificado como A num diagrama de Farmer, a ação de resseguro consiste em deslocar a curva de criticidade até que o ponto A encontre-se no domínio aceitável. O deslocamento artificial da curva de criticidade tem como contrapartida o pagamento de um prêmio ao segurador, cujo valor é uma função de: a) número de “clientes” que são assegurados contra este risco; b) probabilidade de ocorrência do evento indesejado, estimado a partir de estatísticas; c) esforços de proteção e prevenção impostos ao cliente para reduzir a gravidade e/ou probabilidade do risco segurado. P A DOMÍNIO INACEITÁVEL MARGEM DE SEGURANÇA B DOMÍNIO ACEITÁVEL G Gráfico 3: Ação de Prevenção Pesquisa Naval Nº 15, Setembro de 2002 27 P DOMÍNIO INACEITÁVEL A B MARGEM DE SEGURANÇA DOMÍNIO ACEITÁVEL G Gráfico 4: Ação de Proteção P DOMÍNIO INACEITÁVEL A B MARGEM DE SEGURANÇA DOMÍNIO ACEITÁVEL G Gráfico 5: Ação de Resseguro 6 – Limitação da Utilização da Linguagem Probabilística A utilização da linguagem probabilística sem precauções particulares pode conduzir entretanto a dois inconvenientes maiores: a) Uma limitação, ou até mesmo uma diminuição do nível de segurança demonstrado caso se considere exclusivamente o “valor absoluto” das probabilidades aceitasa partir da experiência adquirida sobre os sistemas precedentes (limitação parcial do domínio de conhecimento); 28 Pesquisa Naval Nº 15, Setembro de 2002 b) um aumento desmesurado das despesas experimentais se desejar-se efetuar uma demonstração estatística, que por sinal é extremamente difícil de ser levada a cabo na maioria dos casos, do nível de segurança atingido. Para evitar falsas interpretações, propõe-se que a utilização da linguagem probabilistica dentro da metodologia de análise de segurança seja baseada em quatro princípios. a) Durante o projeto, e em função do objetivo de segurança imposto (expresso em probabilidade p de ocorrência de um evento indesejado por unidade) deve ser previsto um número de barreiras de segurança independentes, entendidas como um artifício material, lógico ou humano, colocado dentro da evolução de um cenário de eventos para limitar ou interromper sua progressão, e que segundo sua natureza ou posição pode ter efeitos de prevenção ou de proteção, tais como: 1>p≥10-2 : ao menos 1 10-2>p≥10-4: ao menos 2 10-4>p≥10-6: ao menos 3 Segue-se que a credibilidade fixada e a eficácia técnica demonstrada dentro deste exemplo para uma barreira seja ao menos de 10-2 por evento indesejado ou agressão; conseqüentemente, faz-se a hipótese que 10-4 não é crível para uma barreira, pois não pode ser demonstrado; evidentemente, a eficácia e independência das barreiras deve ser devidamente estabelecidas. b) A estima da eficácia de uma barreira de segurança deve sempre basear-se numa análise aprofundada dos modos de falha dos elementos do sistema segundo um método coerente; c) Os resultados quantitativos fornecidos exprimem a convicção dos especialistas, que é justificada pela estima da eficácia das barreiras de segurança a partir da análise aprofundada feita durante o projeto e validada por ensaios adequados e pela cultura experimental (estudos e ensaios realizados durante o desenvolvimento do sistema considerado e de sistemas equivalentes anteriores ou mesmo diferentes) e aplicação de técnicas adaptadas (avaliação teórica, modelagem, avaliação de confiabilidade, extrapolação das margens de segurança, simulação); d) A nível do sistema, a síntese de segurança é tanto mais fácil e exaustiva quanto os mesmo métodos de análise são utilizados para cada um dos sistemas elementares e de suas interfaces. Neste caso, com efeito, a síntese mesma não é geradora de erros e de esquecimentos. Como já foi visto, a quantificação só é possível dentro do domínio de conhecimento. Entretanto, em muitas atividades antigas e novas, a engenharia que lhes é associada pode ter ramificações mais ou menos importantes dentro do domínio de desconhecimento: isto coloca então com prioridade o problema da validade da quantificação. Pesquisa Naval Nº 15, Setembro de 2002 29 Esta dificuldade real não deve porém conduzir a excluir ‘a priori’ por princípio toda utilização da linguagem probabilista dentro de uma atividade técnica considerada antes mesmo da busca e da determinação de seu domínio de conhecimento. Com efeito, mesmo se certos domínios são dificilmente definidos, uma abordagem científica proveitosa para a segurança, a um custo razoável, deve ser buscada. Esta abordagem, se deve ser prioritariamente qualitativa, não deve porém excluir sem justificativa científica e técnica seu complemento quantitativo. Este último pode servir de indicador, sob certas hipóteses validadas, para hierarquizar riscos relativos a arquiteturas elaboradas a partir de uma mesma lógica, o que não seria permitido por uma abordagem estritamente qualitativa. Finalmente, é importante reter que a procura e a utilização de métodos validados, quaisquer que sejam, que permitam melhorar o nível demonstrado de segurança de mantê-lo, deve ser uma das primeiras preocupações do responsável pela segurança de um sistema. 7 – Referências Bibliográficas International Commission of Radiation Protection, Recommandations, ICRP Publication n0 60, Pergamon Press, Oxford, GB, 1991. Bertin, M., Les Effets Biologiques des Rayonnements Ionizants, Eletricité de France, Paris, França, 1991. International Atomic Energy Agency, Extension of the Principles of Radiation Protection to Sources od Potential Exposures, Safety Series n0104, Viena, Áustria, 1990. Rowe, N. D., An Anatomy of Risk, John Wiley and Sons, New York, EUA, 1973 Starr, C., Social Benefit versus Technological Risk: What is our Society Willing to Pay for Safety?, in Science 165-1232, Boston, USA, 1973. Lowrance, W.W., Of Acceptable Risk, Kaufmann, Los Altos, EUA, 1976 Starr, C. et ali, Philofical Basis for Risk Analisys, in Ann.Rev.Energy 1-629, Washigton, EUA, 1976. Otway, H.J. e Cohen, J.J, Reactor Safety and Design from a Risk View Point, in Nuclear Engineering and Design 13-365, Washington, EUA, 1970. Slovic, P. et ali, The Assessment and Perception fo Risk, The Royal Society of London 3417, Londres GB, 1980. Institut de Protection et Sureté Nucléarie, Rapport du Groupe de l´Observatoire sur les Risques et la Securité, Fontenay aux Roses, França, 1992. Commission of the European Communities, Summary report on Safety Objectives in Nuclear Power Plants, Report EUR-12273-EN, Luxemburgo, 1989. Boll, M., Les Certitudes du Hasard, Presses Universitaires Françaises, Paris, França, 1958 Henley, E.J. e Kumamoto, H., Reliability Engineering and Risk Assessment, Prentice-Hall, Englewood Cliffs, EUA, 1981. Farmer, F.R., Reactor Safety and Siting: a Proposed Risk Criterion, in Nuclear Safety n0 8 (6), Londres, GB, 1967. Lievens, C., Sécurité des Systèmes, CEPADUES, Paris, França, 1976 INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULO MOREIRA PARCERIAS EM PESQUISAS NO MAR O Instituto de Estudos do Mar Almirante Paulo Moreira (IEAPM), o Centro de Gestão e Estudos Estratégicos (CGEE) do MCT e representantes dos Fundos Setoriais daquele ministério: CT-PETRO (Petróleo), CT-HIDRO (Recursos Hídricos e CT-INFRA (Infra-estrutura), iniciaram entendimentos com o propósito de estabelecer parcerias que envolvem, também o Instituto Nacional de Tecnologia (INT) para estabelecer os pontos de convergência entre os documentos de diretrizes estratégicas dos diversos fundos de C&T e os projetos de interesse da Marinha a cargo do IEAPM. Além dessa atividade o IEAPM deu início ao processo de credenciamento junto ao Instituto Nacional de Metrologia (INMETRO) para ser reconhecido como emissor de laudos sobre poluição causados por incidentes de derramamento de hidrocarbonetos em água brasileiras. Tambem está participando junto com a COPPE/UFRJ na avaliação do potencial como atratores de peixes, de estruturas metálicas montadas segundo projeto da COPPE a partir de sucata de material utilizado pela PETROBRAS. Finalmente o IEAPM está em entendimentos com a EMGEPRON para o estudo do comportamento de cascos de ex-navios, como atratores de peixes. a serem afundados ao largo do litoral do Estado do Rio de Janeiro, entre Macaé e Cabo Frio. No âmbito interno o IEAPM está estruturando a parte física, instalações e equipamentos de gravação e computadores, do futuro Laboratório de Bioacústica IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ E-mail:[email protected] Telefone: 24-2622-9010 II Capítulo MODELO DE PROGRAMAÇÃO LINEAR BINÍVEL PARA ALOCAÇÃO DINÂMICA DE VEÍCULOS CC(EN) Júlio César Silva Neves Instituto Militar de Engenharia, Praça Gal. Tibúrcio no. 80, Praia Vermelha Rio de Janeiro, Brasil e-mail; [email protected] Raad Yahya Qassim Departamento de Engenharia Mecânica da EE e COPPE da Universidade Federal do Rio de Janeiro, Brasil. Gisele Campos Neves Centro Federal de Educação Tecnológica Celso Suckow da Fonseca, Av. Maracanã,229 – Rio de Janeiro; [email protected] Resumo Este trabalho desenvolve um modelo de programação linear binível aplicado ao problema de alocação de veículos. Neste modelo, o transportador toma as decisões da alocação dos veículos maximizando seu lucro; o expedidor minimiza cargas enviadas com atraso. Trata-se de uma análise custo-benefício entre atrasos nas cargas e lucro do tranportador. Abstract The aim of this paper is to apply linear bi-level program in allocation vehicle problem. In the model development in this work, the carrier makes allocation vehicle decision maximizes his profit, and the shipper minimizes the load in later. The model proposes time cost trade-off analysis for allocation vehicle. 32 Pesquisa Naval Nº 15, Setembro de 2002 1 – Introdução As organizações estão sendo confrontadas com uma dupla evolução: a globalização dos mercados e da demanda; e as crescentes exigências de reatividade e de redução dos atrasos. Os modelos tradicionais de gestão não respondem mais aos desafios de globalização e de reatividade exigidos pelo mercado. Nestes modelos as decisões são tomadas baseadas na otimização local, sem avaliar o sistema como um todo. Dessa forma, os recursos materiais e capacidades organizacionais são mal explorados por falta de sincronização, não conduzindo a uma otimização global. Visando integrar e otimizar globalmente as funções, os níveis de decisão e os segmentos das atividades logísticas, a Gestão da Cadeia Logística (Supply Chain Management –SCM) vem sendo amplamente adotada, estendendo o conceito de gestão além das fronteiras da organização, incluindo fornecedores, clientes e transportadores. É crescente o número de artigos que abordam a importância e os fundamentos conceituais de cooperação entre as organizações na SCM. Carter & Ferrin (1995) apresentaram modelos conceituais que demonstram as vantagens das parcerias clientetransportador-fornecedor. Entretanto, pouca atenção tem sido dada aos modelos quantitativos que suportam o processo de tomada de decisão na SCM. Thomas & Griffin (1996) e Vidal & Goetschalckx (1997) apresentaram uma visão geral de modelos de programação matemática para SCM. Beamon (1998) apresentou uma revisão bibliográfica e uma classificação sobre os diferentes modelos de SCM. Fumero & Vercellis (1999) criaram um modelo que considera a integração de decisões logísticas de gerenciamento de capacidades, estoques alocação e roteamento de veículos. Em todos modelos apresentados, a tomada de decisão é efetuada por apenas um agente decisor. Na prática, cada organização toma decisões, buscando atingir seus próprios objetivos. As decisões tomadas em cada organização causam impactos nas demais organizações da cadeia. Ou seja, a tomada de decisão em uma organização influencia o processo de tomada de decisão das demais, mas cada uma procura otimizar seus próprios objetivos. O modelo de programação matemática, adequado para abordar este tipo de problema de planejamento descentralizado, é o modelo de programação multinível. O problema binível é um caso especial que considera uma estrutura hierárquica com apenas dois níveis de decisão. Wen & Hsu (1991) e Ben-Ayed (1993) apresentam uma revisão deste tipo de problema. Um problema de planejamento de suma importância na logística é a alocação de veículos. Até o presente, este problema vem sendo tratado com apenas um nível de tomada de decisão. Neste caso, o transportador é o agente decisor e aloca seus veículos de forma a maximizar seu lucro. Este tipo de abordagem, onde o transportador toma decisões procurando otimizar individualmente seus objetivos, contraria o princípio da SCM; uma vez que sua decisão interfere no desempenho global da cadeia como um todo. Pesquisa Naval Nº 15, Setembro de 2002 33 Na verdade, tem-se dois agentes tomadores de decisão, o transportador e o expedidor, com objetivos diferentes e que a decisão de um tem impacto sobre o outro. Este trabalho apresenta um novo modelo para abordar este tipo de problema. Trata-se de uma aplicação de programação linear binível na alocação dinâmica de veículos. O objetivo deste trabalho é desenvolver um modelo de programação binível aplicado ao problema de alocação de veículos, considerando a integração entre transportador e expedidor. Neste modelo, o transportador toma as decisões da alocação dos veículos procurando maximizar seu lucro; o expedidor procura minimizar as cargas enviadas com atraso. Trata-se de uma análise custo-benefício entre atrasos de despachos de cargas e o lucro do transportador. 2 – Programação Binível A programação binível envolve dois níveis hierárquicos de tomada de decisão . Nesta hierarquia, o agente do segundo nível, chamado de seguidor, está subordinado ao agente do primeiro nível, chamado de líder. Wen & Hsu (1991) caracterizam este tipo de problema da seguinte forma: Assume-se que existem dois níveis hierárquicos de tomada de decisão: alto e baixo nível. Seja um vetor de variáveis de decisão (x, y) ∈ ℜn dividido entre os dois tomadores de decisão. O decisor do nível mais alto tem o controle sobre o vetor x ∈ ℜn1 e o do nível mais baixo tem o controle sobre o vetor y ∈ ℜn2 , onde n1 + n2 = n. Além disso, assumindo que F, f , ℜn1 x ℜn1 ⇒ ℜ1 são lineares e limitados, o problema linear binível pode ser formulado da seguinte forma: P1: max F(x, y) = ax + by onde y solução de x P2: max f(x, y) = cx + dy, y s.a. Ax+By < r, onde: a, c ∈ ℜn1; b, d ∈ ℜn2; r ∈ ℜm; A é uma matriz m x n1; B é uma matriz m x n2. Seja a restrição do problema a região S = {(x, y) Ax + By < r } Para um dado x, seja Y(x) o conjunto de soluções ótimas para o problema P2, max f’(y) = dy, onde Q(x) = { y By < r – Ax } r ∈ Q(x) e representa o espaço de solução do tomador de decisão do alto-nível, ou o conjunto de reações racionais do f sobre S, como ψf (s) = {(x, y) (x, y) ∈ S, y ∈ Y(x)}. 34 Pesquisa Naval Nº 15, Setembro de 2002 Este tipo de modelagem é adequado para problemas de planejamento com dois níveis de decisão descentralizados. No presente trabalho, é aplicado este modelo no problema de alocação dinâmica de veículos. 3 – Alocação Dinâmica de Veículos Um dos problemas de planejamento na logística está na designação dos veículos as cargas. O problema de roteamento de veículos, formulado inicialmente por Garvin et al. (1957), vem sendo amplamente estudado. Várias definições são apresentadas (GOLDEN et al. ,1977 ; CHRISTOFIDES ,1985), sendo que uma classificação para esse problema é dada por Bodin et al. (1983). Este problema consiste em achar rotas para os veículos da frota que minimizem os custos de distribuição da carga. Menor atenção tem sido dada a modelagem de transporte em vazio dos veículos, para pegar uma carga em uma dada localidade. O custo de transporte em vazio pode chegar a 40% do custo total de transporte (DEJAX & CRAINIC, 1987). Este problema é tratado no modelo Alocação Dinâmica de Veículos (ADV), onde os veículos são designados dinamicamente às cargas que aparecem distribuídas em diferentes localidades e período. Desta forma, a ADV vem se tornando um importante instrumento de auxílio na resolução de problemas envolvendo o gerenciamento de frotas, ao longo de um horizonte de planejamento, onde se busca maximizar o lucro total. O posicionamento dos veículos no espaço/tempo, seus despachos e um reposicionamento correto antecipando uma previsão de demanda, tornam-se fatores decisivos para empresas transportadoras. Portanto, o modelo ADV consiste em designar dinamicamente veículos às cargas que aparecem distribuídas aleatoriamente ao longo do tempo. De acordo com Powell & Carvalho (1998), as primeiras formulações abordando a ADV como uma rede linear aparecem nos trabalhos de White & Bomberault (1969). Dall’Orto & Leal (1999) caracterizam genericamente este problema da seguinte forma: Em um dado instante do tempo, tem-se um conjunto de veículos a serem designados a um conjunto de cargas, que pode ser maior ou menor que o conjunto de veículos. Deve-se decidir qual veículo será alocado a cada carga. As cargas são caracterizadas por uma origem e um destino (que podem estar em uma mesma localidade), por uma duração (que pode representar o tempo de viagem entre duas localidades), por janelas de tempo e por um vetor de requisitos necessários aos veículos para seu transporte. Os veículos são caracterizados por sua localização no tempo/espaço, por um vetor com seus atributos e por suas restrições de tempo. As demandas são distribuídas aleatoriamente ao longo do tempo e podem ser previstas com alguma incerteza. Cargas não atendidas em um determinado período de tempo são perdidas para o sistema, o que acarreta em perda para a empresa. Tendo em vista uma previsão da demanda deve-se realizar o reposicionamento de veículos para atendê-la, o que pode resultar em movimentos vazios entre pontos da rede. Outro fator a ser considerado Pesquisa Naval Nº 15, Setembro de 2002 35 é o desequilíbrio entre origem e destino de cargas dentre as regiões atendidas. Este desequilíbrio pode causar um desbalanceamento entre o potencial de carga de uma região e o número de veículos nela contidos. Deve-se portanto recomendar um reposicionamento entre as áreas para evitar este comportamento. A figura 3.1 permite uma visualização de uma rede dinâmica. Os arcos denominados carregados representam o movimento dos veículos com carga entre as regiões. Os arcos de inventário representam a permanência de veículos em uma região entre períodos. Os arcos vazios indicam o reposicionamento em vazio de um veículo e os arcos de salvamento levam o fluxo de cada região ao fim do horizonte de planejamento para um sorvedouro. Os veículos entram no sistema no período inicial e no final do horizonte de planejamento é levado a um sorvedouro para que não ocorra desequilíbrios no final do horizonte de planejamento,ou seja, para que os veículos não sejam erroneamente deslocados para uma região que tenha um retorno grande causando um descompasso no início de uma nova programação. Seja o modelo matemático de programação inteira abaixo. Nesta formulação assume-se que o tempo é divido em conjuntos discretos T = (0, 1, ..., T) onde T é o horizontede planejamento. 36 Pesquisa Naval Nº 15, Setembro de 2002 T max x , y F ( x , y ) = ∑ t =0 ∑ ∑ ( ∑∧ r x i∈σ j∈σ l∈ lt lt − cij yijt ) (3.1) ijt s.a : ∑τ x t∈ lt + zl = 1 ∀ l ∈ ∧ (3.2) l ∑x l∈∧ ijt lt + yijt − wijt = 0 ∀i , j ∈ σ , ∀t ≤ T ∑w −∑w l∈σ ijt j∈σ j ,i ,t −τ it = Rit ∀ (i , j ) ∈ N (3.3) (3.4) wijt , wijt ≥ 0 (3.5) xlt = (0,1) (3.6) Onde:σ é o conjunto de terminais i na rede; τij é o tempo de viagem do terminal i ao terminal j; N é o conjunto de nós (i, t) na rede dinâmica; Λé o conjunto de cargas l disponível dentro do horizonte de planejamento; Λ∈ijt é o conjunto de cargas l ∈ Λcom origem em i e destino em j tendo t como tempo factível de despacho; Rit é o fluxo de entrada (Rit > 0) ou de saída (Rit < 0) de veículos no ponto i no tempo t. Assume-se normalmente que Rit = 0 para t = 1. Vit é o número total de veículos no nó (i, t) aguardando para serem designados a cargas ou movimentados em vazio; Tl é o conjunto de tempos de despacho factíveis para satisfazer a carga l; rlt é o lucro gerado por escolher o tempo t para atender a carga l; cij é o custo de se reposicionar um veículo sobre o arco (i, j, t); xlt = 1 se a carga l for atendida no tempo t; zl = 1 se a carga l nunca for atendia; yijt é o número de veículos reposicionados em vazio usando o arco (i, j, t). Se i = j, yiit representa o número de veículos aguardando no terminal i do tempo t ao tempo t+1; wijt é o fluxo total de veículos no arco dinâmico (i, j, t). No modelo apresentado o transportador procura maximizar o lucro obtido com as cargas transportadas e minimizar o custo de viagens em vazio. Esta situação Pesquisa Naval Nº 15, Setembro de 2002 37 está representada na função objetivo (3.1). A restrição (3.2) representa que no máximo um veículo é alocado para atender cada carga. As restrições (3.3) e (3.4) representam as condições de conservação de fluxo de veículos em cada nó. A restrição (3.2) verifica, ainda, se o transportador atende ou não a carga durante o horizonte de planejamento. Este modelo não considera os atrasos ao atendimento da carga durante este horizonte. A fim de computar o número de atrasos no horizonte de planejamento, neste estudo a restrição (3.2) foi modificada para: t` ∑τ x t∈ lt + zlt = 1 ∀l ∈ ∧ , t `= 1, 2,..., τ (3.7) Desta forma sempre que o transportador não atender a uma carga no período t o valor de zlt será igual a um. No período seguinte o transportador terá de pegar a carga prevista e mais a carga não transportada no período anterior. Esta mudança não altera os resultados do problema, apenas torna explicito o número de atrasos durante o horizonte de planejamento. Diferentes abordagens tem sido dada à ADV , todos modelos apresentados consideram apenas um nível de decisão, onde o transportador decide a alocação ótima do veículos e qual o período que as cargas devem ser atendidas. Uma vez que na função objetivo do modelo ADV não considera uma penalidade por atraso, o transportador toma a decisão de pegar a carga no período que for mais conveniente para maximizar seu lucro e reduzir custos de viagens em vazio. Desta forma podem ocorrer vários atrasos, sendo estes não desejáveis para o expedidor. Em um sistema JIT, o atraso pode implicar , entre outros, custos adicionais em: estoque, paradas de produção, custo de setup, custos administrativos e replanejamento da produção. Em face da crescente importância dos custos de transporte e da redução de atrasos na logística, deve-se adotar modelos que consideram a sincronização das organizações envolvidas na SCM. A logística requer uma abordagem sistêmica, dessa forma modelos de planejamento logístico que consideram toda cadeia devem ser empregado. O modelo de ADV Binível, propostos neste trabalho, considera a sincronização das tomadas de decisões entre os expedidores e transportadores. 4 – Aplicação do Modelo Binível na ADV 4.1 – Modelo ADV Binível No problema em questão, considera-se que o expedidor é o líder, estando no primeiro nível; e o transportador é o seguidor, e está no segundo nível. Neste caso, o período de atendimento as cargas é controlada pelo expedidor, sendo estas variáveis de decisão do líder. A alocação dos veículos é uma decisão do transportador sendo esta uma variável do seguidor. Este problema está analiticamente formulado conforme modelo de programação binível apresentado a seguir: 38 Pesquisa Naval Nº 15, Setembro de 2002 T min z f ( z ) = ∑ t =0 ∑ ∑ ∑∧ z i∈σ T max x , y F ( x , y ) = ∑ t =0 j∈σ l∈ (4.1) lt ijt ∑ ∑ ( ∑∧ r x i∈σ j∈σ l∈ lt lt − cij yijt ) (4.2) ijt S .a : t` ∑τ x t∈ + zlt = 1 ∀l ∈ ∧ , t `= 1, 2,..., τ lt ∑x l∈∧ ijt lt + yijt − wijt = 0 ∀i, j ∈ σ , ∀t ≤ T ∑w −∑w l∈σ ijt j∈σ j ,i ,t −τ it = Rit ∀(i, j ) ∈ N (4.3) (4.4) (4.5) wijt , wijt ≥ 0 (4.6) xlt = (0,1) (4.7) O modelo acima foi implementado no software Mathematica ( www.wri.com) utilizando o algoritmo de solução (BIALAS & KARWAN, 1984) . 4.2 – Estudo de Caso Considere um caso hipotético de 3 localizações diferentes, 1, 2,e 3, onde são realizados despachos de cargas de uma localidade para outra. Considerou-se um horizonte de planejamento de 6 períodos, e o tempo de viagem entre as localidades de um período de tempo. Foram estudados 9 casos hipotéticos. Os valores empregados para custos, lucros e os despachos de cargas entre as localidades foram obtidos aleatoriamente . Em cada caso foram analisados diferentes condições da frota de veículo do transportador, variando de 13 a 6 veículos. Para cada caso foram estudadas duas situações: O modelo ADV e o modelo ADV Binível. Pesquisa Naval Nº 15, Setembro de 2002 39 5 – Análise dos Resultados Obtidos A seguir são apresentados os resultados obtidos para: lucro, atrasos e cargas perdidas; para os 9 casos estudados. As colunas Variação do Lucro, Variação atrasos e Variação cargas perdidas, indicam a variação percentual entre os índices obtidos utilizando o modelo ADVBinível, comparado com o modelo ADV . Observa-se nestas colunas que o modelo ADV-Binível consegue realizar uma alocação de veículos, onde: com uma pequena redução no lucro do transportador, consegue-se uma grande redução no número de atrasos e em alguns casos uma redução em cargas perdidas. CASO 1 13 ADV 277 17 Cargas Perdidas 0 veículos ADV-Binível 259 0 0 Frota Modelo Lucro Atrasos 12 ADV 273 17 0 veículos ADV-Binível 253 0 0 11 ADV 267 20 1 veículos ADV-Binível 247 1 1 10 ADV 260 17 2 veículos ADV-Binível 240 2 2 9 ADV 251 18 4 veículos ADV-Binível 229 4 4 8 ADV 242 23 6 veículos ADV-Binível 217 6 6 7 ADV 230 28 9 veículos ADV-Binível 226 19 8 6 ADV 214 29 11 veículos ADV-Binível 207 20 11 Variação Lucro Variação Atrasos -6% -100% Variação Cargas Perdidas 0% -7% -100% 0% -7% -95% 0% -8% -88% 0% -9% -78% 0% -10% -74% 0% -2% -32% -11% -3% -31% 0% 6 - Conclusão O modelo ADV possui um nível de decisão, considera que o transportador pode flexibilizar a data de expedição . Esta é a situação mais favorável para o transportador, pois ele controla as duas decisões: o período de expedição da carga e a programação dos veículos. Como este modelo não considera nenhuma penalidade por atraso, ele tomará a decisão que maximiza seu lucro, sem considerar problemas com atrasos. No modelo ADV binível, a data de expedição também é flexível, porém esta decisão é tomada pelo expedidor. Este modelo considera que no primeiro nível de decisão, o expedidor procura minimizar atrasos de expedição, e o transportador, situado no segundo nível maximiza o lucro no transporte de carga, controlando a programação de veículos. Os resultados obtidos revelam um grande potencial de aplicação da programação binível na logística. Este modelo pode auxiliar no processo de tomadade decisão para alocação de veículos, em uma parceria transportador/expedidor, fazendo uma análise custo–benefício entre maximização do lucro e minimização dos atrasos. O modelo de ADV Binível, proposto neste trabalho, considera a sincronização das tomadas de decisões entre os expedidores e transportadores, contribuindo para redução de custos de transporte e de atrasos na logística. 7 – Referências Bibliográficas BIALAS, W. KARWAN, M. “Two-Level Linear Programming” Management Science Vol.30 N. 8, 1984. BODIN, B. GOLDEN, ª ASSAD and M.BALL , Routing and scheduling of vehicles and crews: the state of the art, Comp. Oper.Res. 10(1983)62-211. CARTER,J.R. e FERRIN,B.G. (1995). The impact of transportation costs on supply chain management. Journal of Business Logistics, vol 16, nº 1, pp. 189-212. CHRISTOFIDES, Vehicle routing, in : The Traveling Salesman Problem: A Guide Tour of Combinatorial Optimization, Wiley – 1985. DALL’ORTO, L. e LEAL, J.”Abordagens para o Tratamento da Alocação Dinâmica de Veículos” XXXI SBPO Simpósio Brasileiro de Pesquisa Operacional, pp 1125-1135 DEJAX, P. J. e CRANIC, T. G. “A Review of Empty Flows and Fleet Management Models in Freight Transportation”. Transportation Science, 21(4), 227-247, (1987). GARVIN, H.W. CRANDALL, J.B. JOHN and R. SPELLMAN, Applications of linear programming in the oil industry, Manag.Sci. 3 (1957) 407-430. GOLDEN, T. MAGNANTI and H. NGUYEN, Implementing vehicle routing algorithms: Networks 7,113-148 (1977). POWELL, W. B. e CARVALHO, T. A “Dynamic Control of Logistics Queueing Networks for Large-Scale Fleet Management”. Transportation Science, 32(2), 90-109, (1998). RUBIN , P.A e CARTER, J. R. (1990) Joint optimality in buyer-supplier negotiations. Journal of Purchasing and Materials Management, vol 26, nº 2, pp 20-26. WEN, P. e HSU, S.T.(1991) ; Linear bi-level programming problems – A review ; Journal of the Operational Research Society; vol 42, pp 125 – 133. WHITE, W. e BOMBERAULT, A. “A Network Algorithm for Empty Freight Car Allocation”. IBM Systems Journal, 8(2), 147-171, (1969). III Capítulo SISTEMA FUZZY COM APRENDIZADO APLICADO AO CONTROLE DE UM NAVIO CARGUEIRO S. A. Valente, M.Sc. Centro Universitário Positivo - UNICENP Rua Prof. Pedro Viriato Parigot de Souza, 5300 80000-000, Curitiba PR, Brazil tel: 41-3173000 - fax: 41-3173030 E-MAIL: [email protected]. BR L. V. R. Arruda, PhD Centro Federal de Educação Tecnológica do Paraná Av. 7 de Setembro, 3165 80230 - 901, Curitiba PR, Brazil tel: 41-3104689 - fax: 41-3104686 e-mail: [email protected] Resumo Neste artigo, desenvolve-se um controlador por modelo de referência fuzzy com aprendizagem, tendo como principal inovação uma nova forma de sintonia dinâmica da base de regras fuzzy. Diferente dos controladores adaptativos convencionais que sintonizam indefinidamente os seus parâmetros a cada mudança nas condições de operação da planta, este novo controlador ao encontrar condições de operações já ocorridas, é capaz de lembrar das sintonias utilizadas anteriormente, melhorando assim o seu tempo de resposta a variações de parâmetros do sistema. O sistema de controle desenvolvido é aplicado ao controle da direção de navegação de um navio cargueiro sujeito a variações na velocidade linear deste navio. Os resultados obtidos comprovam a eficiência do controle desenvolvido. 42 Pesquisa Naval Nº 15, Setembro de 2002 Abstract In this paper, a Fuzzy Model Reference Learning Control (FMRLC) with a new way to adapt the fuzzy rulebase is develop. This controller differs from conventional adaptive controllers which tune indefinitely its parameters to face of plant variations. When known operational conditions is attained again, the proposed controller is able to remember the old tuning parameter, in order to get a fast response to plant variations. As results, the FMRLC strategy is successfull applied to ship steering control problem. 1. Introdução A necessidade de melhorar o desempenho global das plantas tem levado a indústria de processos a adotar estratégias de controle avançado. Um sistema de controle adaptativo possui a habilidade de melhorar o desempenho do sistema em malha fechada, a partir da análise de informações passadas do sistema, de variações dinâmicas da planta e do ambiente (perturbações) onde está inserido. Existem 4 tipos de sistemas de controle adaptativo: escalonamento de ganho, controle adaptativo por modelo de referência, reguladores auto-ajustáveis e controle dual (Astrom & Wittenmark, 1989). O sistema de controle desenvolvido neste trabalho pode ser classificado como um controlador por modelo de referência (MRAS – Model Reference Adaptive System) uma vez que as especificações de desempenho em malha fechada são determinadas a partir de um modelo de referência. Desta forma, o MRAS possui um mecanismo de adaptação que ajusta os parâmetros do controlador de tal modo que o erro entre as saídas do processo e do modelo de referência seja o mínimo possível. Neste trabalho, este mecanismo de adaptação é implementado via lógica fuzzy o que confere ao sistema de controle além da habilidade de adaptação, uma capacidade de aprendizado por experiência. Além disso, a ação de controle propriamente dita é calculada por um controlador fuzzy do tipo PD. Isto permite o controle de processos cujos modelos não são facilmente obtidos com as técnicas de identificação clássicas, comumente utilizadas em controle adaptativo. O Controlador por Modelo de Referência Fuzzy com Aprendizagem (FMRLC – Fuzzy Model Reference Learning Control) distingue-se dos controladores adaptativos convencionais, porque o FMRLC realiza a sintonia de seus próprios parâmetros e, dentro de um certo limite, lembra-se dos valores sintonizados no passado. Os controladores adaptativos convencionais, ao contrário, não possuem “memória” e simplesmente continuam a sintonizar indefinidamente seus parâmetros. Desta forma, quando um FMRLC é bem projetado e retorna a uma condição de operação conhecida, ele já sabe como controlar a planta nesta condição. Em contraposição, muitos dos controladores adaptativos convencionais têm que refazer a sintonia de seus parâmetros cada vez que uma nova condição de operação é alcançada pela planta. Pesquisa Naval Nº 15, Setembro de 2002 43 Este trabalho propõe um controlador FMRLC universal e descreve sua aplicação ao controle de velocidade de um navio cargueiro. O artigo é organizado como segue: na seção dois descreve-se o controlador FMRLC desenvolvido, na seção 3 é feita a modelagem do navio cargueiro utilizado para validação do controlador, na seção 4 é realizada a sintonia inicial do controlador FMRLC para ajustá-lo às condições de utilização no controle do navio. Os resultados alcançados no controle de velocidade do cargueiro é apresentado na seção 5 e, finalmente a seção 6 traz algumas conclusões e comentários sobre trabalhos futuros. 2. Controle por Modelo de Referência Fuzzy com Aprendizagem O controlador FMRLC desenvolvido possui três partes principais, conforme mostrado na figura 1: o controlador fuzzy PD a ser sintonizado, o modelo de referência e o mecanismo de aprendizagem / adaptação. O FMRLC usa o mecanismo de aprendizagem para caracterizar o desempenho atual do sistema de controle a partir dos sinais de saída da planta e do modelo de referência. A partir desta caracterização, o FMRLC automaticamente ajusta o controlador PD de modo a atingir um dado objetivo de desempenho. Esse objetivo de desempenho em malha fechada é especificado pelo modelo de referência, que também faz parte da estrutura do FMRLC. Cada uma destas partes é descrita a seguir. Modelo de Referência Mecanismo de aprendizagem y m(t) Modelo Fuzzy Inverso gye Modificador da Base de Regras p(t) gp Máquina de gyc + y e (t) y c (t) Inferência r(t) + Σ (1- z- 1 )/T e(t) ge c(t) gc Máquina de gu u( t) Σ (1- z- 1 )/T - y(t) Planta Inferência Controlador Fuzzy Figura 1 – Estrutura do FMRLC em um sistema de controle. 2-1. O Controlador Fuzzy PD A planta na figura 1 é monovariável, já o controlador Fuzzy tem como entradas o erro entre a saída da planta e a referência e a sua derivada: e (t ) = r (t ) − y (t ) (1) 44 Pesquisa Naval Nº 15, Setembro de 2002 e(t ) − e(t − 1) , (2) T o que mostra que este controlador fuzzy é do tipo proporcional-derivativo (PD). O parâmetro T é o intervalo de amostragem utilizado na discretização dos sinais. c (t ) = Também são utilizados neste controlador, os ganhos ge, gc e gu associados ao erro e(t), à derivada do erro c(t) e à saída do controlador u(t), respectivamente. O valores iniciais para esses ganhos, que deverão ser ajustados ao longo do processo de sintonia do controlador, podem ser estimados da seguinte maneira (Passino, 1998): Ganho ge: escolhido de tal forma que a faixa de valores normalmente assumida pelo sinal e(t) não provoque saturação nas funções de pertinência mais externas da base de regras do controlador fuzzy. Ganho gc: determinado de forma experimental com diversos sinais de entrada para o controlador, de modo a se determinar a faixa normal de variação do sinal c(t), e possibilitando a sua escolha de maneira a não provocar saturação nas funções de pertinência da base de regras do controlador. Ganho gu: escolhido de tal forma que a faixa de valores assumida pelo sinal u(t) não sature a entrada da planta. Base de Regras A base de regras do controlador fuzzy tem regras sob a forma Se eé Ej e c é Cl então u é U m (3) em que e e c denotam as variáveis lingüísticas associadas às entradas e(t) e c(t) do controlador, respectivamente, e u denota a variável lingüística associada à saída u(t) do controlador. Ej e Cl denotam o j-ésimo e o l-ésimo valores lingüísticos associados às variáveis e e c, respectivamente, enquanto que Um denota o valor lingüístico conseqüente da variável u. As funções de pertinência utilizadas para todas as variáveis de entrada e saída do controlador fuzzy são distribuídas conforme mostra a figura 2. O universo de discurso, normalizado no intervalo [-1,1] através dos ganhos ge, gc e gu, está dividido em intervalos igualmente espaçados, com um total de 11 funções de pertinência, numeradas por conveniência de –5 a 5. Considerando as 11 funções de pertinência das 2 variáveis de entrada, e(t) e c(t), isto resulta numa base com um total de 112 = 121 regras. Estas escolhas foram feitas de acordo com as sugestões dadas em (Passino & Yurkovitch, 1998). Pesquisa Naval Nº 15, Setembro de 2002 45 Figura 2 – Funções de pertinência Inicialização da Base de Regras As funções de pertinência de entrada são mantidas fixas e não são ajustadas pelo FMRLC. As funções de pertinência no universo de discurso da variável de saída têm a mesma forma das funções da figura 2 mas, em princípio, os centros de cada uma das funções são desconhecidos. São estes centros que o FMRLC vai ajustar ao longo de sua operação, justificando o termo adaptativo. Assim, o FMRLC tenta aprender quais ações devem ser tomadas, isto é, quais valores ele deve atribuir à variável de controle u(t), para as diversas situações caracterizadas pelas premissas das regras em sua base de conhecimento. Os valores iniciais para os centros das funções de pertinência da variável de saída u(t) são todos iguais a zero, o que significa que o controlador não sabe, a priori, nada sobre o sistema que irá controlar. Para completar a especificação do controlador fuzzy, são usadas operações de mínimo para as conjunções e implicações, operações de máximo para as disjunções e agregações, e é usado o método de centro de área para a defuzzificação. Obviamente, estas escolhas não são, necessariamente, as melhores, mas têm apresentado bons resultados em diversas aplicações práticas [Passino & Yurkovitch, 1998]. 2-2. O Modelo de referência O modelo de referência deve ser escolhido de tal forma que reflita o desempenho esperado da planta. Basicamente, deve-se especificar a performance desejada, mas também uma performance que seja atingível. Se o modelo de referência apresentar uma dinâmica muito exigente, o controlador poderá não ser capaz de atendê-lo. Isto ocorre porque algumas características das plantas reais impõem restrições práticas sobre quais desempenhos podem ser atingidos. Em geral, os modelos de referência são escolhidos de forma empírica, ajustando-se os coeficientes de um modelo de 1ª ou de 2ª ordem até que um desempenho satisfatório possa ser caracterizado (Landau, 1979). 46 Pesquisa Naval Nº 15, Setembro de 2002 O desempenho do sistema como um todo é calculado em relação ao modelo de referência pelo mecanismo de aprendizagem através da geração do sinal de erro de saída y e (t ) = y m (t ) − y (t ) . (4) Uma vez que o modelo de referência caracteriza alguns critérios de projeto tais como tempo de subida e sobre-sinal, e que a entrada para o modelo de referência é a setfunction r(t), o desempenho desejado do processo controlado é atingido se o mecanismo de aprendizagem forçar ye(t) a permanecer pequeno em todo tempo, não importando qual seja o sinal de referência ou quais parâmetros da planta possam vir a variar. Assim, o erro ye(t) provê uma medida de quanto o desempenho desejado é atingido num dado instante. Se o desempenho é atingido, isto é, se ye(t) é pequeno, então o mecanismo de aprendizagem não fará mudanças significativas na base de regras do controlador. Por outro lado, se ye(t) for grande, o desempenho estará aquém do desejado e o mecanismo de aprendizagem, descrito a seguir, deve ajustar a base de regras do controlador apropriadamente. 2-3. O Mecanismo de aprendizagem O mecanismo de aprendizagem ajusta a base de regras do controlador fuzzy de modo que o sistema em malha fechada se comporte como o modelo de referência. O mecanismo de aprendizagem consiste de duas partes: o modelo fuzzy inverso e o modificador da base de regras. O modelo fuzzy inverso tem a função de realizar o mapeamento ye(t)→p(t), isto é, do desvio em relação ao comportamento desejado, ye(t), para o sinal p(t), que representa as mudanças na entrada do processo que são necessárias para forçar ye(t) a zero. O modificador da base de regras tem a função de modificar a base de regras do controlador fuzzy de modo que este, de fato, provoque as mudanças necessárias na entrada da planta. O Modelo Fuzzy Inverso Usando o fato de que na grande maioria das vezes o projetista pode, ao menos de forma aproximada, caracterizar o comportamento dinâmico inverso da planta controlada, usa-se um modelo fuzzy inverso para mapear o erro ye(t) e, em geral, funções do erro tais como yc(t), para a variável p(t), que representa as mudanças a serem feitas na entrada da planta para fazer o erro tender a zero. O sinal yc(t) representa a taxa de variação do erro ye(t), e é calculado por meio de yc (t ) = ye (t ) − ye (t − 1) . T (5) Assim como o controlador fuzzy, o modelo fuzzy inverso também possui ganhos, conforme mostra a figura 1, denominados gye, gyc e gp, que são calculados utilizando procedimentos semelhantes aos descritos para a obtenção dos ganhos do controlador. A base de regras do modelo fuzzy inverso também tem regras da forma Pesquisa Naval Nº 15, Setembro de 2002 Se y e é Ye j e y c é Ycl 47 então p é Pm (6) em que ye e yc denotam as variáveis lingüísticas associadas às entradas ye(t) e yc(t) do modelo inverso, respectivamente, e p denota a variável lingüística associada à sua saída p(t). Yej e Ycl denotam o j-ésimo e o l-ésimo valores lingüísticos associados às variáveis ye e yc, respectivamente, enquanto que Pm denota o valor lingüístico conseqüente da variável p. As funções de pertinência utilizadas para ambas as variáveis de entrada e para a variável de saída do modelo fuzzy inverso também são distribuídas conforme mostra a figura 2. Modificador da Base de Regras Considerando que a ação de controle no instante anterior, u(t-1), seja a única influência do controlador sobre o desempenho atual do sistema (isto é, que tenha feito y(t) se aproximar ou não de ym(t)), e lembrando que e(t-1) e c(t-1) foram as entradas do controlador neste instante, modifica-se a base de regras do controlador, nas funções de pertinência ativadas pelos valores de e(t-1) e c(t-1), para gerar um sinal igual a u(t1)+p(t), o qual deveria ter sido a entrada da planta para fazer ye(t) menor. Assim, da próxima vez que os sinais e(t) e c(t) assumirem valores similares, a entrada da planta será tal que tenderá a reduzir a diferença entre y(t) e ym(t), e o controlador terá memorizado a ação de controle para esta situação em particular. Seja bm o centro de uma dada função de pertinência do controlador fuzzy associada a Um. A modificação da base de regras do controlador é feita através do deslocamento dos centros bm de todas as funções de pertinência da variável lingüística Um que estiverem associadas com as regras do controlador que contribuíram para a ação de controle u(t-1). Este deslocamento é feito em duas etapas: Verifica-se quais regras do controlador são ativas no instante t-1, isto é, quais regras tem grau de certeza da premissa satisfazendo a expressão µ i ( e(t − 1), c(t − 1) ) > 0 (7) Se bm(t) denota o centro da m-ésima função de pertinência no instante t, aplica-se a equação (8) em todas as regras inclusas do conjunto de regras ativas, de modo a deslocar os centros das funções de pertinência dos seus termos conseqüentes. bm (t ) = bm (t − 1) + p(t ) gu (8) 3. Controle da direção de navegação do navio cargueiro A figura 3 ilustra o sistema sendo modelado, mostrando a grandeza física considerada como entrada (ângulo de leme, δ) e aquela considerada como saída (direção de navegação, ψ), ambas medidas em radianos. 48 Pesquisa Naval Nº 15, Setembro de 2002 Ângulo do leme δ ψ Direção de navegação Figura 3 – Representação esquemática do sistema modelado (navio de carga) Em geral, a dinâmica de um navio é equacionada por meio da aplicação das leis de Newton ao seu movimento. Para navios de grande porte, o movimento no plano vertical pode ser desprezado porque o efeito de “sobe-desce” é imperceptível neste tipo de embarcação. Um modelo deste tipo de navio, proposto originalmente por Åström (1995) e utilizado por Passino & Yurkovitch (1998), é dado por &&&(t ) + ( ψ 1 1 1 K + )ψ&&(t ) + ( )ψ& (t ) = (τ 3δ& (t ) + δ (t )) τ1 τ 2 τ 1τ 2 τ 1τ 2 (9) As constantes K, τ1, τ2 e τ3 são parâmetros do movimento do navio, calculadas em função do seu comprimento (l) e da sua velocidade na direção de navegação (v), segundo as equações v K = K 0 . e l (10) . (11) l τ i = τ i 0 . v O valores numéricos para os parâmetros l, v, K0, τ10, τ20 e τ30 são mostrados na Tabela 1 (Åström & Wittenmark, 1995). Parâmetro Valor l 161 m v 5 m/s K0 -3,86 τ10 5,66 τ20 0,38 τ30 0,89 Tabela 1 – Valores dos parâmetros do modelo convencional da planta A Eq. (9) é decomposta em três equações diferenciais de estado não lineares de primeira ordem x&1 (t ) = x 2 (t ) = y (t ) , (12) x& 2 (t ) = x 3 (t ) + c.u(t ) e (13) Pesquisa Naval Nº 15, Setembro de 2002 49 (14) x& 3 (t ) = −a.[ x 3 (t ) + c.u (t )] − b.[ x 23 (t ) + x 2 (t )] + d .u (t ) em que, a= 1 1 + τ1 τ 2 b= 1 τ 1τ 2 c= Kτ 3 τ 1τ 2 d= K τ 1τ 2 Estas equações são em seguida discretizadas para a simulação num computador digital. Modelo de Referência Utilizado. O modelo de referência utilizado é o sistema linear de 2ª ordem modelado como k1 . &y&m (t ) + k 2 . y& m (t ) + k 3 . y m (t ) = k 4 .r (t ) . (15) Após discretização, a saída do modelo de referência pode ser obtida pela equação y m (t ) = [ 1 (2k1 + k 2T ).y m (t − T ) − k1. y m (t − 2T ) + k 4 .T 2 .r (t ) k5 ] (16) em que k5 = 1 k1 + k 2T + k 3T 2 e que é apropriada para simulação via software. As constantes k1 a k4 são calculadas de modo a prover um sinal adequado ao tempo de resposta do sistema em questão (Passino & Yurkovitch, 1998). Como o navio apresenta inércia elevada, os coeficientes são escolhidos de forma a tornar a saída do modelo de referência bastante lenta, conforme mostra a Tabela 6.1. Parâmetro k1 VALOR 1 k2 0,1 k3 0,0025 k4 0,0025 Tabela 6.1 – Valores dos parâmetros do modelo de referência As variáveis utilizadas no controlador FMRLC são mostradas na figura 4, ilustrando os seus significados físicos para o caso do navio de carga. 50 Pesquisa Naval Nº 15, Setembro de 2002 Ângulo do Leme δ = u(t) + umáx=80º ym(t) y(t) y(t) Erro ye(t) + umín= -80º Derivada yc(t) + Derivada yc(t) - Direção do Navio (Ψ) Modelo de Referência Direção do Navio (Ψ) Figura 4 – Significado físico dos sinais do FMRLC no caso considerado Considerações sobre o Sinal de Controle e o Atuador. Devido às limitações físicas da planta controlada, as simulações realizadas levaram em consideração duas condições: Limitação em amplitude de u(t): o sinal de saída do controlador não deve exceder os limites físicos para o ângulo do leme, a saber, 80º para cada lado. Logo, para u(t) medido em radianos: − 8π 8π ≤ u (t ) ≤ + 18 18 (17) Limitação em freqüência de u(t): o sinal de saída do controlador deve respeitar a limitação física do atuador mecânico que movimenta o leme. Partiu-se da suposição de que o atuador levaria pelo menos 30s para levar o leme de uma extremidade à outra. Assim, a taxa de variação do ângulo do leme, suposta constante, é dada por: du (t ) dt = máx u máx − u mín 8π = rad / s = 5,33 graus / s ∆t 270 (18) Base de Regras do Modelo Fuzzy Inverso. Para o sistema aqui modelado, a saída da planta y(t) (o ângulo de direção do navio, ψ) tem uma relação inversa com a sua entrada u(t) (o ângulo do leme, δ). Isto é facilmente observável na figura 4, onde nota-se que um aumento do ângulo do leme provocará uma diminuição do ângulo de direção do navio e vice-versa. Por esse motivo, a dinâmica inversa esperada é simples: se o erro ye(t) for positivo, isto é, se ym(t)>y(t), Pesquisa Naval Nº 15, Setembro de 2002 51 então o sinal aplicado na entrada da planta, o ângulo do leme, deve ser reduzido. Por outro lado, se o erro ye(t) for negativo, isto é, se ym(t)<y(t), então o sinal aplicado na entrada da planta deve ser aumentado. Análise semelhante à feita para o erro pode ser feita para a sua derivada, yc(t). Se a derivada é positiva, a diferença ym(t)-y(t) está aumentando, e o ângulo do leme deve ser diminuído. Se a derivada é negativa, u(t) deve ser aumentado. Esta dinâmica é mapeada na Tabela 2, que representa a base de regras do modelo fuzzy inverso. Os valores apresentados são os centros das funções de pertinência, para a variável p(t), em função das diversas combinações de ye(t) e yc(t), conforme mostrado na figura 2. ye(t) -5 -4 -3 -2 -1 0 1 2 3 4 5 -5 1,0 1,0 1,0 1,0 1,0 1,0 0,8 0,6 0,4 0,2 0,0 -4 1,0 1,0 1,0 1,0 1,0 0,8 0,6 0,4 0,2 0,0 -0,2 -3 1,0 1,0 1,0 1,0 0,8 0,6 0,4 0,2 0,0 -0,2 -0,4 -2 1,0 1,0 1,0 0,8 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -1 1,0 1,0 0,8 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 yc(t) 0 1,0 0,8 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 1 0,8 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 -1,0 2 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 -1,0 -1,0 3 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 -1,0 -1,0 -1,0 4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 -1,0 -1,0 -1,0 -1,0 5 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 -1,0 -1,0 -1,0 -1,0 -1,0 Tabela 2 – Centros das funções de pertinência da base de regras do modelo fuzzy inverso Ganhos do Modelo Fuzzy Inverso e do Controlador. Para as simulações realizadas foram tomados, inicialmente, os valores de ganho para o modelo fuzzy inverso e para o controlador constantes da Tabela 3 (Passino & Yurkovitch, 1998). Estes valores levam em consideração que o sinal de entrada da planta u(t), isto é, o ângulo do leme do navio, deve variar entre os valores ±80º, ou ±8π/ 18 radianos. Ganho VALOR ge 1/π gc 100 gu 8π/18 g ve 1/π g vc 5 gp 8π/18 Tabela 3 – Valores dos ganhos do modelo fuzzy inverso e do controlador 52 Pesquisa Naval Nº 15, Setembro de 2002 4. Resultados de simulação O controlador FMRLC desenvolvido foi aplicado ao navio de carga utilizando como entrada uma onda quadrada com pulsos alternados de ±45º e período de 1000s. A partir de um determinado instante dobra-se a velocidade linear do navio, isto é, o sistema sofre uma variação de parâmetros. Os resultados obtidos são mostrados nas figuras 5 e 6. Analisando estas figuras percebe-se o bom desempenho do controlador proposto. Na figura 5 observa-se que o sistema apresenta um pequeno desvio em relação ao modelo de referência logo após a variação da velocidade, que é compensada ao longo dos instantes posteriores da simulação. A figura 6 mostra que a saída do controlador, u(t), após o período de transição, tem sua intensidade inicialmente diminuída, o que é um resultado esperado: quanto maior a velocidade de um navio, maior a força com que o leme provoca uma variação na sua direção de navegação; a saída do controlador, então, pode ter uma amplitude menor para atingir a mesma variação na variável de saída da planta, y(t). 1,00 [rad] 0,50 Aumento da Velocidade velocidade mais alta 0,00 [s] 0 1500 3000 4500 -0,50 -1,00 Modelo de Referência, ym(t) Setpoint, r(t) Saída do Modelo Convencional, y(t) Figura 5 – Resposta do sistema controlado 2,00 1,50 1,00 Aumento da velocidade [rad] 0,50 Velocidade mais alta 0,00 -0,50 [s] 0 1500 3000 4500 -1,00 -1,50 -2,00 Saída do Controlador, u(t) Setpoint, r(t) Figura 6 – Resposta do controlador Pesquisa Naval Nº 15, Setembro de 2002 53 5. Conclusões Neste trabalho foi desenvolvido um controlador fuzzy adaptativo do tipo FMRLC tendo como principal inovação a nova forma de sintonia dinâmica da base de regras deste controlador. Esta metodologia calcula os coeficientes que representam os graus de influência dos sinais de controle, em instantes passados, na saída atual do sistema. Estes coeficientes são, então, utilizados no algoritmo de sintonia da base de regras do controlador fuzzy adaptativo. A maior vantagem do FMRLC sobre um controlador adaptativo convencional é evidente: com o passar do tempo, o primeiro aprende como controlar a planta e armazena este aprendizado em sua memória (a base de regras); o segundo, tem que reaprender a cada nova situação encontrada, o que compromete a sua velocidade de resposta, isto é, o tempo levado pelo controlador até torna-se capaz de gerar um sinal de controle adequado para guiar a planta à condição desejada. Apesar dos bons resultados obtidos nas simulações realizadas, o FMRLC não é adequado para o controle de qualquer planta. Para sistemas que apresentem fase nãomínima, por exemplo, pode não ser possível a obtenção do modelo fuzzy inverso, muito embora ele não caracterize um modelo inverso da planta sob o ponto de vista formal. 6. Referências Bibliográficas ÅSTRÖM, K.J.; WITTENMARK, B. Adaptive Control, Addison-Wesley, Reading, MA, (1995). PASSINO, K. M.; YURKOVICH, S. Fuzzy Control, Addison-Wesley, Menlo Park, California (1998). LANDAU, Y.D. Adaptive Control: The Model Reference Approach, Marcel Dekker, New York, (1979). HARRIS, C.J.; MOORE, C.G.; BROWN, M. Intelligent Control: Aspects of Fuzzy Logic and Neural Nets, World Scientific Series in Robotics and Automated Systems, World Scientific, Londres (1993). VALENTE, S.A. Desenvolvimento de um controlador fuzzy adaptativo com modelagem por redes neurais, dissertação de mestrado, CPGEI – CEFET/PR, (2001). Instituto de Pesquisas da Marinha SISTEMA DE PREVISÃO DE ALCANCE SONAR ATIVO E TRAÇADO DE RAIOS SONOROS – SPARS 3.2 O SPARS 3.2 atende aos seguintes requisitos: É desenvolvido para ambiente Windows; Avalia o ambiente marinho, sendo capaz de prever a ocorrência de dutos (de superfície e sub-superfície), zonas de convergência e reflexões no fundo; Efetua o traçado dos raios sonoros, dando ênfase à eventual ocorrência de dutos, zonas de convergência e reflexões no fundo; Calcula as perdas na propagação tanto para águas rasas quanto para águas profundas, com ou sem dutos; Calcula o alcance sonar previsto, considerando tanto a limitação por ruído quanto por reverberação; e Representa graficamente a distribuição espacial da probabilidade de detecção sonar, em função do excesso de eco, para uma dada probabilidade de falso-alarme; Este sistema encontra-se instalado a bordo de todos os navios da Esquadra desde dezembro de 2000. Instituto de Pesquisas da Marinha Rua Ipiru, s/nº - Praia da Bica – Ilha do Governador CEP 21931-090 – Rio de Janeiro – RJ – Brasil Fone: (021) 3386-2750 – Fax: (021) 3386-2788 e-mail: [email protected] IV Capítulo MÉTODO MULTICRITÉRIO PARA SELEÇÃO DE VARIÁVEIS EM MODELOS DEA João Carlos Correia Baptista Soares de Mello Professor Adjunto do Departamento de Engenharia de Produção Universidade Federal Fluminense – [email protected] Eliane Gonçalves Gomes Doutoranda do Programa de Engenharia de Produção – COPPE Universidade Federal do Rio de Janeiro – [email protected] Maria Helena Campos Soares de Mello Professora Assistente do Departamento de Engenharia de Produção Universidade Federal Fluminense – [email protected] Marcos Pereira Estellita Lins Professor Adjunto do Programa de Engenharia de Produção – COPPE Universidade Federal do Rio de Janeiro – [email protected] Caixa Postal: 68543, CEP: 21945-970, Rio de Janeiro, RJ, Brasil Resumo Recentemente vários autores têm defendido o uso de Análise Envoltória de Dados (DEA) como uma ferramenta de Apoio Multicritério à Decisão. No entanto, este uso esbarra na freqüente fraca ordenação fornecida por DEA. Métodos como restrições aos pesos e avaliação cruzada são usados para corrigir este problema. É proposto neste artigo um novo método, baseado na seleção de um número reduzido de inputs e outputs (critérios), que representa adequadamente a relação causal e que não atribui eficiência unitária a um número demasiado de DMUs (alternativas). 56 Pesquisa Naval Nº 15, Setembro de 2002 Este método é aplicado ao caso real da análise de eficiência de turmas de Cálculo I da Universidade Federal Fluminense, e seus resultados comparados com os obtidos quando da aplicação do método de restrições aos pesos. Abstract The use of Data Envelopment Analysis (DEA) as a tool for Multicriteria Decision Aid (MCDA) is of increasing interest. However, this approach has the disadvantage of making a poor ranking. Weight Restrictions and Cross Efficiency are some the methods used to minimize this disadvantage. In this paper is proposed a new method based on the proper reduction of the inputs (resources) and the outputs (products) number, using DEA as a MCDA tool. The real case of the First Calculus Class efficiency, in Universidade Federal Fluminense, is analyzed and the results are compared with a previous work that used the weight restriction method. Palavras-chave: Análise Envoltória de Dados, Apoio Multicritério à Decisão, Seleção de Variáveis, Educação. Key-words: Data Envelopment Analysis, Multicriteria Decision Aid, Variables Choice, Education. 1. Introdução A Análise Envoltória de Dados (Data Envelopment Analysis – DEA) é, na sua origem, um método não paramétrico para calcular a eficiência de unidades produtivas, denominadas de Unidades Tomadoras de Decisão (Decision-Making Unit – DMU) (Charnes et al., 1978). Os métodos paramétricos clássicos lidam com a multiplicidade de recursos (inputs) e produtos (outputs) fazendo a agregação em, respectivamente, um input e output únicos. Uma maneira comum de fazer esta agregação é substituindo cada input e output por seu valor monetário. No entanto, há casos em que esse método pode tanto não ser conveniente quanto não ser possível, como ocorre com freqüência quando são analisadas unidades de saúde ou educacionais. Os modelos DEA fazem a agregação de inputs e outputs transformando-os em, respectivamente, inputs e outputs virtuais, resultantes de uma combinação linear dos inputs e outputs originais. Os pesos usados nesta combinação linear são calculados através de um problema de programação linear, de forma que cada DMU se beneficie com a melhor combinação de pesos, maximizando sua eficiência. Em uma outra perspectiva, as DMUs podem ser vistas como alternativas que se quer ordenar segundo suas eficiências, ou alocar em duas classes, a saber, eficientes e não eficientes, ou ainda, escolher a mais eficiente. Em qualquer destas situações, inputs e outputs são usados como critérios. As ações tomadas na perspectiva anterior Pesquisa Naval Nº 15, Setembro de 2002 57 são análogas, respectivamente, às problemáticas multicritério de ordenação (Pγ), alocação (Pβ) e escolha (Pα) (Barba-Romero e Pomerol, 1997). Alguns autores (Gomes et al., 2000, Sarkis, 2000, Bouyssou, 1999, Farinaccio e Ostanello, 1999, Farinaccio, 1998, Belton e Stewart, 1997) vêm estudando as relações existentes entre DEA e o Apoio Multicritério à Decisão (Multicriteria Decision Aid – MCDA), incluindo-se o uso de DEA como ferramenta de MCDA. Este uso exige desenvolvimentos que vão além do modelo original, tais como, restrições aos pesos (Lins e Angulo-Meza, 2000), eficiência cruzada (Sexton, 1986, Angulo-Meza, 1998), agregação de eficiências parciais (Rangel et al., 1999) e supereficiência (Andersen e Petersen, 1993). Este artigo enfoca o problema da fraca discriminação que surge no uso de DEA como ferramenta MCDA na problemática Pγ. É apresentado um método não subjetivo baseado no uso adequado de um número limitado de inputs e outputs, de modo a melhorar o poder discriminatório de DEA. Ao invés do uso de técnicas estatísticas para a seleção de variáveis (Lins e Moreira, 1999, Friedman e Sinuany-Stern, 1998), o método proposto baseia-se na necessidade de compromisso entre dois objetivos conflitantes: máxima discriminação e melhor ajuste à fronteira. Este método é aplicado ao estudo de caso da análise de eficiência de turmas de Cálculo I da Universidade Federal Fluminense, comparando-se os resultados com os obtidos por Soares de Mello et al. (2000) ao usarem restrições aos pesos em DEA. 2. DEA e MCDA Os métodos de MCDA tradicionais necessitam de uma fase de estruturação que, segundo Bana e Costa e Correa (2000), representa cerca de 80% do total do problema. Esta fase envolve a identificação do(s) objetivo(s) do decisor, a identificação de alternativas viáveis, a escolha de critérios (nem sempre evidentes), a quantificação de variáveis subjetivas, entre outras etapas que dependem de cada problema abordado. Em DEA, a fase de estruturação é usualmente bem menor. O objetivo é medir a eficiência de processos, habitualmente já realizados. Os inputs e outputs são, em geral, aqueles para os quais há informações disponíveis, o que motiva alguns autores a classificarem DEA como método oportunista (Belton e Stewart, 1997). Há poucos trabalhos sobre a escolha das variáveis (inputs e outputs), podendo-se citar o trabalho de Lins e Moreira (1999) como um dos que aborda o problema. Das características de MCDA e DEA, pode-se afirmar que o primeiro é altamente subjetivo (dependente das opiniões do decisor), enquanto que o segundo é extremamente objetivo (Belton e Stewart, 1997). Em contrapartida, os métodos MCDA, em especial os da Escola Americana, conduzem a uma boa ordenação das alternativas. Já no estudo por DEA esta ordenação é deficiente, visto que podem ser encontradas várias DMUs com 100% de eficiência. Deve-se destacar que qualquer método usado para encontrar um meio termo entre a objetividade de DEA e a boa ordenação produzida pelas técnicas de MCDA, só 58 Pesquisa Naval Nº 15, Setembro de 2002 deve ser utilizado em problemas que sejam tratáveis pelas duas abordagens, ou seja, quando se deseja classificar alternativas que produzam algo, utilizando-se de determinados recursos. Refira-se que existe uma outra corrente que considera possível o uso de DEA como ferramenta MCDA, desde que os critérios a minimizar sejam considerados inputs e os critérios a maximizar sejam considerados outputs. 3. Seleção de Variáveis Os modelos MCDA usam os axiomas de Roy (Roy e Bouyssou, 1993) como critério básico de escolha dos critérios, a saber, exaustão, não redundância e coesão. Sem detalhar matematicamente, e usando linguagem coloquial, pode-se interpretar o axioma da exaustão como a necessidade de descrever o problema levando em conta todos os aspectos relevantes; o da não redundância como a obrigatoriedade de excluir critérios que estejam avaliando características já avaliadas por outro critério. Finalmente, o axioma da coesão impõe a correta análise de quais são os critérios de maximização e quais os de minimização. Os dois primeiros axiomas são, em parte, contraditórios. Não é crível que haja critérios totalmente independentes que descrevam completamente o problema. Enquanto o axioma da exaustão tende a elevar o número de critérios, o da não redundância tende a diminuí-lo. Em DEA não há uma axiomática equivalente e aceite universalmente. Alguns princípios são seguidos na escolha de inputs e outputs. Em particular, os inputs e outputs (variáveis) usados devem representar o melhor possível a realidade, o que poderia ser considerado como um equivalente do axioma da exaustão, e tende a aumentar o número de variáveis e, portanto, diminuir o poder de ordenação do modelo. Usando o conceito defendido por Shutler (2000), de que as ineficiências são explicadas pelas variáveis ausentes do modelo, pode-se considerar que um modelo está tanto melhor adequado à realidade quanto melhor for o ajuste das DMUs à fronteira de eficiência, provocado pelas variáveis usadas. Esse é o conceito usado por Lins e Moreira (1999) no método “I-O Stepwise” para justificar a entrada de variáveis que proporcionam maior eficiência média. Assim, um modelo DEA estaria tão mais próximo de verificar o axioma da exaustão quanto melhor fosse o ajuste das DMUs à fronteira eficiente. O axioma da coesão em DEA assume a forma da escolha coerente de inputs e outputs, ou seja, considerar que os inputs são a minimizar e os outputs a maximizar, levando em conta eventuais transformações de escala. Finalmente, tem-se o axioma da não redundância. Este axioma pode ser visto como a necessidade de não permitir a existência de alta correlação entre pares de inputs (outputs). Esta orientação acarreta a redução do número de variáveis. Ao reduzir o número de variáveis com alta correlação, aumenta-se a discriminação do modelo DEA com conseqüente diminuição do ajuste à fronteira eficiente. Se ao invés do critério de alta correlação for usado o critério de maximizar a Pesquisa Naval Nº 15, Setembro de 2002 59 discriminação para eliminar variáveis, evidentemente, a discriminação do modelo DEA será aumentada. As formas de selecionar variáveis, de acordo com os objetivos propostos de abordar DEA como método MCDA, podem ser resumidas na Tabela 1, na qual são comparadas com os axiomas de Roy. DEA Boa aderência à fronteira Melhorar a discriminação Coerência de outputs e inputs MCDA Exaustão Não redundância Coesão Efeito Aumenta o n.º de variáveis Diminui o n.º de variáveis ---- Tabela 1: Comparação da escolha de variáveis em DEA e em MCDA. 4. Método Multicritério de Seleção de Variáveis em DEA Podem ser consideradas duas formas de escolha automática de variáveis em modelos DEA. A primeira busca o melhor ajuste das DMUs à fronteira de eficiência. A outra, que considera DEA como ferramenta de MCDA na solução da problemática Pγ, busca melhorar a ordenação, mas tem a desvantagem de perder parte da relação causal. Na primeira abordagem, usada por Lins e Moreira (1999), parte-se de um par input-output inicial que tenha alta correlação. O critério de seleção de novas variáveis a serem inseridas é verificar qual das variáveis candidatas provoca maior eficiência média no modelo. O método pára ao atingir o número de variáveis considerado ideal. A segunda abordagem parte de um par inicial escolhido pelo decisor ou pelo analista. O critério de seleção de novas variáveis a serem inseridas é provocar o menor número de DMUs eficientes, já que dificilmente ocorrem empates do valor da eficiência em DMUs ineficientes. Assim, ao diminuir o número de DMUs na fronteira, melhorase a ordenação. Ao serem consideradas apenas variáveis que melhorem a discriminação, é desconsiderada uma região da fronteira que seria obtida se fossem consideradas todas as variáveis. No entanto, esta parte da fronteira tem baixo poder discriminatório, e é questionável se variáveis tão “benevolentes” com as DMUs devem realmente entrar em um modelo que pretende identificar ineficiências e estabelecer ordenações. Tal como na abordagem anterior, o método pára quando for atingido o número de variáveis considerado ideal. É comum considerar-se que o número de DMUs deve pelo menos igual ao triplo do número de variáveis. Assim, a menos que se defina um outro ponto de parada, este método só deve ser aplicado quando o número de DMUs não verificar a relação anterior. Para minimizar os efeitos indesejáveis de cada abordagem, respectivamente, baixa discriminação e baixa relação causal, deve-se procurar um método de escolha das variáveis que seja um compromisso entre máximo ajuste e máxima discriminação. Com esta finalidade, é proposta uma metodologia MCDA (problemática da escolha Pα) que considera como alternativas as variáveis candidatas a serem inseridas no modelo e como critérios o melhor ajuste à fronteira e a máxima discriminação. O 60 Pesquisa Naval Nº 15, Setembro de 2002 decisor sabe a priori quais variáveis devem ser consideradas como inputs e quais devem ser consideradas como outputs. O ajuste à fronteira é medido através da eficiência média e sua normalização cria a variável SEF, descritor de impacto do critério “melhor ajuste à fronteira”, que atinge o valor 10 na eficiência máxima e zero na eficiência mínima. A máxima discriminação é medida pelo número de DMUs eficientes, que se deseja minimizar. A normalização desta medida gera a variável SDIS, descritor de impacto do critério “máxima discriminação”, que atinge valor 10 para o menor número de DMUs na fronteira e zero para o maior número. Para selecionar a variável que produz a melhor solução de compromisso e que deve entrar no modelo, agregam-se os dois critérios em um critério síntese, através da soma ponderada dos respectivos descritores de impacto, SEF e SDIS. O descritor de impacto deste critério síntese é a variável S = ωS EF + (1 − ω ) S DIS . Para não haver predominância de um dos critério, e a menos que haja fortes razões em contrário, deve-se fazer ω = 0,5 . A variável que apresentar maior valor de S é incorporada ao modelo e, se o número de variáveis incorporadas não exceder 1/3 das DMUs, repete-se o processo para incorporar nova variável. Caso contrário, o procedimento está completo, ou seja todas as variáveis que devem ser incorporadas ao modelo estão selecionadas. A Figura 1 resume o método proposto. Escolher um par input-output inicial Calcular a eficiência média para cada variável acrescentada Calcular o número de DMUs na fronteira de eficiência Normalizar as escalas, calculando SEF e SDIS Fazer a soma ponderada de SEF e SDIS usando pesos iguais Escolher a variável que tenha maior valor de S Verificar se o número de DMUs excede o triplo do número de variáveis Sim Não Fim Fig. 1: Procedimento multicritério para escolha de variáveis em modelos DEA. Pesquisa Naval Nº 15, Setembro de 2002 61 5. Estudo de Caso: Eficiência do Ensino de Cálculo I na Universidade Federal Fluminense O método proposto para seleção de variáveis em DEA foi aplicado ao problema abordado por Soares de Mello et al. (2000) para determinação da eficiência de turmas de Cálculo I da Universidade Federal Fluminense (UFF), no qual o problema da baixa discriminação foi resolvido pela introdução de restrições aos pesos no modelo DEA/ CRS (que considera retornos constantes de escala), obtidas através da metodologia MACBETH (Bana e Costa & Vansnick, 1994, 1997). Neste artigo é feita a comparação dos resultados obtidos por este método e pelo método multicritério aqui proposto. Desde 1998 algumas turmas da disciplina de Cálculo I dos cursos de Engenharia da UFF vinham utilizando recursos computacionais, enquanto outras turmas utilizavam o método tradicional. Considerando cada turma como uma unidade produtiva (Soares de Mello et al., 2001), pode-se usar DEA para a avaliação desta experiência. Os inputs usados refletem a qualidade dos alunos que entram na universidade e os recursos usados por aluno, e os outputs refletem a qualidade dos alunos ao final do curso. Na descrição dos inputs é necessário fazer a separação entre recursos e qualidade dos alunos. Os recursos são bem representados pela carga horária (as turmas com computador tinham duas horas de aula semanais a mais). As notas eram as únicos parâmetros disponíveis para medir a qualidade dos alunos, e foram os utilizados apesar de todas as desvantagens de seu uso. As notas anteriores ao Cálculo I são as notas do vestibular, em especial na prova de matemática. Assim, na descrição dos inputs, tinham-se as seguintes variáveis: média obtida pelos alunos na prova objetiva de Matemática do vestibular (MO); média obtida pelos alunos na prova discursiva de Matemática do vestibular (MD); número de horas de aula semanais dividido pelo número de alunos (R); porcentagem de alunos que obtiveram nota igual ou superior a 6 na prova objetiva de Matemática do vestibular (AM); porcentagem de alunos que obtiveram nota igual ou superior a 6 na prova objetiva discursiva de Matemática do vestibular (AD). Para descrição dos outputs tem-se: percentual de alunos que fizeram Cálculo I em determinada turma e que foram aprovados em Cálculo II no semestre seguinte (A2); média em Cálculo II dos alunos que fizeram Cálculo I em determinada turma (M2); percentual de aprovação da turma de Cálculo I (A1); média das notas finais da turma de Cálculo I (M1). O par input-output inicial escolhido pelo decisor é MO-A2. Introduz-se de cada vez uma das outras variáveis restantes (MD, R, AM, AD, M2, A1, M1) e são calculadas as eficiências de cada turma no modelo DEA/CRS. São calculadas as eficiências médias e o número de turmas com eficiência 100%. A Tabela 2 apresenta as eficiências calculadas, eficiência média e o valor de S, onde as turmas (DMUs) são indicadas por uma letra e três algarismos (semestre-ano). Pela análise da Tabela 2 e pelo procedimento proposto, a variável que é escolhida para ser incorporada no modelo é aquela com maior S, ou seja, M2. Neste caso, cabe ressaltar, que se o critério escolhido fosse a maior eficiência média, a variável M2 62 Pesquisa Naval Nº 15, Setembro de 2002 também seria a selecionada. Pela regra de parada arbitrada, o número de variáveis deve ser 4 (quatro). Assim, é necessária a escolha de mais uma variável a entrar no modelo. A Tabela 3 mostra os resultados que levam à escolha desta 4ª variável. A nova iteração parte de um modelo com as variáveis MO, A2 e M2. Analisando-se a Tabela 3, verifica-se que o modelo multicritério escolhe a variável R (maior S) para entrar no modelo DEA. Assim, o ponto de parada do procedimento proposto é atingido e o modelo DEA para avaliar a eficiência das turmas de cálculo será composto dos inputs, R e MO, e dos outputs, A2 e M2. Se fosse utilizado o modelo de máxima aderência, ou seja, melhor ajuste à fronteira eficiente, a variável selecionada seria A1, o que traria um ganho de eficiência pequeno (1,83%) quando comparado com a escolha pelo método multicritério. Por outro lado, ao invés de a fronteira eficiente ser composta de 2 DMUs, haveria 3 DMUs envolvendo os dados, o que comprometeria a capacidade de ordenação do modelo DEA. Turmas Eff com Eff com Eff com Eff com Eff com Eff com Eff com A1 M2 R MD M1 AM AD A197 85,86 90,96 85,67 85,67 87,55 85,67 85,67 A198 100,00 100,00 76,92 65,44 98,51 64,54 65,30 A297 24,55 86,13 17,99 17,99 51,72 17,99 18,68 B197 100,00 95,65 95,65 95,65 98,30 95,65 95,65 B297 58,46 77,06 48,85 48,85 70,17 48,85 49,93 D197 52,46 79,54 41,91 41,91 59,97 41,91 41,91 D198 100,00 100,00 100,00 100,00 100,00 100,00 100,00 D297 90,34 83,20 66,40 66,40 88,80 74,24 66,40 E197 74,30 87,51 73,85 73,85 83,51 73,85 73,85 E297 69,60 69,51 30,08 30,08 72,55 31,31 30,91 J198 98,23 88,53 88,53 88,53 100,00 88,53 88,53 K198 90,72 95,89 82,18 93,66 100,00 82,18 100,00 Eff média 78,71 87,83 67,34 67,34 84,26 67,06 68,07 3 2 1 1 2 1 2 N.º DMUs eficientes 2,80 7,50 5,07 5,07 4,14 5,00 0,24 S Tabela 2: Dados para a primeira iteração do modelo proposto (Eff = eficiência). Pesquisa Naval Nº 15, Setembro de 2002 Turma A197 A198 A297 B197 B297 D197 D198 D297 E197 E297 J198 K198 Eff média N.º DMUs Eficientes S 63 Eff com A1 90,96 100 86,13 100 77,06 79,54 100 90,34 87,51 69,6 98,75 96,07 89,66 3 Eff com R 90,96 100 86,13 95,65 77,06 79,54 100 83,2 87,51 69,51 88,53 95,89 87,83 2 Eff com MD 90,96 100 86,13 95,65 77,06 79,54 100 83,2 87,51 69,51 88,53 100 88,17 3 Eff com M1 73,25 96,79 81,22 77,32 70,2 65,31 100 69,96 61,12 66,27 91,63 100 79,42 2 Eff com AM 86,44 100 89,83 87,39 80,72 84,31 100 96,97 81 77,74 87,68 100 89,34 3 Eff com AD 73,25 96,79 81,22 76,57 70,2 65,31 100 69,19 61,12 66,27 87,61 100 78,96 2 5 9,15 4,31 5,22 4,85 5 Tabela 3: Dados para a segundo iteração do modelo proposto. Quando comparados com os resultados do problema abordado por Soares de Mello et al. (2000) verifica-se que a ordenação das DMUs é muito semelhante, apesar de no presente método haver uma DMU eficiente a mais. Além disso, as variáveis AD, AM e M1 que, por análise de correlação e por conhecimento de especialista, tinham sido excluídas no modelo original, também não foram selecionadas pelo procedimento proposto neste artigo. 5.1 Análise de sensibilidade Em cada iteração, a variável que entra no modelo é escolhida atribuindo-se pesos iguais para os dois critérios (máxima aderência e máxima discriminação). É conveniente verificar até que ponto uma mudança nos pesos atribuídos altera a escolha da variável. Assim, é introduzido o conceito de Dominância por Intervalo, semelhante ao conceito de Regiões de Indiferença para os pesos (Interval Criterion Weights) em Programação Linear Multiobjetivo (Clímaco e Antunes, 2000). A variável i escolhida se diz dominante por intervalo se o comprimento do intervalo de variação do peso que 64 Pesquisa Naval Nº 15, Setembro de 2002 escolhe a variável i for maior que o comprimento do intervalo que seleciona qualquer outra variável. Analisando-se os resultados da 1a iteração (Tabela 2), verifica-se que a variável M2 selecionada pelo método multicritério proposto (maior valor de S) também o seria pelo critério de maior eficiência média. Deve-se então comparar a escolha desta variável com a eventual escolha de uma variável que apresente maior poder de discriminação. Neste caso, as variáveis candidatas são R, MD e AM. Como AM é dominada por R e MD, a comparação fica restrita às variáveis M2 com R ou MD, visto que estas últimas são equivalentes. Com a comparação, verifica-se que a variável M2 continua sendo a selecionada, desde que o peso de SEF seja pelo menos 0,336, o que indica que o intervalo de escolha de M2 tem amplitude 0,664, caracterizando a dominância por intervalo de M2. Uma análise semelhante na 2a iteração (Tabela 3) deve comparar a escolha de R (melhor S e melhor SDIS) com a escolha de M1 (maior valor de SEF). Fazendo-se esta análise, verifica-se que R continua sendo a variável escolhida desde que o peso de SEF não seja superior a 0,854, o que novamente caracteriza a dominância por intervalo. 6. Conclusões O uso de um modelo multicritério para a escolha de variáveis do modelo DEA permite uma boa ordenação, sem grande prejuízo ao ajuste das DMUs à fronteira de eficiência. Além disso, os resultados são consistentes com os obtidos com outros métodos para melhorar a ordenação. Nota-se ainda que o modelo multicritério foi equilibrado, ao escolher o mesmo número de inputs e outputs (dois), ao contrário do que acontecia com o modelo de máxima aderência, que sugere o uso de 1 input e 3 outputs. Este artigo contribui, de forma inovadora, para preencher uma grande lacuna na literatura sobre DEA, no que se refere à seleção de variáveis (inputs e outputs) a serem usadas no modelo. Os poucos artigos que apresentam métodos não dependentes exclusivamente de opinião de especialistas, abordam estatisticamente a seleção de variáveis. Foi ainda verificado no estudo de caso apresentado uma grande robustez do modelo, já que nas duas iterações havia uma grande dominância por intervalo das variáveis selecionadas. Deve-se, por fim, ressaltar que o método apresentado só é válido quando se pretende utilizar abordagem por DEA como uma ferramenta multicritério na problemática Pγ, apresentando inconvenientes quando o objetivo for uma abordagem tradicional de eficiência e produtividade. 7. Referências Bibliográficas ANDERSEN, P., PETERSEN, N.C., A procedure for ranking efficient units in data envelopment analysis, Management Science, 39, p. 1261-1264, 1993. Pesquisa Naval Nº 15, Setembro de 2002 65 ANGULO-MEZA, L., Data Envelopment Analysis na determinação da eficiência dos Programas de Pós-Graduação da COPPE/UFRJ, Tese de Mestrado, COPPE, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 1998. BANA E COSTA, C.A., CORREA, E.C., Apoio Multicritério à Elaboração do Plano de Médio Prazo 1999-2002 da Câmara Municipal do Porto, Actas do 9o Congresso da APDIO – IO’2000, Setúbal, Portugal, p. 82, 2000. BANA E COSTA, C.A., VANSNICK, J.C., Applications of the MACBETH approach in the framework of an additive aggregation model, Journal of MultiCriteria Decision Analysis, 6, p. 107-114, 1997. BANA E COSTA, C.A., VANSNICK, J.C., MACBETH - An interactive path towards the construction of a cardinal value functions, International Transactions in Operations Research, 1, p. 489-500, 1994. BARBA-ROMERO, S., POMEROL, J.C., Decisiones Multicriterio: Fundamentos Teóricos y Utilización Práctica, Colección de Economía, Universidad de Alcalá, Spain, 1997. BELTON, V., STEWART, T. J., DEA and MCDA: competing or complementary approaches?, Working Paper, University of Strathclyde, Scotland, 1997. BOUYSSOU, D., Using DEA as a tool for MCDM: some remarks, Journal of the Operational Research Society, 50 (9), p. 974-978, 1999. CHARNES, A., COOPER, W.W., RHODES, E., Measuring the efficiency of decision making units, European Journal of Operational Research, 2, p. 429-444, 1978. CLÍMACO, J.C.N., ANTUNES, C.H., Programação Linear Multiobjectivo: uma perspectiva interactiva. In: Lins, M.P.E., Angulo-Meza, L. (eds) Análise Envoltória de Dados e perspectivas de integração no ambiente do Apoio à Decisão, Editora da COPPE/UFRJ, Rio de Janeiro, p. 125-160, 2000. FARINACCIO, F., Data Envelopment Analysis como strumento di Analisi Multicriteria, Tese de Doutorado, Università di Pisa, Itália, 1998. FARINACCIO, F., OSTANELLO, A., Evaluation of DEA validity as a MCDA/M tool: some problems and issues, Technical Report TR-99-06, Dipartimento de Informatica, Università di Pisa, Itália, 1999. FRIEDMAN, L., SINUANY-STERN, Z., Combining ranking scales and selecting variables in the DEA context: the case of industrial branches, Computers and Operations Research, 25 (9), p. 781-791, 1998. GOMES, L.F.A.M., GONZÁLEZ-ARAYA, M.C., LINS, M.P.E., A Integração entre a Análise de Envoltória de Dados e o Apoio Multicritério à Decisão – uma Revisão Parte I: Julgamentos e Restrições, Pesquisa Naval, 13, p. 41-49, 2000. LINS, M.P.E., ANGULO-MEZA, L., Análise Envoltória de Dados e perspectivas de integração no ambiente do Apoio à Decisão, Editora da COPPE/UFRJ, Rio de Janeiro, p. 53-63, 2000. LINS, M.P.E., MOREIRA, M.C.B., Método I-O Stepwise para Seleção de Variáveis em Modelos de Análise Envoltória de Dados, Pesquisa Operacional, 19 (1), p. 39-50, 1999. RANGEL, L.A.D., LINS, M.P.E., GOMES, L.F.A.M., Agregação parcial das eficiências das unidades decisão em análise envoltória de dados, Anais do XXXI Simpósio Brasileiro de Pesquisa Operacional [Cd-Rom], Juiz de Fora, Minas Gerais, 1999. ROY, B., BOUYSSOU, D., Aide Multicritére à la Décision: Méthodes et Cas, Economica, Paris, 1993. SARKIS, J., A comparative analysis of DEA as a discrete alternative multiple criteria decision tool, European Journal of Operational Research, 123, p. 543557, 2000. SEXTON, T.R., The methodology of DEA. In: Silkman, R.H. (ed) Measuring Efficiency: An Assessment of DEA, San Francisco, American Evaluation Association, Jossey Bass Inc., p. 7-29, 1986. SHUTLER, M.F., The Measurement of Performance in Public and Privatized Industries, Actas do 9o Congresso da APDIO – IO’2000, Setúbal, Portugal, p. 33, 2000. SOARES DE MELLO, J.C.C.B., LETA, F.R., FERNANDES, A.J.S., VAZ, M.R., SOARES DE MELLO, M.H.C., BARBEJAT, M.E.R.P., Avaliação Qualitativa e Quantitativa: uma Metodologia de Integração, Ensaio – Avaliação e Políticas Públicas em Educação, 9 (31), 2001. SOARES DE MELLO, M.H.C., SOARES DE MELLO, J.C.C.B., LINS, M.P.E., Teaching Calculus Using Computational Techniques – Quantitative Analysis of Experience in Universidade Federal Fluminense, Proceedings of ICECE 2000 – International Conference on Engineering and Computer Education [Cd-Rom], São Paulo, 2000. V Capítulo APLICAÇÃO DA TÉCNICA DE KERNEL NA DETECÇÃO SONAR Cleide Vital da Silva Rodrigues Instituto de Pesquisas da Marinha - IPqM Universidade Federal do Rio de Janeiro - PEP/COPPE [email protected] Basílio de Bragança Pereira Universidade Federal do Rio de Janeiro - FM, NESC e PEP/COPPE [email protected] Antonio Petraglia Universidade Federal do Rio de Janeiro - PEE/COPPE [email protected] Resumo O desempenho de um sistema de detecção de sinais é medido pela capacidade do mesmo em efetuar detecções com o menor erro possível. No caso de um detector sonar, as soluções analíticas para se obter este desempenho estão cada vez mais difíceis de serem deduzidas devido à crescente complexidade e não-linearidade dos sistemas envolvidos. O procedimento comumente utilizado é estimar o desempenho através das simulações de Monte Carlo. Este método produz estimativas mais precisas da eficiência do sistema, desde que o número de ensaios para as simulações seja suficientemente elevado. Neste trabalho, um algoritmo de processamento de sinais sonar foi desenvolvido e seu desempenho foi estimado. O objetivo deste trabalho foi obter a estimativa do desempenho aplicando as técnicas de kernel de suavização de curvasnas distribuições obtidas com os dados de saída do detector, sem precisar gerar os cálculos 68 Pesquisa Naval Nº 15, Setembro de 2002 do início ao fim como a simulação de Monte Carlo. Uma curva ROC (Receiver Operating Characteristic) não-paramétrica suavizada é obtida. Os resultados foram comparados com os obtidos pela simulação de Monte Carlo. Abstract The performance of a signal detection system is measured by its detection capacity with a minimum possible error. In the case of a sonar detector, analytical solutions for accessing its performance are difficult to derive because of the high complexity and non-linearity of the systems involved. The usual approach to estimate the performance is based on Monte Carlo simulations. This method yields more precise estimates of system if the number of trials required of simulations is sufficiently large. In this work, a sonar signal processing algorithm was derived and its performance was estimated. The objective here was to obtain performance estimates by applying the kernel technique of curve smoothing to the detector output with the purpose of avoiding the calculations for the whole data, from the begining to the end, as in Monte Carlo simulations. A non-parametric ROC (Receiver Operating Characteristic) curve is deduced from estimates of distributions of kernel densities. The results obtained were compared with the ones produced in Monte Carlo simulations. Introdução O sonar (sound navigation and ranging) é um sistema que tem como objetivo detectar, classificar e localizar um alvo submarino. Antes que qualquer função seja desempenhada, o sonar deve primeiro detectar a presença do alvo, isto é, o sistema deve determinar se existe ou não um sinal durante um intervalo de tempo estabelecido. O processo de detecção exige uma decisão usando um certo critério para julgar se o sinal realmente ocorreu ou não durante a observação [1]. O desempenho de um sistema de detecção pode ser descrito através das curvas características de operação (ROC – Receiver Operating Characteristic) que são as curvas da probabilidade de detecção (PD) versus a probabilidade de falso alarme (PFa) para cada relação sinal-ruído. Atualmente, as soluções analíticas para se obter o desempenho de um sistema de detecção estão cada vez mais difíceis de serem calculadas devido à crescente complexidade e não-linearidade dos sistemas envolvidos. Um método frequentemente utilizado para obter o desempenho de um detector é a simulação de Monte Carlo (MC). Este método produz estimativas acuradas desde que o número de ensaios para simulação seja grande (≥1/PFa). Como apontado por Urick [2], o desempenho de um sonar varia muito devido as táticas, estratégias e pelos fatores ambientais no momento da detecção. Este trabalho Pesquisa Naval Nº 15, Setembro de 2002 69 tem como objetivo a busca por um método alternativo para o cálculo rápido e eficiente do desempenho do detector sonar para as condições encontradas. Um algoritmo de detecção sonar foi desenvolvido de acordo com os manuais de um sonar real. Este algoritmo considera todo o processamento que influencie na decisão final. Para calcular o desempenho de um algoritmo de detecção sonar deve-se testá-lo com uma variedade de ruídos acústicos submarinos. A simulação de um detector fornece a oportunidade de examinar o desempenho do algoritmo para várias configurações do ambiente de operação real. A carga computacional gasta com a investigação das várias distribuições de entrada neste detector é grande devido ao processamento envolvido. Este trabalho apresenta a aplicação das técnicas de kernel na redução da carga computacional necessária para investigar o comportamento do desempenho de um sistema de detecção nas mudanças de distribuições do sinal e do ruído como das bandas de frequência da filtragem na entrada do sistema. As técnicas kernel de suavização de curvas foram utilizadas nas distribuições dos dados de saída do detector sonar para obter seu desempenho. Os resultados obtidos com a técnica de Kernel são comparados com os obtidos com a técnica MC. A estrutura do trabalho está dividido como se segue: a Seção 2 apresenta os sinais acústicos submarinos. A Seção 3 descreve a metodologia de kernel utilizando o procedimento bootstrap [3-5] para o cálculo do parâmetro de suavização. A Seção 4 apresenta os conceitos básicos das curvas ROC. A Seção 5 apresenta a aplicação do método de suavização de curvas no problema da determinação do desempenho de um detector sonar e por último, a Seção 6 apresenta as conclusões. Sinais Acústicos Submarinos Em acústica submarina denominamos de sinal a onda de pressão sonora que tem informações sobre o alvo que desejamos detectar, e de ruído a energia acústica que chega ao transdutor sem informação de interesse. O sinal que chega a um sonar pode ser um eco resultante de um sinal transmitido sobre o qual o operador do sistema tem algum controle, ou ter sua origem em alguma fonte externa. No primeiro caso, dizemos que o sonar é ativo, e no segundo que é passivo. A Figura 1 apresenta as configurações de sonares ativos e passivos. Independentemente da fonte que gerou os sinais que chegam aos receptores de um sonar, os mesmos são misturados com o ruído de fundo ou com a reverberação existente na área de operação. O termo ruído ambiente se refere ao ruído que permanece após todas as outras fontes sonoras facilmente identificáveis terem sido eliminadas [1]. Por exemplo, a presença de vários navios aleatoriamente distribuídos na superfície oceânica resulta em um componente do ruído ambiente descrito como tráfego marítimo. Entretanto, o ruído produzido por um único navio próximo é facilmente identificável e localizado, sendo então tratado como um sinal acústico ao invés de parte do ruído ambiente. 70 Pesquisa Naval Nº 15, Setembro de 2002 Figura 1 – Sistemas de sonar: (a) ativo e (b) passivo. A maioria dos algoritmos de processamento de sinais acústicos submarinos é projetada para ser usada em ruído gaussiano estacionário. Na prática, nem sempre estas suposições são válidas [7-8]. Na literatura, são apresentadas algumas modelagens do ruído acústico submarino para várias regiões do planeta. Bouvet & Schwartz[9] descrevem três modelos diferentes para a modelagem de ruído submarino. Estes modelos são baseados em mistura de normais. Densidade de Kernel Sejam X1, X2 , ...,Xn observações independentes e identicamente distribuídas de um a função de densidade de probabilidade ƒ. Considere a estimativa kernel desta densidade da seguinte forma f n ( x; h ) = 1 n x − Xi ∑ K nh i =1 h (1) onde K(x) é a uma determinada função kernel e h é a largura de banda que determina a suavização da curva de densidade estimada. A função de kernel deve satisfazer ∫ K (x )dx = 1 e pode ser uma das seguintes funções listadas na Tabela 1. Silverman [6] apresenta uma discussão para a escolha da kernel ideal, onde observa que o fator preponderante Pesquisa Naval Nº 15, Setembro de 2002 71 é o esforço computacional exigido para cada uma delas, uma vez que o índice de eficiência é praticamente o mesmo, como se pode constatar na tabela. Tabela 1 – Funções Kernel e suas eficiências [6]. Kernel Epanechnikov Biquadrada Triangular Gaussiana Uniforme K(u) 0,75(1-u2) I(u≤1) 0,9375(1-u2)2 I(u≤1) (1-|u|) I(u≤1) (2π)-0,5exp(-0,5u2) 0,5 I(u≤1) Eficiência 1 0.9939 0.9859 0.9512 0.9295 O valor de h, também chamado de parâmetro de suavização ou janela, é um parâmetro crítico para se estimar uma densidade. Vários métodos têm surgido para que esta escolha seja feita de forma automática [3-5]. O critério utilizado para a obtenção deste parâmetro é utilizar uma medida de discrepância entre o estimador da densidade, ƒ e a verdadeira densidade, ƒ. Existem várias medidas para calcular a discrepância entre o parâmetro verdadeiro e o estimado. Uma medida que está sendo utilizada é o erro quadrático integrado médio (MISE – mean integrated square error), 2 ^ ^ EQIM ( f ) = E ∫ f ( x ) − f ( x ) dx (2) O valor ótimo de h é aquele que minimiza esta função. A idéia neste trabalho é utilizar o bootstrap para estimar EQIM e minimizá-lo em relação a h [3-5]. Vale ressaltar que o método bootstrap pode ser facilmente adaptado para outros critérios como, por exemplo, o erro absoluto integrado médio. Taylor [4] e Faraway [5] apontam o bootstrap como tendo o melhor desempenho em comparação a outros métodos. O algoritmo bootstrap para a estimativa do parâmetro de suavização é o seguinte: 1 - Obter um valor inicial para h, aqui denominado por ho, e construir a densidade 2 - Obter ε distribuída com densidade K(•). 3 - Adicionar a quantidade hoε para cada amostra Xj. Assim fn (x; ho ) = 1 nho (x − X i ) h ∑ K X j → X j + hoε * * (3) 72 Pesquisa Naval Nº 15, Setembro de 2002 4 - Construir f *n ( x; ho ) = 1 B * ∑ fnj (x; h) B j =1 (4 ) 5 - Estimar 2 ^ 1 B * EQIM (h, ho ) = ∑ ∫ f nj ( x; h ) − f n ( x; ho ) dx B j =1 6 - Obter ho minimizando EQIM(h,ho). Curva ROC A detecção de um sinal na presença de ruído é um problema de decisão binária, onde a hipótese Ho corresponde a ausência do sinal e a hipótese H1 corresponde a presença do sinal. Ou seja, considerando x(t) uma sequência recebida, s(t) o sinal e v(t) o ruído temos que: Ho : H1 : x(t) = v(t) x(t) = s(t) + v(t) t=1,...,N Após observada a amostra, uma decisão deve ser tomada pela hipótese H0 ou H1. A Tabela 2 mostra os quatro resultados possíveis e a Figura 2 apresenta as funções de densidades de probabilidades (fdp) quando o sinal está ausente, po(x), e quando o sinal está presente, p1(x). Se o valor do sinal ultrapassar o limiar, o operador declara que o alvo está ausente. As probabilidades de falso alarme, PFa, e de detecção, PD, são parâmetros que dão a idéia do desempenho do detector. O critério utilizado na área de sonar e radar é o critério de Neyman-Pearson. Este critério maximiza a probabilidade de detecção para uma dada probabilidade de falso alarme. A visualização do desempenho de um detector pode ser obtida através da curva ROC (Receiver Operating Characteristic), que é o gráfico da PD versus a PFa para vários limiares e para uma determinada relação sinal-ruído (snr). Tabela 2 NA ENTRADA SINAL PRESENTE SINAL AUSENTE - Matriz de decisão binária DECISÃO SINAL PRESENTE SINAL AUSENTE DETECÇÃO PD 1 - PD FALSO ALARME PFa 1 - PFa Pesquisa Naval Nº 15, Setembro de 2002 73 H 1 é verdadeira (sinal presente) H o é verdadeira (sinal ausente) p o (x ) p 1 (x ) p o (x) p 1 (x) PD PFA τ ≡ limiar (a) x operador declara H1 verdadeira τ ≡ limiar (b) x operador declara H1 verdadeira Fig. 2 – Processo de decisão na detecção sonar. As curvas ROC suavizadas são obtidas com a técnica vista na seção 3. Primeiramente, obtém-se as amostras referentes a cada hipótese. Após a suavização dos histogramas das amostras, as versões suavizadas de PFa e PD, são obtidas pela integração das densidades correspondente do ruído (po(x)) e do sinal+ruído (p1(x)). Considere o exemplo em que a hipótese nula (apenas ruído) tem uma distribuição normal com média 0 e variância 1 e que a hipótese alternativa (sinal misturado ao ruído) tem uma distribuição normal com média 3 e variância 1. A Figura 3(a) apresenta as curvas ROC para o exemplo acima com o mesmo valor do parâmetro de suavização e variando a função kernel, a Figura 3(b) apresenta as curvas ROC de cinco amostras com tamanho 50 com uma mesma função kernel, e a Figura 3(c) apresenta as curvas ROC de cinco amostras com tamanho 200 com a mesma função kernel. Fig. 3 - As curvas ROC em (a) representam a mesma amostra utilizando as cinco funções Kernel, (b) representam cinco amostras de tamanho 50 com a mesma função Kernel e (c) representam cinco amostras de tamanho 200 com a mesma função Kernel. 74 Pesquisa Naval Nº 15, Setembro de 2002 Aplicação Nesta seção apresentamos a aplicação do método kernel de suavização de curvas na estimativa do desempenho de um detector sonar. A Figura 4 apresenta o diagrama em blocos do detector sonar [1]. Este detector consiste de um filtro que engloba todas as filtragens antes do detector de energia, seguido por um integrador e, por último, por um comparador. O algoritmo desenvolvido foi obtido com informações colhidas nos manuais de um detector sonar real. Este simulador de um detector sonar permite a escolha dos seguintes parâmetros: (a) estado do mar; (b) tráfego marítimo; (c) banda de frequência; (d) relação sinal+ruído; (e) tipo de detector. Fig. 4 – Diagrama em blocos do algoritmo de detecção de um sonar passivo. O desempenho do detector é calculado inserindo na entrada do detector ruído e sinal+ruído simulados com determinadas distribuições e parâmetros desejados. As distribuições empíricas do ruído e do sinal+ruído obtidas na saída do detector são suavizadas. O limiar correspondente ao par (PFa,PD) desejado pode ser obtido destas curvas suavizadas. O erro quadrático médio normalizado é uma medida de acurácia do estimador que pode ser escrito da seguinte forma, ∧ θ − θ EQMn = ∑ ∧ θ 2 (5) A Tabela 3 apresenta a média, o desvio padrão, o viés e a raiz quadrada do erro quadrático médio normalizado dos limiares de um processo de entrada gerado com distribuição normal para estado do mar 6, tráfego marítimo alto, e banda de frequência modo 1 (correspondendo a uma banda de 9kHz) e uma relação sinal-ruído de -9 dB depois da filtragem h1. A densidade de kernel utilizada foi a uniforme e o número de amostras bootstrap foi 100. Observa-se que os valores da raiz quadrada do erro quadrático médio normalizado diminui com o aumento do tamanho amostral e que aumenta quando a PFa diminui. Pesquisa Naval Nº 15, Setembro de 2002 75 Tabela 3 – Média, Desvio Padrão, Viés e Raiz Quadrada do erro quadrático médio normalizado dos limiares para processos de entrada normais para ruído e sinal+ruído com estado do mar 6, tráfego marítimo 2, banda de frequência modo 1 (correspondendo a 9kHz) e relação sinal ruído de –9dB para vários tamanhos amostrais (N=100, 200, 500 e 1000) com tamanho bootstrap 100 e função kernel a uniforme no detector sonar. Limiar PFa N=100 Média DP Viés Rqrmsn N=200 Média DP Viés Rqrmsn N=500 Média DP Viés Rqrmsn N=1000 Média DP Viés Rqrmsn 25,619 10/Jan 25,903 10/Fev 26,2 10/Mar 26,451 10/Abr 25,602 0,097 0,022 0,019 25,948 0,206 -0,003 0,039 26,034 0,173 -0,196 0,05 26,038 0,17 -0,413 0,084 25,604 0,064 0,024 0,013 25,928 0,138 -0,023 0,026 26,104 0,126 -0,126 0,034 26,11 0,122 -0,341 0,068 25,608 0,039 -0,007 0,008 26,052 0,208 0,143 0,048 26,238 0,16 0,026 0,03 26,256 0,148 -0,205 0,047 25,612 0,026 -0,007 0,005 25,982 0,04 0,079 0,017 26,29 0,176 0,09 0,037 26,326 0,149 -0,125 0,036 A Tabela 4 apresenta a média, o desvio padrão, o viés e a raiz quadrada do erro quadrático médio normalizado dos limiares de um processo de entrada gerado com distribuição normal para o ruído com estado do mar 6, tráfego marítimo alto, e banda de frequência modo 1 (correspondendo a uma banda de 9kHz) e uma relação sinal-ruído de -9 dB depois da filtragem h-1. O sinal+ ruído foi gerado por uma normal misturada da seguinte forma, 0.9N(0,0.3)+0.1N(0,15). A densidade de kernel utilizada foi a uniforme e o número de amostras bootstrap foi 100. Neste caso, também, os valores da raiz quadrada do erro quadrático médio diminuem quando o tamanho amostral aumenta e aumenta quando a PFa diminui. 76 Pesquisa Naval Nº 15, Setembro de 2002 Tabela 4 – Média, Desvio Padrão, Viés e Raiz Quadrada do erro quadrático médio normalizado dos limiares para processos de entrada normais para ruído e normal misturada para sinal+ruído com estado do mar 6, tráfego marítimo 2, banda de frequência modo 1 (correspondendo a 9kHz) e relação sinal ruído de –9dB para vários tamanhos amostrais (N=100, 200, 500 e 1000) com tamanho bootstrap 100 e função kernel a uniforme no detector sonar. N=100 Média DP Viés Rqrmsn N=200 Média DP Viés Rqrmsn N=500 Média DP Viés Rqrmsn N=1000 Média DP Viés Rqrmsn 59,404 0,206 0,176 0,023 60,144 0,349 -0,148 0,031 60,322 0,309 -0,442 0,044 60,322 0,309 -0,933 0,08 59,402 0,109 0,174 0,017 60,26 0,435 -0,032 0,035 60,52 0,375 -0,244 0,036 60,53 0,365 -0,725 0,066 59,389 0,061 0,161 0,013 60,195 0,14 -0,097 0,012 60,69 0,342 -0,074 0,024 60,713 0,33 -0,542 0,045 59,4 0,035 0,172 0,009 60,206 0,107 -0,086 0,007 60,861 0,303 0,097 0,015 60,9 0,295 -0,355 0,022 A Figura 5 apresenta as curvas ROC obtidas pelo MC e a suavizada obtida pela técnica de kernel para os sinais gerados pela normal. Fig. 5 – Probabilidade de detecção versus probabilidade de falso alarme para sinais normais inseridos na entrada do detector sonar utilizando Monte Carlo (contínua) e a densidade de kernel (tracejada). Pesquisa Naval Nº 15, Setembro de 2002 77 Conclusões A técnica Kernel de suavização de curvas foi aplicada neste trabalho como uma alternativa na obtenção das curvas ROC, mostrando a vantagem de se utilizar as amostras de saída do detector, reduzindo assim o custo computacional do método de Monte Carlo, que realiza o cálculo dos dados do início ao fim do simulador. Outra vantagem é a robustez, ou seja, a ausência de suposições de modelo paramétrico. Seu sucesso está vinculado com ‘a determinação do parâmetro de suavização ótimo. Sua desvantagem está nas extremidades da curva, já que não existe muita informação dos pontos extremos. Em resumo, o método abordado mostrou-se uma ferramenta alternativa viável para a estimativa do desempenho de detectores sonar. Referências BURDIC, W., Underwater Acoustic System Analysis. Englewood Cliffs, NJ, Prentice-Hall (1984). URICK, R.J., Principles of Underwater Sound. McGraw-Hill, 1983. SHAO, J. & TU, D. – The Jackknife and Bootstrap. Springer-Verlag New York. (1995). TAYLOR, C.C, “Bootstrap choice of the smoothing parameter in kernel density estimation”, Biometrika 76 (4), 705-712 (1989). FARAWAY, J.J. & JHUN, M., “Bootstrap choice of bandwidth for density estimation”, Journal of the American Statistical Association 85, 11191122 (1990). Silverman, B., Density Estimation for Statistics and Data Analysis. London: Chapman&Hall (1986). BROCKETT, P.., HINICH,G. E WILSON, G., “Non-Linear and Non-Gaussian Ocean Noise”, Journal of American Statistical Association, v.82, pp.13861394, 1987. WEBSTER, R., “Ambient Noisse Statistics”, IEEE Transactions on Signal Processing, v.41, n.6, pp.2249-2253, 1993. BOUVET, M. E SCWARTZ, S., “Comparison of Adaptive and Robust Receivers for Signal Detection in Ambient Underwater Noise”, IEEE Trans. On Axoustic, Speech and Signal Processing, v.37, n.5, pp.621-626, 1989. MCDONOUGH, R.N. & WHALEN, A. D., Detection of Signal in Noise. New York. Academic Press, Inc. (1995). Centro de Análises de Sistemas Navais AVALIAÇÃO OPERACIONAL Atuando desde 1975, o Centro de Análises de Sistemas Navais (CASNAV) acumula grande experiência na avaliação operacional de sistemas. A Avaliação Operacional (AO) é um poderoso instrumento que, utilizando modernos métodos científicos, permite à Marinha saber como empregar seus meios de maneira eficaz. É através da AO que podemos conhecer as limitações e possibilidades dos modernos e sofisticados equipamentos e sistemas que são empregados na Marinha. Após a determinação dos parâmetros de eficiência de um equipamento ou sistema, os resultados obtidos passam a ser utilizados para verificar o funcionamento deste no decorrer de sua vida útil. O conhecimento desses valores permitirá saber se o referido equipamento ou sistema está sofrendo alguma degradação, após contínua utilização, ou se está sendo empregado aquém de suas possibilidades. Trabalhos de maior vulto realizados: - Avaliação Operacional das Fragatas Classe “NITERÓI”; Avaliação Operacional dos Submarinos Classe “TUPI”; e Avaliação Operacional das Corvetas Classe “INHAUMA”. Centro de Análises de Sistemas Navais Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro 3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332 e-mail: [email protected] VI Capítulo MODELAGEM NUMÉRICA HIDRODINÂMICA TRIDIMENSIONAL DA REGIÃO COSTEIRA E ESTUARINA DE SÃO VICENTE E SANTOS (SP) Joseph Harari Instituto Oceanográfico da USP- [email protected] Ricardo de Camargo Instituto Astronômico, Geofísico e de Ciências Atmosféricas da USP [email protected] Luiz Bruner de Miranda Instituto Oceanográfico da USP - [email protected] Resumo Foi implementado um modelo numérico hidrodinâmico tridimensional para a região costeira e estuarina de São Vicente e Santos (SP), para simulações da circulação gerada por marés e ventos. Resultados do modelo foram comparados a medições. O modelo permitiu inferir os sistemas de correntes na área costeira sob diversas condições, tais como grandes elevações e rebaixamentos do nível médio do mar. A composição das correntes de maré e de deriva foi analisada, desde a região ao largo (onde há grande influência dos ventos) até os canais interiores do sistema estuarino (onde predominam as correntes de maré). A enorme intensificação das correntes nas bocas dos canais estuarinos do Porto de Santos e de São Vicente foi reproduzida, principalmente nos locais com seções transversais menores. A modelagem implementada pode ser utilizada em várias aplicações de interesse, como por exemplo navegação, operações de dragagem, obras de engenharia, derrames de petróleo e dispersão de poluentes. 80 Pesquisa Naval Nº 15, Setembro de 2002 Abstract A three-dimensional hydrodynamical numerical model of the coastal and estuarine region of São Vicente and Santos (SP) was implemented, for simulations of the circulation generated by tides and winds. The model results were compared tomeasurements. The model allowed estimating the current systems in the coastal area under several conditions, such as great increase and decrease of the mean sea level. The composition of tidal and wind-generated currents was analyzed, since the off shore region (with significant winds influence) until the inner channels of the estuarine system (with prevailing tidal currents). The huge increase of the currents at the mouths of the estuarine channels of the Port of Santos and São Vicente was reproduced, especially where the transversal sections are smaller. The implemented modeling may be used in several applications of interest, such as navigation, dredging operations, coastal engineering, oil spills and pollutants dispersion. 1. Introdução O presente trabalho apresenta a implantação de um modelo numérico hidrodinâmico tri-dimensional da região costeira de São Vicente e Santos, no estado de São Paulo, o qual foi utilizado para estudos da circulação marítima forçada por marés e ventos. Este modelo constitui o estágio mais recente de vários estudos numéricos com resolução progressivamente crescente, desde os de plataforma continental com espaçamento horizontal em torno de 13 km (Harari & Camargo, 1994; Camargo & Harari, 1994) até os de área costeira com resolução de 1 km (Harari & Camargo, 1997, 1998), nos quais foram aninhadas grades com espaçamento típico de 75 m (Harari, Camargo & Cacciari, 1999, 2000; Harari & Gordon, 2001). O modelo atual é baseado no Princeton Ocean Model (POM), o qual utiliza Coordenada Vertical Sigma e Fechamento Turbulento de 2a. Ordem (Blumberg & Mellor, 1987; Mellor, 1998); seus resultados foram comparados a observações em duas campanhas oceanográficas, com medições de maré na Estação de Alamoa, em fevereiro de 1997, e medidas correntométricas no Canal de Piaçaguera (norte do canal do porto de Santos), em junho e julho de 2001; esse local é denominado estação COSIPA. Para as simulações numéricas foi delimitada a área mostrada na figura 1, onde foram escolhidos 6 pontos de interesse para estudos específicos, cujas posições geográficas são fornecidas na tabela 1. Dentre esses pontos, 4 correspondem a pontos ao longo do canal do porto de Santos e 2 correspondem a pontos de verificação dos resultados da modelagem numérica (Alamoa e Canal de Piaçaguera). Neste trabalho foi estimada a importância relativa das circulações geradas por efeitos de maré e de vento, desde a região ao largo até os canais interiores rasos do Sistema Estuarino, no período de um mês (fevereiro de 1997), para diversas situações transientes, envolvendo grandes elevações e rebaixamentos do nível médio do mar. Pesquisa Naval Nº 15, Setembro de 2002 81 2. Metodologia O modelo numérico implementado na área é baseado no Princeton Ocean Model (POM), desenvolvido por Blumberg & Mellor (1987) e apresentado em detalhes por Mellor (1998): é um modelo tridimensional, de equações primitivas, variante no tempo, com superfície livre e coordenadas σ (sigma), cujas variáveis prognósticas são as três componentes da velocidade, além da temperatura e da salinidade. Dessa forma, a coordenada z é convertida para σ, sendo escalonada de acordo com a profundidade da coluna d’água no local, segundo a relação σ= (z-η)/D, onde D é a profundidade local e η é a elevação da superfície. 82 Pesquisa Naval Nº 15, Setembro de 2002 POSIÇÕES DOS LOCAIS DE INTERESSE ESTAÇÃO COSIPA -23.90 Alamoa PTO 4 -23.95 SANTOS S. VICENTE GUARUJÁ -24.00 PTO 3 PRAIA GRANDE -24.05 PTO 2 PTO 1 S -46.45 -46.40 -46.35 -46.30 -46.25 W -46.20 Fig. 1 – Área geográfica de estudo da circulação oceânica através de modelo numérico e posições dos locais de interesse para o estudo hidrodinâmico realizado. Tabela 1 – Posições geográficas dos 6 pontos de interesse para estudos específicos da circulação marítima. Pto Latitude S Longitude W Local (e profundidade) 1 24° 03,822’ 046° 21,175’ Plataforma interna (16 m) 2 24° 00,644’ 046° 20,444’ Baía de Santos (13 m) 3 23° 59,273’ 046° 17,541’ Início do Porto de Santos (12 m) 4 23° 56,370’ 046° 18,573’ Vicente de Carvalho (12 m) 5* 23° 55,200’ 046° 22,600’ Alamoa (2 m) 6* 23o 53,990’ 046o 22,640’ Estação COSIPA (9 m) * Pontos com medições comparadas aos resultados do modelo Pesquisa Naval Nº 15, Setembro de 2002 83 O POM inclui um submodelo de fechamento turbulento de 2a. ordem, para o cálculo dos coeficientes de mistura turbulenta vertical; no fechamento adotado se tem a inclusão de duas equações, para a energia cinética turbulenta e para a escala do comprimento de turbulência, cujos resultados são subseqüentemente utilizados no cálculo dos coeficientes cinemáticos verticais de viscosidade e de difusão turbulenta de calor e sal, com o auxílio de várias relações empíricas, que utilizam constantes definidas por experimentos de laboratório e observações de campo (Mellor & Yamada, 1974, 1982). No POM, a discretização das equações hidrodinâmicas no tempo e no espaço horizontal é realizada através de um esquema explícito de 2a. ordem centrado no tempo e no espaço (esquema de leapfrog); para a discretização das equações no espaço vertical, se utiliza um esquema implícito, o método da inversão de linha (Kowalik & Murty, 1993). A grade utilizada na modelagem é cartesiana (retangular), mas com espaçamento horizontal variável – tendo maior densidade de pontos na área dos canais estuarinos do Porto de Santos e de São Vicente. A grade possui 220 colunas e 190 linhas, sendo inclinada cerca de 28° em relação ao eixo EW; ela possui espaçamento mínimo de 96 m e máximo de 320 m. Na vertical, foram utilizados 11 níveis sigma, com maior densidade próximo à superfície e ao fundo. Ao final dos cálculos do modelo, os resultados foram interpolados para uma grade regular EW-NS, com 436 x 334 pontos e 74 m de resolução horizontal, cujos resultados de velocidade foram plotados à taxa de um vetor a cada 25 calculados (ver Fig. 3). Nas simulações, foram considerados passos de tempo de 30 segundos (para os modos internos) e 2 segundos (para o externo). Campos de temperatura e salinidade foram mantidos uniformes e constantes no decorrer de todo o período de integração do modelo. Em relação às condições de contorno para os processamentos, as oscilações de maré foram determinadas a partir do estudo costeiro de Harari & Camargo (1998), onde foram obtidos mapas cotidais de amplitude e fase das principais componente de maré com resolução de 1 Km; essas constantes harmônicas foram linearmente interpoladas, para a obtenção dos correspondentes valores nos contornos abertos da grade utilizada neste estudo. Oscilações do nível médio do mar foram também especificadas nos contornos da grade, a partir de medições do nível do mar em diversas estações maregráficas costeiras permanentes na região sudeste do Brasil. Finalmente, os valores de vento na superfície em fevereiro de 1997 utilizados nos processamentos foram obtidos nos arquivos do NCEP – National Center for Environmental Prediction do NCAR – National Center for Atmospheric Research, da NOAA – National Oceanic and Atmospheric Administration (EUA), disponíveis no site http://www.cdc.noaa.gov/cdc/data.ncep.reanalysis.html. Os dados de vento na superfície do NCEP / NCAR são calculados (e re-analisados) por modelo atmosférico global a cada 6 horas, com resolução de 2,5 graus x 2,5 graus; para o presente estudo, esses dados foram interpolados no tempo (a cada hora) e no espaço (para os pontos da grade marítima). 84 Pesquisa Naval Nº 15, Setembro de 2002 3. Resultados e Discussão As variações do nível do mar podem ser consideradas como a soma da maré e do nível médio do mar, sendo o primeiro representativo dos efeitos astronômicos e o segundo dos efeitos meteorológicos (remotos) na circulação. A Figura 2 mostra a variação temporal do nível do mar observado em Alamoa e sua decomposição, nas séries de maré e do nível médio. Fig. 2 – Valores do nível do mar observado em fevereiro de 1997 em Santos (superior) e sua decomposição, nas componentes de maré (meio) e meteorológica (inferior). A análise da evolução do nível médio do mar demonstra que entre os dias 8 e 10 de fevereiro ocorreu uma acentuada queda deste nível e que entre os dias 19 e 22 houve uma grande elevação do mesmo. Esses efeitos são associados a eventos meteorológicos extremos, os quais possuem importantes conseqüências nos sistemas de correntes marítimas. A Figura 3 mostra a evolução das correntes de superfície no dia 21 de fevereiro na região estudada. As correntes apresentam grande intensificação na área dos canais em relação à região costeira adjacente, especialmente nas bocas dos canais do Porto de Pesquisa Naval Nº 15, Setembro de 2002 85 Santos e de São Vicente. Outra feição notável é o fato da enchente ser bem mais intensa que a vazante, obviamente em função do particular evento meteorológico predominante nesse dia e da correspondente elevação do nível médio do mar. A seguir, são apresentados na Figura 4 os diagramas com as rosas das correntes e os correspondentes histogramas angulares, nos pontos de interesse 1 a 4 e na Estação COSIPA, para o mês de fevereiro, na superfície e a 5 m de profundidade. Esses gráficos demonstram as intensidades e direções predominantes das correntes e a grande influência da geometria da costa no direcionamento das mesmas. Em particular, os histogramas angulares indicam o número de ocorrências das correntes em cada direção. É interessante notar que na área ao largo, na entrada da Baía de Santos, as correntes são basicamente na direção NW-SE, por influência das marés; entretanto, na superfície há um grande número de ocorrências de correntes para o Sul, devido a efeitos meteorológicos locais. De fato, abaixo da superfície a simetria entre enchentes e vazantes é marcante (por influência das marés), enquanto que na superfície as correntes para o Sul são muito freqüentes. Este comportamento pode ser explicado pelas características dos sistemas meteorológicos presentes na área de estudo: em geral, predominam os ventos de NE, associados à alta subtropical do Atlântico Sul, fazendo com que haja um grande número de ocorrências de ventos (e correntes) para S e SW; entretanto, a entrada de sistemas meteorológicos frontais vindos do Sul origina ventos e correntes para NE; esses eventos são muito intensos (como apresentado na Figura 3), porém são esporádicos, de modo que em termos de histogramas angulares de correntes, o número de ocorrências para o Sul (e Sudoeste) é bem maior. -23.90 -23.95 -24.00 -24.05 -46.45 -46.40 -46.35 -46.30 -46.25 -46.20 86 Pesquisa Naval Nº 15, Setembro de 2002 FORÇANTES: MARÉ, VENTO E NÍVEL MÉDIO DO MAR 21/FEV/1997 04:00 GMT -23.90 50 cm/s -23.95 SANTOS S. VICENTE GUARUJÁ -24.00 PRAIA GRANDE -24.05 -46.45 -46.40 -46.35 -46.25 -46.20 FORÇANTES: MARÉ, VENTO E NÍVEL MÉDIO DO MAR 21/FEV/1997 06:00 GMT -23.90 -46.30 50 cm/s -23.95 SANTOS S. VICENTE GUARUJÁ -24.00 PRAIA GRANDE -24.05 -46.45 -46.40 -46.35 -46.30 -46.25 -46.20 Pesquisa Naval Nº 15, Setembro de 2002 FORÇANTES: MARÉ, VENTO E NÍVEL MÉDIO DO MAR 21/FEV/1997 08:00 GMT -23.90 87 50 cm/s -23.95 SANTOS S. VICENTE GUARUJÁ -24.00 PRAIA GRANDE -24.05 -46.45 -46.40 -46.35 -46.25 -46.20 FORÇANTES: MARÉ, VENTO E NÍVEL MÉDIO DO MAR 21/FEV/1997 10:00 GMT -23.90 -46.30 50 cm/s -23.95 SANTOS S. VICENTE GUARUJÁ -24.00 PRAIA GRANDE -24.05 -46.45 -46.40 -46.35 -46.30 -46.25 -46.20 Fig. 3 – Evolução das correntes de superfície na área costeira de Santos, no dia 21 de fevereiro de 1997, na ocorrência de forte ressaca que provocou grande elevação do nível médio do mar (mapas referentes a 02:00, 04:00, 06:00, 08:00 e 10:00 horas GMT). 88 Pesquisa Naval Nº 15, Setembro de 2002 A Figura 4 demonstra que, percorrendo os pontos de interesse, à medida que há uma maior aproximação do continente as correntes tendem a ficam bem mais alinhadas com os contornos da costa, fato bastante notável a partir do Ponto 2 (quando a orientação preferencial das correntes é no sentido N-S), para o Ponto 3, no início do canal do Porto (quando as correntes são basicamente no sentido NE-SW), e assim sucessivamente. Também à medida que se adentra o canal a simetria das correntes enchentes e vazantes aumenta, inclusive na superfície, embora ainda ocorra um número um pouco maior de correntes vazantes por influências meteorológicas. Outro ponto de interesse nos sistemas de correntes calculados se encontra na diminuição das intensidades com a profundidade; quanto à distribuição horizontal, há um aumento das velocidades na direção dos canais interiores, por efeito de continuidade, atingindo o máximo no Ponto 3, onde se tem intensidades maiores que 100 cm/s tanto na superfície como a 5 m de profundidade; contribuindo para isso, a largura do canal do Porto, neste local, é relativamente menor. Nos canais interiores a fricção no fundo passa a atuar de forma muito efetiva, passando a atenuar as correntes; ainda sim, intensas correntes no canal do Porto são encontradas até o Ponto 4, com valores acima de 50 cm/s; já na Estação COSIPA, as intensidades são mais reduzidas, com valores máximos em torno de 20 cm/s (Fig. 4). Fig. 4 – Rosas das correntes e histogramas angulares dos pontos 1 a 4 e na Estação COSIPA, para a superfície e a 5 m de profundidade, considerando os cálculos do modelo para o mês de fevereiro de 1997. Pesquisa Naval Nº 15, Setembro de 2002 89 90 Pesquisa Naval Nº 15, Setembro de 2002 Pesquisa Naval Nº 15, Setembro de 2002 91 O contraste no comportamento entre a área costeira mais externa e a região estuarina interna é também notável nas séries temporais de correntes na superfície nos Pontos 1 e 3, apresentadas na Figura 5. Nesta figura se encontram as variações no tempo das intensidades das correntes ao longo do mês de fevereiro de 1997, bem como as correspondentes variações das componentes EW e NS. As assimetrias no Ponto 1, devidas a influências meteorológicas, são muito evidentes, enquanto que no Ponto 3 a “pulsação” das correntes de maré é notável. Evidentemente, não se pode afirmar que os efeitos meteorológicos inexistem no Ponto 3 ou ao longo do canal; certamente eles atuam nas correntes, como evidenciado no Ponto 4; entretanto, a intensificação das correntes de maré no canal do Porto é tão grande, que as feições das séries temporais passam a ter características fortemente simétricas, principalmente no Ponto 3. Fig. 5 – Séries temporais de correntes na superfície nos Pontos 1 e 3, considerando as intensidades (superior) e as componentes EW (meio) e NS (inferior). A seguir, serão apresentadas comparações de resultados do modelo com observações costeiras. A figura 6 mostra as variações temporais do nível do mar observadas em Alamoa e os correspondentes cálculos do modelo, bem como as diferenças entre esses valores; a estatística da diferença indica que a mesma possui média de 0,62 cm e desvio padrão de 10,11 cm, o que confirma a boa calibração do modelo implementado. 92 Pesquisa Naval Nº 15, Setembro de 2002 Fig. 6 – Valores do nível da superfície do mar considerando resultados do modelo (superior), observações (meio) e as correspondentes diferenças (inferior). Pesquisa Naval Nº 15, Setembro de 2002 93 Quanto a observações correntométricas, nas medições realizadas na “Estação COSIPA” o vetor velocidade foi decomposto em componentes longitudinal ao canal (n-s, positiva para o Norte) e transversal (E-W, positiva para Leste), sendo a primeira a mais significativa para caracterização da circulação estuarina. As séries temporais dessas componentes, na superfície e a 5 m de profundidade, são apresentadas na figura 7; a figura 8 apresenta as correspondentes rosas das correntes. Na Figura 7 observa-se uma assimetria das correntes de superfície entre os movimentos de enchente (>0) e vazante (<0), com a ocorrência de movimentos residuais para o sul, provavelmente gerados pela descarga fluvial na cabeceira do sistema estuarino. A influência cíclica das correntes de maré domina os movimentos, e as intensidades dos extremos de vazante e enchente variaram entre -60,0 e 40,0 cm s-1, respectivamente. A menor intensidade dos movimentos transversais também é observada nessa figura. A predominância dos movimentos longitudinais, forçados pela maré, pode ser constatada também na rosa de correntes, onde foram representados todos os vetores velocidade observados na superfície (Figura 8). O diagrama com os deslocamentos longitudinais dos elementos de volume passando pela estação mostrou, para a superfície, deslocamentos para sul gerados pelas correntes residuais, atingindo uma distância de 1,25 km. Quanto às correntes à meia água (5 m de profundidade), observam-se praticamente as mesmas características descritas anteriormente, apenas com um ligeiro decréscimo da intensidade dos movimentos e uma pequena mudança da sua orientação. O movimento residual apresentou um deslocamento longitudinal (0,2 km) bem menor do que na superfície, comparável ao deslocamento residual transversal, que foi cerca de – 0,3 km. 94 Pesquisa Naval Nº 15, Setembro de 2002 Fig. 7 – Séries temporais das componentes NS e EW da corrente na Estação COSIPA, medidas a 1 e 5 m, de 23/06 a 11/07/2001. Pesquisa Naval Nº 15, Setembro de 2002 95 Fig. 8 – Rosas das correntes na Estação COSIPA, medidas a 1 e 5 m, de 23/06 a 11/07/ 2001 (intensidades em cm s -1). 1 m de profundidade 5 m de profundidade Finalizando o estudo hidrodinâmico realizado com o modelo numérico, a Figura 4 pode ser comparada com as Figuras 8 e 10, com as rosas das correntes e os histogramas angulares na Estação COSIPA resultantes do modelo (para fevereiro de 1997) e de medições de correntes (em junho / julho de 2001). Embora as rosas das correntes medidas e calculadas não sejam simultâneas, há uma boa concordância, na intensidade e principalmente na direção (com exceção de algumas intensidades extremas medidas, que não foram reproduzidas nas simulações do modelo). É necessário levar em conta 96 Pesquisa Naval Nº 15, Setembro de 2002 que o modelo considerou apenas a circulação barotrópica na região de estudo, e não levou em conta a descarga fluvial. Dessa forma, a predominância das correntes de superfície para o Sul na Estação COSIPA pode ser atribuída tanto à contribuição de rios como também aos ventos predominantes; esse ponto poderá ser esclarecido nas próximas versões da modelagem, quando efeitos baroclínicos devidos às variações de temperatura e salinidade deverão ser incluídos. 4. Conclusões A circulação de maré na região costeira foi estudada por Harari & Camargo (1998), com modelo hidrodinâmico de resolução horizontal igual a 1 Km, onde foram obtidas as distribuições das elipses de correntes na superfície; as elipses das componentes de maré M2 e S2, que são as predominantes na área, tem orientação NWSE ao largo e nítido alinhamento com os contornos costeiros nas regiões interiores rasas. Essas características das correntes de maré foram reproduzidas no estudo ora desenvolvido, com um modelo para a área costeira de resolução horizontal muito mais alta, da ordem de 100 m. Evidentemente, o estudo atual proporcionou um detalhamento bem maior dos sistemas de correntes, com ênfase nos pontos ao longo do canal de acesso ao Porto de Santos. Outros aspectos de interesse nas simulações se encontram na inclusão de efeitos meteorológicos e na integração do modelo por um período de tempo relativamente longo (um mês completo – fevereiro de 1997). Esses aspectos permitiram acompanhar as condições hidrodinâmicas na região segundo as mais diversas situações forçantes (como, por exemplo, grandes elevações e rebaixamentos do nível médio do mar); além disso, a disponibilidade de dados oceanográficos (em Alamoa e na Estação COSIPA) possibilitou a comparação de resultados do modelo com observações, de modo a garantir a representatividade das simulações numéricas. As principais conclusões advindas deste trabalho são referentes à composição dos efeitos de maré e de vento na área costeira modelada: i) as marés ao largo são basicamente na direção NW-SE e a influência dos ventos é maior, especialmente na superfície, com os ventos predominantes de NE gerando uma certa persistência de correntes para S e SW; ii) à medida que há uma aproximação com o continente, há um alinhamento das correntes com os contornos costeiros e uma enorme intensificação das mesmas, especialmente nas bocas dos canais do Porto de Santos e de São Vicente, por efeito de continuidade; iii) nesses canais, onde as áreas das secções transversais são menores, ocorrem maiores intensificações das correntes; iv) nos canais ocorre também uma predominância da circulação de maré em relação à gerada pelo vento, em função da menor “pista” de vento; v) os movimentos diminuem de intensidade ao se propagarem canal adentro, devido ao atrito no fundo. Como consideração final, os estudos hidrodinâmicos aqui apresentados demonstram o enorme potencial da utilização de previsões meteorológicas e hidrodinâmicas em áreas costeiras, em diversas aplicações práticas, como por exemplo no apoio à segurança de navegação, no auxílio a operações de dragagem, como subsídio a obras de engenharia e na ocorrência de acidentes com derrames de poluentes no mar. Pesquisa Naval Nº 15, Setembro de 2002 97 5. BLUMBERG, A. F. & G. L. MELLOR – 1987 – “A description of a three dimensional coastal ocean circulation model”. In: N. S. Heaps (Ed.), Coastal and Estuarine Sciences 4: Three-dimensional Coastal Ocean Models - American Geophysical Union, pp. 1-16. CAMARGO, R. & HARARI, J. - 1994 - “Modelagem numérica de ressacas na plataforma sudeste do Brasil a partir de cartas sinóticas de pressão atmosférica na superfície” - Boletim do Instituto Oceanográfico da USP, n° 42 (1), p. 19 - 34. HARARI, J. & CAMARGO, R. 1994 componentes de maré na plataforma sudeste brasileira através de modelo numérico hidrodinâmico” - Boletim do Instituto Oceanográfico da USP, n° 42 (1), p. 35 54. HARARI, J. & CAMARGO, R. 1997 costeira de Santos (SP) com modelo numérico hidrodinâmico” - Pesquisa Naval Suplemento Especial da Revista Marítima Brasileira, n° 10, p. 173 - 188. HARARI, J. & CAMARGO, R. - 1998 - “Modelagem numérica da região costeira de Santos (SP): circulação de maré” - Revista Brasileira de Oceanografia, vol. 46 (2), p. 135 - 156. HARARI, J. & CAMARGO, R. & CACCIARI, P. L. - 1999 - “Implantação de um sistema de previsão de marés e de correntes de maré na Baixada Santista através de modelo numérico tridimensional” - Relatório Técnico do Instituto Oceanográfico da USP, n° 45, 21 p. HARARI, J. & CAMARGO, R. & CACCIARI, P. L. - 2000 - “Resultados da modelagem numérica hidrodinâmica em simulações tridimensionais das correntes de maré na Baixada Santista” - Revista Brasileira de Recursos Hídricos, vol. 5, n° 2, p. 71 – 87. HARARI, J. & GORDON, M. - 2001 - “Simulações numéricas da dispersão de substâncias no Porto e Baía de Santos, sob a ação de marés e ventos” - Revista Brasileira de Recursos Hídricos, vol. 6, n° 4, p. 115 – 131. KOWALICK, Z. & MURTY, T. S. – 1993 – “Numerical modeling of ocean dynamics” - Advanced Series on Ocean Engineering, Singapore, World Scientific, Vol. 5, p. MELLOR, G. L. & YAMADA, T. – 1974 – “A hierarchy of turbulence closure models for planetary boundary layers” - Journal of Atmospheric Sciences, vol. 31, p. 1791 - 1806. MELLOR, G. L. & YAMADA, T. – 1982 – “Development of a turbulence closure model for geophysical fluid problems” vol. 20, p. 851 - 875. MELLOR, G. L. – 1998 – “User’s Guide for a three-dimensional, primitive equation, numerical ocean model” - Princeton University, Internal Report, 40 p. AGRADECIMENTOS Os autores agradecem o apoio recebido da Fundação de Estudos e Pesquisas Aquáticas (FUNDESPA), pela cessão de dados, da ASATM-Brasil, pela preparação da grade do modelo e ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), pela outorga de bolsas de estudo. - - “Simulação “Simulações 481 Review of G A EVOLUÇÃO QUE CHEGA PELO MAR A EMGEPRON está pronta a atender às necessidades de produtos e serviços relativos à sua Marinha de Guerra. Construção, Modernização e Reparo de Navios de Guerra; Sistema de Armas; Treinamento Básico e Operacional; Apoio Logístico Integrado; Estudo de Viabilidade de Projetos Navais; Integração de Sistemas. Produtos Principais: Corvetas; Submarinos; Navios-Escola; Navios-Hospital; Navios-Patrulha; Lanchas-Patrulha; Navios-Patrulha Fluvial; Munição Naval; Minas de Influência e de Contato; Sistema de Controle Tático; Sistema de Guerra Eletrônica; Jogos de Guerra; Sistemas de Simulação e Treinamento. EMGEPRON isreadytomeetyourNavyneedsconcerning productsandservices. Ship Building,ModernizationandRefitting;WeaponSystem; BasicandOperationalTraining;IntegratedLogistic Support; Feasibility StudiesofNavalProjects;System Integration. Main Products: Corvettes; Submarines; Training Ships; Hospital Ships; Patrol Ships; Patrol Crafts; River Patrol Ships; Naval Ammunition; Moored and Influence Mines; Tactical Control System; Electronic War Games; Training and Simulation System. Arsenal de Marinha do Rio de Janeiro – Edifício, 08 / 3º andar – Ilha das Cobras Rio de Janeiro, RJ – Brasil – CEP.: 20091-100 Tels.: 55 (21) 2253-4090 / 2253-6669 / 2870-6855 FAX: 55 (21) 2233-5142 E-mail: [email protected] Site: www.emgepron.mil.br ou www.emgepron.mar.mil.br VII Capítulo PREVISÃO DE ENERGIA ELÉTRICA USANDO REDES NEURAIS NEBULOSAS Maria Augusta Soares Machado, DSc. [email protected] IBMECRJ Reinaldo Castro Souza, PhD. [email protected] DEE-PUC-RJ André Machado Caldeira Escola Nacional de Ciências Estatísticas V Alte Mário Jorge Ferreira Braga, DSc. [email protected] Secretaria-Executiva do Conselho de Ciência e Tecnologia da Marinha - SECONCITEM Resumo Atualmente a integração de redes neurais com técnicas da Matemática Nebulosa (Fuzzy Sets) tem sido usada para fazer previsões. A técnica aqui utilizada é a ANFIS (Adaptive Neuro - Fuzzy Inference System ). Usa-se uma rede do tipo ‘backpropagation’, onde os dados são ‘fuzificados’ em uma camada intermediária e na camada de saída tem-se os dados numéricos. Para que a previsão seja feita utilizando-se técnicas matemáticas adequadas, é fundamental a coleta de dados históricos. Foram utilizados dados referentes a energia elétrica da Light. 100 Pesquisa Naval Nº 15, Setembro de 2002 Abstract This paper presents an Adaptative Neuro-Fuzzy Inference System to forecast energy. It is used a backpropagation neural network which inputs are fuzzified in an intermediate layer and defuzzified in the output layer to obtain exact results. Data used to forecast was obtained from Light database. 1. Conceitos Básicos Recentemente, a integração de redes neurais com técnicas da matemática (Fuzzy Sets) tem sido usada para fazer previsões, neste trabalho esta metodologia é usada para fazer previsão um passo à frente. Um conjunto clássico é um conjunto com um valor exato. Por exemplo, um conjunto clássico A, de números reais maiores que 6, pode ser expresso por: A = {x | x > 6} Está claro que se x é maior que 6, ‘x’ pertence a ‘A’, em qualquer outro caso, ‘x’ não pertence a ‘A’. Esses conjuntos não representam os conceitos e pensamentos humanos, que tendem a ser abstratos e imprecisos. Um Conjunto nebuloso é um conjunto sem valor exato, ou seja, a transição de ‘pertencer’ ou ‘não pertencer’ ao conjunto é gradativa. Esta transição gradual é caracterizada pelas funções de pertinência. Seja ‘X’ uma coleção de objetos ‘x’. Um conjunto nebuloso ‘A’ em ‘X’ é definido como um conjunto de pares ordenados. A = {(x,µA(x))x ∈ X} onde: µA(x) é denominada função de pertinência (µA(x)∈[0,1]). X é o conjunto universo ou, em algumas literaturas, ‘universo de discurso’. A notação utilizada para um conjunto nebuloso A pode ser: A = ∑ x ∈X µ A ( x i ) x i i A = ∫ µ A( x) x (Se X é discreto) (Se X é contínuo) X A notação Σ ou ∫ indicam a união dos pares (x, µA(x)). A notação não é uma divisão mas sim uma separação. 1.1. Definições Um conjunto nebuloso ‘A’ está contido no conjunto nebuloso ‘B’ (ou, de modo equivalente, A ⊂ B ) se e somente se , µA(x) ≤ µB(x) para todo ‘x’, A ⊂ B ⇔ µA(x) ≤ µB(x) definição de subconjunto nebuloso Pesquisa Naval Nº 15, Setembro de 2002 101 A união de dois conjuntos nebulosos ‘A’ e ‘B’ é um conjunto nebuloso ‘C’, C = A ∪ B (ou C = A ‘or’ B), onde: µC(x) = max (µA(x); µB(x)) = µA(x) v µB(x) A interseção de dois conjuntos nebulosos ‘A’ e ‘B’ é um conjunto nebuloso ‘C’, C = A ∩ B (ou A ‘and’ B), onde: µC(x) = min (µA(x), µB(x) = µA(x) ∧ µB(x) O conjunto complementar do conjunto nebuloso ‘A’ é A (ou não A, -A), onde: µ A ( x) = 1 − µ A (x) (para o caso de conjunto normalizado) 1.2. Alguns tipos de funções de pertinência Triangular 0, x − a , b − a c − x triang ( x; a, b, c ) = , c − b 0, Trapezoidal x≤a a≤x≤b b≤ x≤c c≤x a<b<c 102 Pesquisa Naval Nº 15, Setembro de 2002 Sino bell ( x; a, b, c ) = 1 x−c 1+ a 2b Gaussiana gaussian( x; c, σ ) = e 1 x−c − 2 σ 2 Sigmoidal sig( x; a, c ) = 1 1 + exp( − a( x − c )) 1.3 - Operador T-Norm (ou Triangular Norm) µA Ib ( x ) = T ( µ A ( x ), µ B ( x )) = min( µ A ( x ), µ B ( x )) 1.4 - Operador S-Norm (ou T-Conorm) µA Ub ( x ) = S ( µ A ( x ), µ B ( x )) = max ( µ A ( x ), µ B ( x )) 2. Modelos Nebulosos de Inferência Em geral, os sistemas nebulosos usados para inferência, são baseados em regras do tipo ‘se... ou senão’ seguindo as seguintes fases: Fuzificação das entradas; Elaboração das regras nebulosas; Cálculo dos antecedentes cujos conectivos podem ser ‘and’ ou ‘or’; Cálculo das implicações de cada uma das regras cujos operadores podem ser ‘mínimo’ ou ‘produto’; Agregação dos consequentes, cujos operadores podem ser ‘máximo’ ou ‘soma limitada’; Defuzificação da saída; Pesquisa Naval Nº 15, Setembro de 2002 103 Fuzificação das Entrada Regra 1 Se x e A1 Definição das Regras Nebulosas w1 y e B1 fuzzy Agregação dos Consequentes Regra 2 x Se x e A2 w2 y e B2 Defuzificação y (fuzzy ou não) Regra m Se x e Am wm y e Bm Antecedentes e Consequentes O processo de defuzificação é o modo que se obtém um resultado não fuzzy para a saída do sistema de inferência. A defuzificação pode ser feita pelo método do centróide, média dos máximos ou outros. 3. - Rede Neural Tipo Back-Propagation (Retro-Propagação) É uma rede com várias camadas e funções de transferência não lineares. Os vetores de entrada e saída são usados para treinar a rede até que ela possa aproximar uma função, associar vetores de entrada e saída ou classificar vetores de entrada do modo desejado pelo usuário. 104 Pesquisa Naval Nº 15, Setembro de 2002 onde : - p(1), ...p(R) são os vetores de entrada da rede. W(1,R) são os pesos. b é o bias, cujo peso é igual a 1. A função de transferência, geralmente é a log-sigmoidal. As redes ‘back-propagation’ podem ter 1 ou mais camadas intermediárias de neurônios sigmóides, seguidos por uma camada de saída de neurônios lineares. As redes multi-camadas com funções de transferência não lineares fazem a rede aprender relações lineares e não lineares entre os vetores de entrada e saída. Uma regra de treinamento é usada para ajustar os pesos e bias da rede a fim de minimizar a soma do erro quadrático da rede. Isto é feito por alteração contínua dos valores dos pesos e bias na direção decrescente em relação ao erro. Derivadas do erro (chamados vetores delta) são calculadas para a camada de saída da rede e então são ‘back-propagadas’ pela rede até que os vetores delta sejam disponíveis para cada camada intermediária. Os vetores delta para as camadas de saída são calculados a partir dos vetores de erro da rede e = t − a . Os vetores delta para as camadas intermediárias são calculados a partir do vetor delta da camada seguinte e dos pesos. O treinamento continua até que um erro aceitável seja obtido ou um número de ciclos, pré-estabelecido pelo usuário, ocorra. A taxa de aprendizado especifica o tamanho das mudanças que são feitas nos pesos e bias. Pequenas taxas de aprendizado resultam em tempo de treinamento grande. Resumo do algoritmo: a) Apresentar padrão de entrada. b) Propagar o sinal para frente e calcular a saída resultante para todos os neurônios de saída. c) Retro-propagar o erro de saída. d) Atualizar os pesos. e) Apresentar novo padrão. 4. ANFIS - Adaptive Network-Based Fuzzy Inference System a) Arquitetura da rede Camada 1 Nesta camada são feitas as ‘fuzificações’ do vetor de entrada, ou seja, para cada componente do vetor de entrada de dados, ajusta-se funções de pertinência, para especificar o grau que cada entrada satisfaz aos quantificadores admitidos. Pesquisa Naval Nº 15, Setembro de 2002 105 Define-se para cada entrada (X1, X2, X3), o universo dos valores observados dado pela diferença entre a maior observação e a menor observação de cada vetor de entrada. Para cada um dos universos assim definidos, define-se os conjuntos nebulosos de interesse, que são as saídas desta camada. Camada 2 - Estabelecer as regras nebulosas do tipo ‘se.... então’, usando o conectivo ‘and’. - Aplicar o operador T-Norm, que é a saída dessa camada. Camada 3 Nesta camada é feita uma normalização tomando-se a razão entre cada valor da camada 2 pela soma de todos os valores da camada 2. A saída desta camada são os resultados desta normalização. Camada 4 Nesta camada são calculados os valores dos consequentes das regras nebulosas. No caso do modelo ANFIS é adotada uma função linear. Os parâmetros desta camada são denominados parâmetros lineares (que são os parâmetros do consequente). Camada 5 Esta camada é o resultado final para a previsão e possui somente um nó. No caso do modelo ANFIS a camada 5 é obtida pela soma ponderada dos resultados obtidos para todos os consequentes. Nesta ponderação estão implícitas diferentes ‘importâncias’ (ou pesos) para os diversos consequentes. Esta ‘ponderação’ é feita na camada 3, ao se normalizar os resultados obtidos pelo operador T-norm. 5 - Aplicação A série usada apresenta dados mensais de energia elétrica na ponta no período de 1982 a 1997. Verifica-se uma tendência crescente no dados, que é plenamente justificada devido ao aumento de consumo ao longo das anos. Abaixo segue o gráfico da série. 106 Pesquisa Naval Nº 15, Setembro de 2002 Para a previsão da série escolhida, utilizou-se um programa em Matlab com o toolbox de Fuzzy, Foram realizados testes usando vários modelos, onde foram sendo alterados vários parâmetros referentes a entrada, saída e função de pertinência. Os resultados estão apresentados a seguir. Nas figuras 1 e 2, tem-se, respectivamente, as funções de pertinência antes e depois do treinamento da rede, para 300 ciclos. fu n 1 ç ã 0. o d 0 fu n 1 ç ã 0. o d 0 0. 0. 0. 0. entrad 0. 0. entrad fu n 1 ç ã 0. o d 0 0. fu n 1 ç ã 0. o d 0 0. 0. 0. entrad 0. 0. entrad Figura2- funções de pertinência ajustadas antes do treinamento Pesquisa Naval Nº 15, Setembro de 2002 fu n 1 ç ã 0. o d e 0 0. fu n 1 ç ã 0. o d e 00. 0. 0. entrad 0. 0. entrad fu n 1 ç ã 0. o d e 00. fu n 1 ç ã 0. o d e 00. 107 0. 0. entrad 0. 0. entrad Figura 3 - funções de pertinência após o treinamento da rede Observa-se que existe uma mudança bastante significativa na dispersão das funções de pertinência após o treinamento da rede, indicando uma incerteza menor. erro em treinamento e erro 0. 0. R M 0. S E 0. (e rr 0. o m 0. é 0. 0 5 10 15 iteraçõ 20 25 30 Figura 4 - erro médio quadrático em treinamento e em verificação para 300 ciclos O erro médio quadrático tende a ser constante com o valor de 0. 5, a partir de 150 ciclos de treinamento da rede. Figura 5 - resultados obtidos para a previsão da ANFIS e a série real Observa-se que a previsão é bastante boa; a ANFIS acompanha o movimento da série durante o treinamento e durante a verificação, o erro absoluto não ultrapassa 20%. 6. Referências Bibliográficas Neuro-Fuzzy and Soft Computing. J.-S.R. Jang; C.-T. Sun, E. Mizutani. Prentice Hall, 1997. Matlab Neural Network Toolbox, 1994. Matlab Fuzzy Toolbox, 1995. VIII Capítulo MAPEAMENTO DO ÍNDICE DE VULNERABILIDADE AMBIENTAL AO IMPACTO POR ÓLEO DA ZONA COSTEIRA ENTRE CEARÁ E RIO GRANDE DO NORTE, USANDO IMAGENS ORBITAIS E SISTEMA DE INFORMAÇÕES GEOGRÁFICAS Gherardi, D.F.M.1; Cabral, A.P.2; Braga, C.Z.F.1; Eichenberger, C.1 1 Programa HIDRO-DSR/OBT, Av. dos Astronautas, 1758, São José dos Campos, SP, CEP 12227-010. Tel. (0xx12) 345 6508, Fax (0xx12) 345 6488, e-mail: [email protected] 2 Oceansat - Tecnologia Espacial para Monitoramento Ambiental S/C Ltda, Incubadora de Empresas salas15 e 16, Ilha do Fundão, CP 68568, Rio de Janeiro, RJ, CEP 21945-470. E-mail: [email protected] Introdução O mapeamento do índice de vulnerabilidade ambiental (IVA) da zona costeira ao impacto causado por manchas de óleo foi desenvolvido na década de 70 (Michel et al. 1978) e é um componente imprescindível no desenvolvimento de planos de contingência e de resposta emergencial aos desastres causados pelo derramamento de óleo na zona costeira. Atualmente, os mapas de IV estão sendo utilizados não apenas para coordenar as ações de resposta à poluição por óleo mas, também, para auxiliar o gerenciamento da zona costeira nos seus diversos níveis de atuação. As informações relevantes para a determinação do IVA podem ser agrupadas em três categorias distintas: 1) classificação dos habitats costeiros: hierarquizados de acordo com a sensibilidade relativa, à persistência natural do óleo, e à facilidade de limpeza; 110 Pesquisa Naval Nº 15, Setembro de 2002 2) recursos biológicos: inclui todas as espécies de organismos e habitats que corram risco potencial de serem impactados pela mancha de óleo; e 3) recursos sócio-econômicos: áreas de lazer e valor turístico, de acesso ao mar, áreas protegidas e locais onde se desenvolvam atividades extrativistas ou de cultivo. Os primeiros mapas produzidos caracterizavam-se por serem produtos estáticos, compostos por mapas impressos em papel, de tiragem e circulação limitadas e alto custo. Todas as informações eram tradicionalmente obtidas por meio de consulta a mapas e documentos impressos, entrevistas com profissionais detentores de informações específicas, pesquisadores, e visitas ao campo. Atualmente, os mapas de IVA se tornaram produtos dinâmicos, a partir da incorporação da tecnologia de Sistema de Informações Geográficas (SIG) e de banco de dados digital, que permitiram a geração de mapas a um custo mais baixo e maior rapidez na atualização das informações. A disponibilidade de bases de dados cartográficos e tabulados, em formato digital, permite sua rápida incorporação ao banco de dados associado ao mapa e permite um controle de qualidade mais eficiente. A utilização de produtos orbitais e SIG para o mapeamento do IVA da zona costeira são cruciais em países como o Brasil, onde a base planimétrica disponível é, em geral, desatualizada e em uma escala inadequada para a representação das principais características ambientais. Além disso, o mapeamento de porções do litoral dominadas por manguezais e recifes costeiros é dificultado pela complexidade fisiográfica e dificuldade de acesso a esses ambientes. Para o mapeamento do IVA na escala de 1:25.000 pode-se utilizar imagens multiespectrais com resolução espacial de 20 m, e pancromáticas com resolução espacial de 10 m, do sensor HRV do satélite SPOT (Jensen et al. 1990, 1993). Entretanto, quando comparada com imagens Landsat-TM, a imagem SPOT apresenta maior relação custo/benefício devido ao menor recobrimento espacial (área da imagem), a baixa eficiência no imageamento de feições submersas (devido à ausência de uma banda no espectro do azul, i.e., entre 400 e 500 nm), e maior preço. Embora não tenham sido utilizadas no presente trabalho, para as próximas etapas será testado o acoplamento de imagem pancromática com bandas espectrais do LandsatTM 7. A falta de informações sobre os padrões de vento e onda, e como estes afetam a sedimentação costeira, pode ser satisfatoriamente supridas por dados coletados a partir de plataformas orbitais, que alimentam modelos de ondas. Serão apresentados, a seguir, os resultados preliminares que demonstram o potencial da utilização de diversos produtos de sensoriamento remoto e SIG, utilizados conjuntamente com dados coletados in situ, para o mapeamento do IVA da zona costeira. A metodologia a ser descrita foi aplicada na bacia Potiguar, localizada entre os estados do Ceará e Rio Grande do Norte, uma das mais importantes regiões produtoras de petróleo da plataforma continental brasileira. Pesquisa Naval Nº 15, Setembro de 2002 111 Área de Estudo A Bacia Potiguar compreende uma área de aproximadamente 41.000 km2, abrangendo a porção noroeste do Estado do Rio Grande do Norte e leste do Ceará, sendo que a porção emersa compreende uma área de 21.500 km2 e, a porção submersa, uma área de 19.500 km2 (Bertani et al. 1990). A geologia regional caracteriza-se pela implantação do rift Potiguar sobre rochas do embasamento cristalino Pré-Cambriano, pertencentes à Província Borborema (Almeida et al. 1977). Além da influência das variações do nível do mar nos últimos 10.000 anos e da paleotopografia (Morais e Meireles 1992), a geomorfologia costeira foi, também, produto das condições climáticas locais (Dominguez & Martin 1995) e de processos costeiros associados à deriva litorânea. A geomorfologia costeira pode ser caracterizada pelas seguintes feições :(1) região de dunas eólicas e pontais arenosos da Ponta do Tubarão (RN); (2) região do estuário do rio Açu (RN); (3) região de dunas eólicas das Pontas do Mel e do Cristóvão (RN); (4) região estuarina do rio Mossoró (RN); (5) região de dunas eólicas de Tibau (RN/CE); (6) sistema de pequenas lagoas, canais de maré e rios alimentados pela água doce proveniente das falésias mortas da Formação Barreiras e remanescentes de mangue em Icapuí (CE); (7) região de dunas de Ponta Grossa (CE); e (8) região de dunas entre Canoa Quebrada e Pontal de Maceió (CE). Manguezais de pequeno porte são encontrados nas desembocaduras de rios e canais de maré, e apresentam-se bastante alterados pela atividade salineira. Estes manguezais podem estar também associados aos sistemas de ilhas barreira encontrados entre a foz do rio Açú e Galinhos (a oeste), no Rio Grande do Norte. Esses ambientes são fundamentais na manutenção da produtividade primária local, sendo também utilizados como sítios de desova e alimentação de muitas espécies marinhas de grande importância socioeconômica. Materiais e Métodos Foram utilizadas as imagens das órbitas/ponto 216/63 (de 15/08/97) e 215/63 (de 30/07/88) do satélite Landsat-5 TM. Estas imagens foram processadas digitalmente no programa SPRING (DPI/INPE), aplicando-se técnicas de filtragem e restauração de forma a permitir um mapeamento detalhado da área de estudo. Os resultados mostram que é possível produzir mapas de IVA a partir da interpretação visual de composições coloridas, onde se procura realçar feições de interesse na escala de 1:35.000. Para a calibração da interpretação visual das imagens foi efetuada uma campanha de campo de 11 a 14/5/2000, quando se percorreu todo o litoral da área de estudo. Uma planilha de campo específica para esse estudo foi desenvolvida para o registro de dados relevantes à determinação do IVA, complementados por amostras de sedimentos coletados na antepraia a intervalos médios de 3 km. Todos os pontos amostrados foram associados a posições obtidas por GPS para que as informações pudessem ser espacializadas em ambiente de SIG. 112 Pesquisa Naval Nº 15, Setembro de 2002 Para a obtenção dos dados de vento, foram empregados dados do difusômetro do satélite ERS-2 (lançado em 1996 pela Agência Espacial Européia) e do difusômetro QuikScat (lançado pela NASA em 1999). Os dados do difusômetro do ERS-2 têm repetitividade de três dias, enquanto que os dados do QuikScat são obtidos duas vezes ao dia. Ambos difusômetros possuem uma resolução espacial de 25 km x 25 km e operam de forma similiar, sendo sensores radares que produzem 3 feixes de pulsos (backward, nadir, e frontward), que são retro-espalhados pela superfície do oceano e captados pela antena dos difusômetros (Archer et al. 1998). Os dados brutos do ERS-2 foram gradeados e interpolados para gerar diagramas de velocidade e de direção do vento, no período de 1996 a 2000. Os dados do QuikScat foram usados para análise conjunta com os dados de imagettes SAR e para alimentação do modelo SWAN (Simulating Waves Nearshore) em datas específicas. Imagettes SAR são extratos de imagens SAR brutas, correspondentes a uma área de 5 km x 10 km. O SWAN é um modelo de onda de terceira-geração, que computa ondas short-crested aleatórias geradas por vento, em áreas costeiras e interiores (Booij et al. 1996). Visando a caracterização de padrões de ondas na região de interesse, empregaram-se três tipos distintos de dados: dados de direção e período calculados a partir de imagettes SAR-ERS2; dados de altura significativa de onda a partir de dados do altímetro TOPEX-POSEIDON e ERS-2, e resultados de modelagem empregando-se o modelo SWAN. Das imagettes foram extraídos os espectros das imagens, aplicando-se técnicas de Fast Fourier Transform (FFT) em cada imagette. Como resultado da FFT informações sobre direção e comprimento de onda podem ser inferidas. Foram empregadas 4 imagettes obtidas em diferentes datas e condições de vento. Para se obter informações sobre altura de onda, desde 1996, foram utilizados dados dos altímetros TOPEX-Poseidon e do ERS-2. Estes sensores radares produzem pulsos verticais que são retro-espalhados pela superfície do oceano. Dados brutos de altura significativa de onda foram obtidos junto ao CCAR. Com bases nestes dados foram produzidos gráficos mensais de altura significativa de onda. O modelo SWAN foi empregado como uma outra alternativa para caracterização dos padrões de onda. Os cálculos do SWAN podem ser feitos em grade regular ou curvilínea, no sistema de coordenadas cartesianas. O SWAN possibilita a caracterização da propagação de onda no tempo e espaço, considerando refração devida à corrente, à profundidade, e freqüência de deslocamento. Neste trabalho preliminar foram extraídos dados de altura significativa de onda , período e direção médias. Resultados O processamento digital das imagens orbitais permitiu identificar feições geomorfológicas e habitats importantes sob o ponto de vista da determinação do IVA. As feições mais importantes, identificadas para mapeamento, foram: 1) áreas efetivamente ocupadas por mangues; 2) bancos arenosos/lamosos intermareais; 3) Pesquisa Naval Nº 15, Setembro de 2002 113 bancos de vegetação submersa; 4) esporões arenosos e ilhas-barreira; 5) deltas de maré; e 6) delta dominado por onda. Estruturas relacionadas a recursos sócioeconômicos como porto salineiro, marnéis, concentrações urbanas e vias de acesso às praias também podem ser mapeadas por este procedimento. Assim, com base nos dados coletados in situ e na interpretação visual das imagens Landsat-TM foram estabelecidos, em caráter preliminar, os seguintes IVA’s: IVA 2A) plataformas de abrasão marinha expostas, podendo apresentar sedimento inconsolidado; IVA 3A) praias arenosas de granulação fina a média; IVA 3B) escarpas e superfícies íngremes arenosas; IVA 4) praias de areia grossa; IVA 7) planícies de maré expostas; IVA 9B) bancos submersos com algas; e IVA 10D) mangues. Resultados médios do difusômetro do ERS-2 entre 1996 e 2000 mostraram a predominância de ventos de E-SE na maior parte do ano, com intensidades entre 3 m/ s e 9,5 m/s. As maiores intensidades foram encontradas entre julho e outubro. Resultados do QuikScat (direção e intensidade) foram obtidos para outubro de 1999, novembro de 1999, dezembro de 1999 e janeiro de 2000, concomitantes com 4 imagettes SAR. Os resultados da aplicação da FFT nas 6 imagettes mostraram a predominância de períodos de onda entre 6 e 10 segundos e comprimentos de onda de 40 a 100 m. A comparação dos dados das imagettes com os dados simultâneos do QuikScat mostraram que os menores períodos e os maiores comprimentos de onda foram observados na presença de ventos com mais de 6 m/s, principalmente nos dias 25/11/1999 e 23/01/ 2000. Dados de altura significativa de onda dos altímetros mostraram valores médios entre 1 m e 2,5 m. Casos extremos puderam ser observados nos meses de setembro e outubro, com altura máxima de 3 m. Os valores extremos podem estar associados à presença de marulho (swell), em função do período de furacões no hemisfério norte. Resultados do SWAN mostraram alturas significativas de onda variando entre 0,5 m e 1,5 m, quando empregada uma malha de vento média. Forçando-se o modelo com dados do QuikScat para um período de tempo curto (2 horas), obtiveram-se valores de altura significativa de onda entre 1,2 m e 1,9 m. O padrão médio de propagação segue a direção E-W, gerando intensa deriva litorânea, conforme mencionado em Neto (1996). Esta deriva é mais intensa entre Guamaré e Areia Branca. Na região entre Areia Branca e Icapuí a deriva é menos intensa, aumentando novamente entre Icapuí e Fortim. Discussão Os resultados mostraram que é possível, utilizando-se imagens Landsat-5 TM, executar mapeamentos dos diferentes ecossistemas costeiros na escala de 1:35.000, permitindo a determinação acurada de feições como canais de maré, ilhas barreira e áreas cobertas por vegetação de mangue, que são de difícil mapeamento e grande dinâmica espacial. Este mapeamento só foi possível com o adequado processamento digital das bandas espectrais, uma vez que as bandas brutas não se prestam para o 114 Pesquisa Naval Nº 15, Setembro de 2002 mapeamento na escala desejada. A identificação e mapeamento de bancos de algas submersos também é crucial para a delimitação de áreas ecologicamente críticas, onde espécies ameaçadas de extinção, como o peixe-boi, se alimentam. Além disso, importantes fenômenos controladores da sedimentação costeira, como a deriva litorânea, ondas e ventos puderam ser inferidos a partir das feições geomorfológicas identificadas e dos resultados do modelo SWAN. Áreas próximas à foz do rio Mossoró (RN), do rio Jaguaribe (CE), e à Icapuí (CE) apresentaram indícios de acumulação de sedimentos devido à interação da deriva litorânea com o efeito de molhe hidráulico exercido pela vazão dos rios. A presença de um banco de algas submerso em Icapuí pode ser um indício que comprove a existência de uma deriva litorânea mais fraca na área, o que facilitaria a estabilização dessa comunidade vegetal. Nas áreas com predomínio de feições progradantes, como nos esporões arenosos e planícies deltaicas, o óleo poderá ser rapidamente estabilizado entre sucessivos eventos de deposição de sedimentos e/ou espalhado por uma área maior devido à corrente de deriva. Os dados de ondas sugerem que o regime hidrodinâmico regional é de médio a alto (altura significativa de onda entre 1 m e 3 m), implicando em maior potencial de limpeza natural do ambiente das áreas contaminadas por manchas de óleo. Em contrapartida, nas áreas onde predominam feições como canais e deltas de maré, identificados no sistema de canais e ilhas barreira de Galinhos/Guamaré (RN), é possível concluir que o fluxo de água na preamar seria capaz de transportar o óleo de um eventual derramamento para as partes mais internas do sistema. Esse processo aumentaria a extensão dos efeitos deletérios da poluição. Conclusão 1) Dados de imagens orbitais podem suprir deficiências de informações ambientais atualizadas e servir como base cartográfica para o mapeamento do IVA. 2) A utilização de técnicas de processamento digital adequadas permitem aumentar a escala de mapeamento relativamente à imagem original do sensor TM, facilitando a extração de feições de pequena escala. 3) Dados sobre vento e onda, obtidos por sensores ativos (microondas) em plataformas orbitais, quando associados a modelos de circulação podem auxiliar no diagnóstico da vulnerabilidade ambiental da zona costeira ao impacto por óleo. Referências Bibliográficas ALMEIDA, F. F. M.; HASUY, Y., NEVES, B. B. B.; et. al. (1977) Províncias estruturais brasileiras. In: Simpósio de Geologia do Nordeste, Campina Grande. Volume 8: p. 363-391. Pesquisa Naval Nº 15, Setembro de 2002 115 ARCHER, O.; BENTAMY, A.; DUPONT, L.; et. al. (1998) Mean surface wind fields from the ERS-AMI and ADEOS-NSCAT microwave scatterometers. [CD-ROM]. In: WOCE Conference, Halifax. BERTANI, R.T., COSTA, I.G., MATOS, R.M.D. (1990) Evolução tectonosedimentar, estilo estrutural e habitat do petróleo na Bacia Potiguar. In: Origem e evolução de bacias sedimentares, Petrobrás, coord. Gabaglia, G.P.R. e Milani, E.J., p. 391-310. BOOIJ, N., HOLTHUIJSEN, L.H., RIS, R.C. (1996) The SWAN wave model for shallow water, Anais 25th Int. Conf. Coastal Engineering, Orlando, USA, Vol. 1, pp. 668-676. DOMINGUEZ, J. M. L.; MARTIN, L (1995) Environmental controls in coastal dune development along the northeastern coast of Brazil. IN: Land-ocean interactions in the coastal zone, scientific meeting, São Paulo, p. 28-30. JENSEN, R.J.; RAMSEY, E.W.; HOLMES, J.M.; et al.(1990) Environmental sensitivity index (ESI) mapping for oil spills using remote sensing and geographic information system technology. International Journal of Geographic Information System, 4(2): 181-201. JENSEN, R.J.; NARUMALANI, S.; WEATHERBEE, O.; et al. (1993) Coastal environmental sensitivity mapping for oil spills in the United Arab Emirates using remote sensing and GIS technology. Geocarto International, n.2, p.5-13. MORAIS, J. O.; MEIRELES, A. J. A. (1992) Evidências de variações relativas do nível do mar durante o Quaternário no litoral leste do estado do Ceará. IN: Anais do 37 Congresso Brasileiro de Geologia, São Paulo, volume 1, p. 71-73. MEIRELES, A. J. A.; MORAIS, J. O.; FREIRE, G. S. S. (1990) Os terraços holocênicos da planície costeira do município de Icapui - extremo leste do Estado do Ceará. IN: Resumos do 36 Congresso Brasileiro de Geologia., volume 2, p. 709-718. NETO, L. X. C. (1996) Geologia e geomorfologia Recente da plataforma continental interna ao largo do delta do Rio Açu, Macau-RN. IN: Anais do 39 Congresso Brasileiro de Geologia, Salvador, volume 3, p. 443-446. MICHEL, J.; HAYES, M.O.; BROWN, P.J. (1978) Application of an oil spill vulnerability index to the shoreline of lower Cook Inlet, Alaska. Environmental Geology, 2: 107-117. INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULOMOREIRA ONDÓGRAFO DIRECIONAL WAVERIDER O IEAPM mantém na costa do Rio de Janeiro um Ondógrafo Direcional WAVERIDER, de fabricação da companhia holandesa DATAWELL.É um equipamento destinado a medir parâmetros de ondas no mar como: Altura significativa; Período da onda; Direção da onda; Temperatura da Superfície do Mar; e Espectro Direcional. Possui formato de uma bóia esférica com cerca de 01 metro de diâmetro, pesando em torno de 250 kg (somente a bóia) projetada para ser posicionada no mar através de um sistema fixo de fundeio. O ondógrafo envia sinais radioelétricos para uma estação de recepção, sendo captados por uma antena acoplada a um receptor, até uma distância máxima de 50 quilômetros. O sinal transporta os dados listados acima além da posição GPS da bóia. O equipamento está localizado na posição: Latitude - 23º 01.95' S; Longitude - 041º 59.75' W. Fica cerca de meia milha ao sul da Ilha de Cabo Frio - Arraial do Cabo, em um ponto considerado singular no litoral do Estado do Rio de Janeiro para realização dessas medições, por medir os parâmetros de ondas provenientes dos quadrantes Sul a Nordeste. Esses dados coletados são aplicados em: § Climatologia de ondas e Montagem de uma base de dados para estudo de estatística de extremos; § Previsão ambiental e Calibração de modelos de ondas; e § Essas informações são úteis para a previsão de ondas, planejamento de comissões e diversas situações onde o conhecimento do estado do mar seja importante. As informações, que estão sendo atualizadas a cada três horas de forma automatizada, e encontram-se disponíveis na Intranet(ieapm.mb) e na Internet(www.ieapm.mar.mil.br), com acesso pela figura da bóia. IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira Departamento de Engenharia Oceânica Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ E-mail: . [email protected] ou [email protected] IX Capítulo MARGENS DE INCERTEZAS SOBRE A POTÊNCIA TOTAL DE UMA INSTALAÇÃO PROPULSORA NUCLEAR PARA SUBMARINOS CF(EN) Leonam dos Santos Guimarães Dr. Paulo César Leone Centro Tecnológico da Marinha em São Paulo (CTMSP) Av. Professor Lineu Prestes 2468, Cidade Universitária, São Paulo , SP, Brasil e-mail: [email protected] / Tel: 0-XX-11-38177148 Resumo A potência a ser desenvolvida pelo reator de uma instalação propulsora nuclear para submarinos deve cobrir as necessidades de propulsão, isto é, a potência necessária para vencer a resistência ao avanço e as demais perdas de origem hidrodinâmica; além disto a potência fornecida deve suprir, também, o consumo das cargas necessárias à operação da propulsão e de cargas associadas com o desempenho das ações preconizadas para o submarino. O reator é um item de longo prazo de desenvolvimento e, portanto, sua potência deve ser conhecida em fases muito iniciais do projeto do submarino. Entretanto, em fases iniciais do projeto existem incertezas na definição das cargas de propulsão e de serviço. O presente trabalho tem por objetivo desenvolver um modelo matemático para análise destas incertezas que possa ser utilizado durante as várias fases do projeto em uma variedade de situações de tomada de decisão técnica e gerencial. 118 Pesquisa Naval Nº 15, Setembro de 2002 Abstract The power to be developed by the reactor of a nuclear propulsion plant for submarines should cover the propulsion needs, that is the necessary power to win the ship’s resistance and the other losses of hydrodynamic origin; besides the supplied power should supply, also, the consumption of the necessary loads to propulsion operation and hotel loads. The reactor is an item of long period of development and, therefore, its power should be known in very early in the submarine design. However, during initial phases, great uncertainties exists in the definition of hotel and propulsion loads. This work has for objective to develop a mathematical model for analysis of these uncertainties that can be used during the several phases of the project in a variety of situations requiring technical and managerial decision. Palavras-Chave: Incerteza – Potência – Propulsão – Nuclear Keywords: Model – Risk – Safety Introdução A potência a ser desenvolvida pelo reator de uma instalação propulsora nuclear para submarinos deve cobrir as necessidades de propulsão, isto é a potência necessária para vencer a resistência ao avanço e as demais perdas de origem hidrodinâmica; além disto a potência fornecida deve suprir, também, o consumo das cargas necessárias a operação da propulsão e de cargas associadas com o desempenho das ações preconizadas para o submarino. A primeira destas é denominada de carga de propulsão PP e a segunda será denominada carga de serviço PS . Conhecidos PP e PS e as características do sistema de propulsão é imediata a determinação da potência a ser desenvolvida pelo reator; PR . O reator é um item de longo prazo de desenvolvimento e, portanto, sua potência deve ser conhecida em fases muito iniciais do projeto do submarino. Entretanto, em fases iniciais do projeto existem incertezas na definição das cargas de propulsão e de serviço. Estas incertezas diminuem no decorrer do projeto. Sistema de Propulsão Consideremos o sistema de propulsão mostrado, esquematicamente, na figura a seguir: Pesquisa Naval Nº 15, Setembro de 2002 119 O sistema é constituído por equipamentos, e meios de distribuição. Os equipamentos são as entidades responsáveis pela transdução de energia, enquanto que a distribuição é responsável pelo transporte de um determinado tipo de energia. Na figura acima denominamos E os equipamentos e D os meios de distribuição. A identificação é feita a seguir: Reator Gerador de Vapor Turbina de Propulsão Gerador de Propulsão Motor Elétrico de Propulsão Propulsor Casco do Submarino D1, D2, D11, D12, D13, D14 D3 , D5 , D8 D4 , D9 Energia do Fluido (un. massa) Descarga (massa) Φ Q Conjugado no Eixo Rotação no Eixo U Tensão Elétrica 1 2 3 4 5 6 7 E8 E9 E10 E11 E12 E13 E14 Turbina Auxiliar Gerador Auxiliar Cargas de Serviço Condensador Bomba de Circulação Condensado Bomba de Circulação Reator Bomba de Circulação Mar Dutos Eixos Cablagens I Corrente Elétrica T Empuxo no Hélice Ve Velocidade do Escoamento no Hélice R Resistência Hidrodinâmica do Casco Vs Velocidade de Avanço do Submarino 120 Pesquisa Naval Nº 15, Setembro de 2002 As entidades são caracterizadas pelas suas eficiências a seguir definidas: A eficiência do equipamento é definida como a relação entre a potência de saída do equipamento, isto é a potência entregue ao próximo equipamento no fluxo principal do processo, e a potência de entrada no equipamento. O fluxo principal do processo é entendido como aquele que vai do reator ao propulsor ou do reator as cargas de serviço. η= Ps Pe (1) Denominando -se: ηEi a eficiência do i-ésimo equipamento e de η ti a eficiência de transmissão, teremos para a potência de entrada do próximo equipamento: PEi +1 = η Ei ηti PEi (2) A potência a ser desenvolvida pelo reator, necessária para atender os requisitos de propulsão e de carga de serviço pode ser conhecida a partir do conhecimento da resistência hidrodinâmica do casco, da potência de serviço e das várias eficiências PR = RVs 7 5 2 1 ∏ η Ei ∏ ηti + PS + PSm η E2 η E8 η E9 ηt1 ηt2 ηt8 ηt9 (3) Pesquisa Naval Nº 15, Setembro de 2002 121 Os valores da resistência hidrodinâmica R , da potência de serviço PS , bem como das eficiências são estimados no início do projeto do submarino. Estas estimativas evoluem com o detalhamento do projeto e com utilização de métodos mais confiáveis para a análise dos vários equipamentos e sistemas. O valor mais confiável destas estimativas será obtido somente na fase de construção e teste dos protótipos quando da realização de ensaios. A potência de serviço PS é entendida aqui como o valor da soma de todas as cargas auxiliares ligadas a operação da propulsão (bombas, sistemas de ventilação e ar condicionado, sistemas de controle da propulsão etc. ) e das cargas ligadas ao desempenho das ações preconizadas (sistema de navegação, combate, manutenção da habitabilidade etc. ). Conhecimento destas cargas e a confiabilidade de sua estimativa são, também, função do estágio do projeto. O valor PSm é a margem para um crescimento futuro de cargas , principalmente aquelas ligadas ao desempenho operativo do submarino. Em particular chamamos a atenção para as eficiências η E6 e η E7 , que caracterizam as transferências de energia envolvidas na propulsão do submarino. A eficiência η E6 , é a eficiência do propulsor quando atuando à ré do submarino: η E6 = TVe = η p0 ηrr 2 π Qp n p (4) é a eficiência do propulsor isolado (água aberta) e onde eficiência relativa rotativa. A eficiência η E7 é chamada de eficiência do casco: onde: η E7 = e . T= RVs (1 − t ) = TVe (1 − w) R (1 − t ) (5) Ve = Vs (1 − w ) éa 122 Pesquisa Naval Nº 15, Setembro de 2002 As quantidades e força propulsora e de esteira. são respectivamente os coeficientes de redução da Estabelecimento de Margens para a Potência Total A obtenção da potência necessária para o reator, pode ser feita pela equação (3) , a partir do conhecimento da resistência hidrodinâmica desejada , da potência de serviço futuro , e das varias eficiências envolvidas em (3). , para a velocidade , de sua margem para crescimento A estimativa da potência total do reator é feita nas fases iniciais do projeto, (exeqüibilidade, concepção ) e re calculada nas fases subseqüentes do projeto. Esta estimativa da potência total é feita a partir de estimativas dos vários parâmetros que comparecem em (3). As estimativas mais precisas, obviamente serão obtidas na fase final do projeto onde teremos valores medidos das varias grandezas e a incerteza associada será no limite, o erro experimental da medida. Nas fases iniciais do projeto, será necessário uma estimativa de potência para o reator e demais equipamentos com margens, além daquela para crescimento futuro, suficientes para cobrir as incertezas de estimativas das grandezas que comparecem na equação (3). A estimativa de cada uma das grandezas que comparecem em (3) pode ser caracterizada por um valor médio, correspondente à melhor estimativa da grandeza na respectiva fase do projeto, e pelo valor de sua variança. QUANTIDADE Resistência Hidrodinâmica VALOR MÉDIO VARIANÇA R σR 2 Eficiência de Equipamento η Ei σ Ei 2 Eficiência de Transmissão η ti σ η ti 2 Carga de Serviço PS σ PS 2 A reserva para crescimento futuro da carga de serviço, PSm pode ser considerado como um valor com variança nula. Os valores referentes a médias e varianças variam ao longo das varias fases do projeto. Em particular, o valor da variança deverá diminuir , demonstrando o maior conhecimento dos vários itens. Pesquisa Naval Nº 15, Setembro de 2002 123 A relação (3) pode ser escrita: ( ) PR = PR R, PS , PSm ,ηE i ,ηti (4) Mostra-se que o valor médio de (4) pode ser escrito: 1 ∂ 2PR PR = PR R , PS , PSm ,ηE i ,ηt i + 2 ∂R 2 ( + ) 1 9 ∂ 2PR 2 1 9 ∂ 2PR σ η + ∑ 2 ∑ 2 2 ∂ηE i 2 Ei 2 1 ∂η t i + ) 1 9 ∂ 2PR 2 1 9 ∂ 2PR σ η + ∑ 2 ∑ 2 2 ∂ηE i 2 Ei 2 1 ∂η t i ∂ PR = ∂R 2 σ P + S 2 σ t i 1 ∂ 2PR PR = PR R , PS , PSm ,ηE i ,ηt i + 2 ∂R 2 ( 2 1 ∂ 2PR σ R + 2 ∂PS 2 (5) 2 1 ∂ 2PR σ R + 2 ∂PS 2 2 σ P + S 2 σ t i (6) VS 7 5 2 1 ∏ ηE i ∏ ηti (7) ∂ 2PR =0 ∂R 2 (8) ∂PR 1 = ∂PS ηE 2ηE8ηE 9ηt1ηt8ηt9 (9) 124 Pesquisa Naval Nº 15, Setembro de 2002 ∂ 2 PR ∂PS 2 =0 (10) [ ( )] (11) [ ( )] (12) i = 3,4,5,6,7 (13) ∂PR 1 =− PR R , PS , PSm ,η Ei ,η ti ∂η E2 η E2 ∂ 2 PR 2 = PR R , PS , PSm ,η Ei ,ηti 2 2 ∂η E2 η E2 R VS ∂PR 1 7 =− 5 ∂η Ei η Ei η ∏ E j ∏η t j 1 3 ∂ 2 PR ∂η Ei 2 =− 2 ∂PR η Ei ∂η Ei i = 3,4,5,6,7 ∂PR PS + PSm 1 =− ∂η Ei η Ei η E8η E9 ηt1η t2 ηt8 ηt9 ∂ 2 PR ∂η Ei 2 =− 2 ∂PR η Ei ∂η Ei [ ( ∂η ti 2 =− i = 8,9 i = 8,9 ∂PR 1 =− PR R , PS , PSm ,η E j ,ηt j ∂η ti ηti ∂ 2 PR (14) 2 ∂PR η ti ∂η ti i = 1,2 (15) (16) )] i = 1,2 (17) (18) Pesquisa Naval Nº 15, Setembro de 2002 ∂PR R VS 1 7 =− 5 ∂η ti η ti η ∏ E j ∏η t j 1 2 ∂ 2 PR ∂η ti =− 2 2 ∂PR η ti ∂η ti i = 3,4,5 i = 3,4,5 ∂PR PS + PSm 1 =− ∂ηti ηti η E8η E9 ηt1ηt2ηt8ηt9 i = 8,9 ∂ 2 PR ∂η ti 2 =− 2 ∂PR η ti ∂η ti i = 8,9 125 (19) (20) (21) (22) Nas equações (5) e (6) por uma questão de homogeneidade de apresentação , assumiu-se η t6 = 1 e η t7 = 1 constantes; e por conseqüência σ ηt6 2 =0 e σ ηt 7 = 0 2 Denominemos de PRH a parcela de potência do reator fornecida para vencer a resistência hidrodinâmica do submarino na correspondente velocidade ,de PRS a parcela de potência fornecida para atender à carga de serviço e de PRSm a parcela destinada ao crescimento futuro da carga de serviço: PRH = RV S 7 5 ∏η ∏η Ei 2 PRS = ti (23) 1 PS η E2η E8η E9ηt1ηt2η t8ηt9 (24) 126 Pesquisa Naval Nº 15, Setembro de 2002 PRS m = PSm η E2η E8η E9ηt1ηt2ηt8ηt9 (25) As equações (5) e (6) permitem calcular o valor médio e a variança da potência do reator a partir das varianças das estimativas da resistência hidrodinâmica do submarino ,da carga de serviço e das varias eficiências envolvidas no ciclo. É interessante notar que a partir de (8) e (10) conclui-se que o valor médio da potência do reator é independente da variança das estimativas da resistência hidrodinâmica e da carga de serviço. Outra conclusão interessante pode ser obtida notando-se que os vários coeficientes diferenciais relativos às eficiências, (equações (11) a (22) ) ,são inversamente proporcionais aos valores destas eficiências. Desta forma quanto menor for a eficiência de um determinado item do ciclo ,maior será a contribuição deste item para a média e variança da estimativa de potência do reator. Isto sugere , que para a diminuição das incertezas de estimativa , devamos concentrar a atenção na estimativa da eficiência dos itens com menor eficiência no ciclo. A partir do calculo de (5) e (6) será possível determinar a potência necessária dentro de um intervalo de confiança pré -determinado, e com isto estabelecer a margem de potência requerida. Para tanto será necessário conhecer as varianças das várias estimativas. Como nem sempre é possível conhecermos as varianças das estimativas, poderemos chegar a um valor aproximado da margem de potência através de uma consideração alternativa. Consideremos a diferencial total de PR definida por (3): ∂P ∂P dPR = R dR + R ∂R ∂PS 9 ∂P dPS + ∑ R 1 ∂η Ei 9 dη E + ∑ ∂PR i 1 ∂η t i dη t i (26) A equação (26) pode ser escrita alternativamente como: dPR PR P dR P dP dηE P 7 dηE P + P 9 dηE = RH + RS S − 2 − RH ∑ i − RS RSm∑ i + 8 ηEi PR R PR PS ηE2 PR 3 ηEi PR 2 dη P 5 dηt P + P 9 dηt t − ∑ i − RH ∑ i − RS RSm∑ i PR 1 ηti PR 3 ηti 8 ηti (27) As várias diferenciais na equação (27) podem ser substituídas por diferenças finitas, resultando: Pesquisa Naval Nº 15, Setembro de 2002 127 ∆PR PRH ∆R PRS ∆PS ∆ηE2 PRH 7 ∆ηEi PRS +PRSm 9 ∆ηEi ∑ − ∑ − + = + − PR PR R PR PS ηE2 PR 3 ηEi PR 8 ηEi 2 ∆η P 5 ∆ηt P +P 9 ∆ηt t −∑ i − RH∑ i − RS RSm∑ i PR 8 ηti 1 ηti PR 3 ηti Na equação (28) os vários termos do tipo (28) ∆X X podem ser considerados como os erros relativos na estimativa do parâmetro X . Desta forma a equação (28) representa o erro relativo na estimativa da potência total do reator, colocado em função do erro relativo das varias estimativas. O erro relativo de cada estimativa pode ser estimado de maneira mais simples que a variança e portanto a equação (28) pode ser a base para o estabelecimento da margem de potência. Como existe a possibilidade de que os erros relativos de cada estimativa em parte se neutralizem, uma estimativa mais razoável da margem pode ser obtida a partir do valor relativo médio 2 2 2 2 2 2 2 2 ∆PR PRH ∆R 7 ∆ηEi 5 ∆ηti PRS + PRSm 9 ∆ηEi 9 ∆ηti + ∑ + + ∑ ∑ = Ψ = + ∑ PR PR R 3 ηEi 3 ηti PR 8 ηEi 8 ηti 2 2 ∆ηE 2 ∆ηt P ∆P + 2 + ∑ i + RS S η 1η ti PR PS E2 2 2 (29) A margem absoluta média é portanto dada por: ∆PR = PR Ψ (30) O valor da potência do reator PR é calculado a partir da equação (3) utilizando- se a melhor estimativa para as várias grandezas. O parâmetro Ψ é calculado a partir da equação (29) a partir do erro relativo de cada estimativa. De maneira semelhante, é possivel definir uma margem relativa para cada um dos equipamentos do ciclo. Para os equipamentos envolvidos com o atendimento da carga de propulsão, temos: ∆ PE i PE i 7 ∆η Ej = ∆ R − ∑ H R j =i η E j com, i = 3, 4, 5, 6, 7 7 ∆η tj − ∑ j=i η t j (31) 128 Pesquisa Naval Nº 15, Setembro de 2002 Para os equipamentos envolvidos com o atendimento à carga de serviço: ∆PEi PE i 1 = S 1 + PSm PS ∆PS PS 9 ∆η Ei − ∑ j =i η Ei ∆η ti + ηt i (32) com, i = 8,9 A partir de (31) e (32) é possível , de maneira semelhante ao reator, definir margens relativas médias para cada um dos equipamentos: Atendimento à propulsão: ∆PEi PE i 2 7 ∆η = ∆R + ∑ E j R j =i η E j H 2 ∆η t j + ηt j 2 (33) com , i = 3,4,5,6,7 A potência do respectivo equipamento é calculada por: (P ) Ei ∆PEi PE i H = RVS 7 7 j =i j =i ∏η E j ∏η t j 1 = PSm S 1 + PS ∆PS 2 PS 2 9 ∆η Ej + ∑ j =i η E j (34) 2 ∆η t j + ηt j 2 com , i = 3,4,5,6,7 Atendimento à carga de serviço: (35) Pesquisa Naval Nº 15, Setembro de 2002 129 A potência do respectivo equipamento: (P ) Ei S = (PS + PSm ) 9 ∏η ∏η j =i (36) 9 Ej j =i com i = 8,9 tj PEi Nas expressões (31) a (36), a potência entrada do equipamento. As margens ∆PEi é entendida como a potência de são entendidas como margens a esta potência de entrada, de modo a cobrir as incertezas relativas as eficiências do equipamento em consideração e daqueles situados a jusante no processo. A utilização das margens médias para os vários equipamentos, calculáveis a partir de (33) e (35), é compatível (considerando somente efeitos de primeira ordem), com a margem média global na potência do reator dada por (30). Sendo PE3 , ∆PE3 , PE8 , ∆PE8 , respectivamente as potências e margens médias da turbina de propulsão e turbina auxiliar, a potência do reator fica: PR = PE3 + PE8 η E2 η t1ηt 2 + ∆PE3 + ∆PE8 (37) η E2 ηt1η t2 Considerando a diferença finita de (37): PE + PE8 ∆PR = − 3 ηE ηt ηt 2 1 2 ∆ηE 2 PE3 + PE8 − ηE ηE ηt ηt 2 2 1 2 ∆PE 3 + ∆PE8 ∆PE3 + ∆PE8 + + ∆ ηE ηt ηt ηE 2ηt1ηt 2 2 1 2 2 ∆ηti ∑ 1 ηt i + Conservando-se apenas os termos de primeira ordem em (38) resulta em uma expressão idêntica à (28). (38) ∆ , mostra-se que Conclusões As expressões (28), (30), (31), (32), (33) e (35) podem ser utilizadas durante as várias fases do projeto em uma variedade de situações: Analise do reflexo da variação de eficiências de entidades do ciclo sobre a potência total do reator ou sobre a potência de equipamentos. Para esta finalidade podemos utilizar as equações (28), (31), e (32). Estabelecimento de margens de potência, necessárias para cobrir incertezas previamente estabelecidas de estima de eficiências de entidades do ciclo. Para esta finalidade, podem ser utilizadas as equações (29), (30), (33) e (35). Alternativamente poderemos estabelecer a priori margens máximas aceitáveis para a potência total ou de cada equipamento e avaliar a partir das equações (29), (30), (33) e (35) quais as faixas toleraveis de eficiências das varias entidades de modo a nos mantermos dentro das margens de potência previamente estabelecidas. A título de simples ilustração, imaginemos as seguintes incertezas de estimativas para um ciclo com PR = 48, PRH = 36, PRS = 12e PRSm = 0 MW : Resistência Hidrodinâmica: ∆R = ±0, 20 R Potência de Serviço: ∆PS = ±0,20 PS ∆η Ei Eficiência de Equipamentos: η Ei ∆η ti Eficiência de Transmissão: η ti = ±0,10 = ±0,05 Resulta de (29): Ψ = 0,0715 Para a incerteza média relativa na estima da potência do reator teremos: ∆PR = 26,7% PR Diminuindo-se as incertezas para : ∆η Ei ∆η ti ∆PS ∆R = ±0,05 , = ±0,05 = ±0,10 , = ±0,10 , η Ei η ti PS R resultará Ψ = 0,0256 e para a incerteza média relativa: ∆PR = 16% PR X Capítulo MODELO DE AVALIAÇÃO DE RISCOS SÓCIO-TECNOLÓGICOS CF(EN) Leonam dos Santos Guimarães Centro Tecnológico da Marinha em São Paulo (CTMSP) Av. Professor Lineu Prestes 2468, Cidade Universitária, São Paulo , SP, Brasil e-mail: [email protected] / Tel: 0-XX-11-38177148 Resumo O presente trabalho apresenta um modelo matemático para a avaliação dos riscos sócio-tecnológicos decorrentes do funcionamento de um sistema industrial, entendido como um conjunto de elementos discretos, interrelacionados ou em interação, com o objetivo de executar uma determinada missão. São ainda propostos limites quantitativos para as variáveis de decisão deste modelo. O propósito desta abordagem é proporcionar uma base de avaliação objetiva para que as ações de gerenciamento de riscos sejam eficaz e eficientemente implementadas ao longo do ciclo de vida do sistema, garantindo assim um nível de segurança socialmente aceitável. Abstract The present work presents a mathematical model for the evaluation of technological risks arising from industrial systems operation. Quantitative limits for the decision variables of the model are also proposed . This approach aims to provide an objective base to judge the effectiveness and efficiency of risk management actions implemented along system’s life cycle, therefore assuring a socially acceptable safety level. Palavras-Chave: Modelo – Risco - Segurança Keywords: Model – Risk – Safety 132 Pesquisa Naval Nº 15, Setembro de 2002 Introdução O presente trabalho foi desenvolvido dentro do escopo da tese de doutoramento de referência [1], cujo propósito foi o estabelecimento de uma doutrina de segurança para submarinos nucleares que permitiria à Autoridade de Segurança Nuclear examinar e julgar sobre a adequabilidade das ações de segurança a serem tomadas pela Marinha do Brasil ao longo de todas as fases do ciclo de vida destes navios. O modelo de avaliação de riscos proposto tem, entretanto, uma aplicação geral, permitindo sua utilização no gerenciamento de riscos sócio-tecnológicos decorrentes do funcionamento de qualquer instalação industrial. A condição teórica de Segurança Absoluta ou de Risco Zero para sistemas industriais, i.e. a certeza da impossibilidade de um Perigo tornar-se real é uma utopia, pois, ao desenvolvimento de todos os processos físicos, químicos e humanos atuantes nas fases do Ciclo de Vida das instalações, estão associadas margens de incerteza decorrentes do caráter aleatório intrínseco tanto à natureza como ao próprio homem. Tendo em vista esta realidade, o Gerenciamento de Riscos deverá garantir o cumprimento de ações de segurança que tornem, numa primeira instância, o Risco Objetivo Potencial de um Sistema Industrial inferior ao limite de Risco Subjetivo Tolerável. Numa segunda instância, as ações de segurança devem ser otimizadas no sentido de tornarem o Risco Objetivo Residual deste Sistema Industrial inferior ao limite de Risco Subjetivo Aceitável. Denomina-se a condição prática decorrente destas ações de Segurança Objetiva, i.e. aquela em que os riscos foram justificados (Princípio da Justificação), limitados (Princípio da Limitação) e otimizados (Princípio da Otimização). Conceitos Básicos Considerando que as definições vernáculas para Segurança e conceitos associados podem ser em certa medida dúbias e sujeitas a diferentes interpretações, serão inicialmente estabelecidas as seguintes definições técnicas que serão em seguida empregadas na formulação matemática de um modelo de avaliação. Perigo: circunstância ou situação determinada que potencialmente poderia ocorrer ao longo do Ciclo de Vida de um Sistema Industrial e da qual decorreriam conseqüênciasindesejáveis cuja Gravidade é considerada como intolerável pelos grupos sociais afetados. Gravidade: intensidade do impacto social e econômico das conseqüências indesejáveis de um Perigo. Sistema Industrial: conjunto determinado de elementos discretos interrelacionados ou em interação com o objetivo de executar uma missão de natureza tecnológica. Pesquisa Naval Nº 15, Setembro de 2002 133 O impacto da Gravidade de um Perigo decorrente de um Sistema Industrial incide potencialmente sobre a saúde física e mental de seres humanos, tanto ao nível individual como coletivo, sobre a integridade de propriedades e bens públicos e privados e sobre o equilíbrio dos eco-sistemas do meio ambiente local, regional, nacional e global. Evento Indesejado: evento inicializador de um Cenário Acidental. Cenário Acidental: seqüência lógica de eventos que, a partir de um Evento Indesejado, conduz o Sistema Industrial a um estado de Perigo. Risco: possibilidade, dentro de um período de tempo determinado e sob condições iniciais pré-definidas, de ocorrência de um Cenário Acidental. Segurança: possibilidade, dentro de um período de tempo determinado e sob condições iniciais pré-definidas, de não ocorrência de um Cenário Acidental. Risco Objetivo: valor esperado da Gravidade dos Perigos decorrentes do funcionamento de um Sistema Industrial (expectância ou esperança probabilística, i.e. produto da Probabilidade pela Gravidade), sob condições pré-definidas e durante um intervalo de tempo limitado; é determinado objetivamente pelas técnicas e métodos da Segurança de Funcionamento de Sistemas Industriais (SDFSI) ou Reliability, Availability, Mantenability and Safety (RAMS), no jargão técnico anglo-saxão. Risco Subjetivo: expectativa de conseqüências indesejáveis decorrentes do funcionamento de um Sistema Industrial, determinada pela Percepção de Riscos subjetiva de indivíduos e coletividades acerca da Probabilidade e a Gravidade dos Perigos dele decorrentes. Percepção de Riscos: conjunto de fenômenos de natureza sociológica e psicológica que criam uma hierarquia de Riscos Subjetivos, particular a cada indivíduo e a cada grupo social. A hierarquia de Riscos Subjetivos não possui relação lógica com aquela derivada das formulações empregadas para determinação dos Riscos Objetivos. A Percepção de Riscos coletiva (ou social) tende a avaliar os Riscos Subjetivos superestimando a Gravidade e subestimando as Probabilidades. Considerando-se dois Riscos Objetivos idênticos, a Percepção de Riscos coletiva tende portanto à aversão ao risco com maior Gravidade, ainda que tenha pequena probabilidade (acidentes em instalações nucleares, por exemplo), e ao conformismo ao risco com menor Gravidade, ainda que tenha alta probabilidade (acidentes rodoviários, por exemplo). A percepção individual, por sua feita uma distinção entre dois tipos de riscos ao nível individual: Riscos Voluntários: aqueles incorridos por livre e espontânea vontade de um indivíduo e dos quais ele julga auferir benefícios diretos tais que o impacto dos riscos associados são pouco considerados (atividades profissionais, uso de meios de transportes, prática de esportes e atividades de lazer, tratamentos médicos, tabagismo, por exemplo). 134 Pesquisa Naval Nº 15, Setembro de 2002 Riscos Involuntários: a20eles impostos a um indivíduo sem consulta prévia e dos quais ele julga auferir poucos, ou mesmo nenhum, benefício direto, para os quais o impacto dos riscos associados são considerados com maior intensidade (instalações industriais, alimentação, pesquisa científica e tecnológica, atividades militares, por exemplo). A Percepção de Riscos individual avalia os Riscos Voluntários sob uma ótica totalmente distinta da2uela usada para avaliar os Riscos Involuntários. Tal constatação, cuja explicação foge do escopo do presente trabalho, torna sem sentido qual20er hierarquização, ao nível individual, por exemplo, entre o risco do transporte rodoviário e o da produção de energia nuclear. O primeiro é objetivamente muito mais elevado do 20e o segundo, sendo porém tipicamente voluntário. Cumpre ainda ressaltar 20e a hierarquia de Riscos derivada da Percepção Social e da Percepção Individual nem sempre são coerentes entre si. Isto deriva do fenômeno sociológico bem conhecido de 20e o homem tem um comportamento em coletividade diferente da2uele 2ue tem individualmente. Seguridade: conjunto de ações técnicas tomadas ao longo do Ciclo de Vida de um Sistema Industrial 2ue visam proporcionar à sociedade e a cada indivíduo um nível de Segurança tão elevado (ou um nível de Risco tão reduzido) 2uanto razoavelmente alcançável, levando-se em conta fatores sociais e econômicos. Risco Potencial: Risco Objetivo determinado para um sistema industrial sem serem consideradas as ações técnicas de Seguridade efetivamente tomadas ao longo do seu Ciclo de Vida; Risco Residual: Risco Objetivo determinado para um sistema industrial considerando-se as ações técnicas de Seguridade efetivamente tomadas ao longo do seu Ciclo de Vida. Risco Tolerável: Risco Subjetivo determinado a priori com base na filosofia dos Princípios da Justificação e da Limitação, independendo das características específicas de um sistema industrial particular; a justificação e a limitação não necessariamente restringem-se às conseqüências radiológicas, podendo ser estendidas aos demais tipos de conseqüências. Risco Aceitável: Risco Subjetivo determinado a posteriori com base na filosofia do Princípio da Otimização ou ALARA (As Low as Reasonable Achievable), 20e depende das características específicas de um sistema industrial particular. Gerenciamento de Riscos: aplicação prática da Seguridade 2ue visa tornar os Riscos Objetivos Residuais de um Sistema Industrial em Riscos Subjetivos Aceitáveis ao nível social e individual; sua ferramenta básica é a teoria de SDFSI/RAMS. Pesquisa Naval Nº 15, Setembro de 2002 135 SDFSI/RAMS: num sentido amplo, constitui a Ciência das Falhas, i.e. identificação, avaliação, previsão e controle de Falhas de um Sistema Industrial; num sentido estrito, é entendida como a capacidade de um sistema cumprir com sucesso seus objetivos precípuos ou missão, sem que ocorram Eventos Indesejados; além do conceito de Seguridade, engloba os conceitos de Confiabilidade, Manutebilidade e Disponibilidade. Confiabilidade: capacidade de um sistema cumprir uma função requerida, dentro de condições preestabelecidas, durante um período de tempo determinado; pode ser avaliada seja como Confiabilidade Operacional, resultante da observação e da análise estatística do comportamento de sistemas idênticos dentro de condições pré-definidas, ou como Confiabilidade Extrapolada, que resulta de uma extensão, feita com base em hipóteses de extrapolação ou interpolação, da Confiabilidade Operacional de uma entidade para intervalos de tempo ou condições diferentes, ou ainda como Confiabilidade Previsional (ou Prevista), que estima a confiabilidade futura de um sistema a partir de considerações sobre seu projeto e sobre a Confiabilidade Operacional e Extrapolada de seus componentes. Manutebilidade: capacidade de um sistema ser mantido no (ou restabelecido ao) estado de cumprir uma função requisitada, quando atividades de manutenção são realizadas dentro de condições preestabelecidas, seguindo um conjunto de procedimentos e meios previamente prescritos; estas atividades podem ser de Manutenção Preventiva, realizadas segundo um planejamento preestabelecido, baseado no histórico de operação do sistema, visando evitar a ocorrência de uma falha, de Manutenção Preditiva, realizadas no momento em que uma variável de processo do sistema monitorada atinge um valor crítico preestabelecido, visando restabelecer o funcionamento normal antes que o mesmo se degrade a um nível de Falha, e de Manutenção Corretiva (ou Reparo), realizadas após a ocorrência de uma Falha, visando restabelecer suas condições de funcionamento normal. Disponibilidade: capacidade de um sistema estar, num instante determinado e dentro de condições preestabelecidas, em estado de cumprir uma função requisitada; pode ser avaliada como: Disponibilidade Instantânea (ou Imediata), que corresponde à definição propriamente dita, sendo condicionada pela Confiabilidade e permitindo a um sistema evitar um Perigo; Disponibilidade Potencial (Prevista, Contínua ou Estatística), que corresponde à capacidade do sistema funcionar de modo contínuo durante um intervalo de tempo determinado, considerando seu estado inicial, condicionada também pela Manutebilidade; e Disponibilidade Pós-Acidental, correspondendo à Capacidade de Sobrevivência do sistema, i.e. à capacidade do sistema continuar a desempenhar suas funções, ainda que de forma degradada ou parcial, após uma Falha Grave que tenha afetado algumas de suas partes. 136 Pesquisa Naval Nº 15, Setembro de 2002 Formulação do modelo As definições previamente apresentadas devem ser formuladas em termos matemáticos para permitir a avaliação quantitativa dos parâmetros de segurança de um sistema, essencial para um efetivo gerenciamento de riscos. Sejam: Ω Espaço de estados do Sistema Industrial Ωi | i=1, I Estados finais decorrentes dos Cenários Acidentais do Sistema Industrial, enumerados de i=1 a I, e onde Ω ⊃ Ω i Cj| j=1, J Tipos de conseqüências indesejadas que estão associadas ao estado Ωi, enumeradas de j=1 a J Gij Gravidade da conseqüência Cj para o estado Ωi εin| n=1, N Eventos Indesejados que inicializam um Cenário Acidental do Sistema Industrial, enumerados de n=1 a N para cada estado Ωi. O Perigo Π decorrente do funcionamento do Sistema Industrial no seu espaço de estados Ω será formulado então pela expressão que se segue, como o somatório das gravidades G ij de cada estado acidental Ω i, considerando todos os tipos de conseqüências Cj dele decorrente. Π = [Σj (Σi Gij)] {a} O dimensional do Perigo Π é o mesmo das Gravidades Gij que avaliam quantitativamente as conseqüências de diferentes naturezas {Cj}. Conclui-se então que, para medir-se Π é necessário normalizar-se as Gravidades numa mesma base dimensional. As potenciais conseqüências indesejáveis de um Sistema Industrial possuem diversas incidências sobre seres humanos, eco-sistemas, bens e propriedades, o que torna tal tarefa de normalização particularmente complexa, dificultando a avaliação de Π pela expressão {a} anteriormente apresentada. O procedimento convencional para avaliação quantitativa de Π é reduzir-se cada uma das Gravidades a uma base monetária. Este procedimento, entretanto, é vulnerável a críticas de ordem ética e moral quando aplicado a valoração da saúde ou de perdas humanas. Por outro lado, o conjunto {Ωi} dos estados finais dos Cenário Acidentais verossímeis de um Sistema Industrial, apesar de ser finito, no caso geral é não-enumerável, o que constitui uma outra dificuldade para avaliação de Π pela expressão {a}. A quantificação de Π feita para um único Ωi=1 e para uma única classe de conseqüências Cj=1. seria dada pela expressão abaixo: Π = Giji=1,j=1 = g {b} Pesquisa Naval Nº 15, Setembro de 2002 137 A Função Densidade de Probabilidade FDP p do Evento Indesejado εin é determinada pela expressão a seguir, como o valor limite xn da Função Repartição (ou Distribuição) de Probabilidade FRP P de uma variável aleatória Xn que caracteriza sua ocorrência durante um intervalo de tempo t = {0, T}. Note-se que a FRP de Xn corresponde a integral da FDP de Xn . p(εin)|0,T = p(Xn>xn) )|0,T = P(xn) )|T {c} No caso do evento εin representar uma falha durante o funcionamento no intervalo t={0, T}, a Confiabilidade Previsional R do sistema com respeito a este evento é formulada pela expressão que se segue, como o complemento de sua probabilidade de ocorrência neste intervalo. R = [1- p(εin)|t=0,T] = [1- p(Xn>xn)| t=0,T] = [1 - P(xn)| t=T] {d} No caso do evento εin representar uma indisponibilidade na partida ou funcionamento intempestivo no instante t = T, a Disponibilidade Instantânea A do sistema com respeito a este evento é formulada pela expressão abaixo como o complemento da sua probabilidade de ocorrência neste instante. A = [1- p(εin)| t=T] = [1- p(Xn=xn)| t=T] {e} O Risco Objetivo ℜ decorrente do funcionamento do Sistema Industrial no seu espaço de estados Ω durante um intervalo de tempo T será formulado então pela expressão a seguir como o somatório, percorrendo todos os i=1,I Estados Finais associados aos Cenários Acidentais, os n=1,N Eventos Indesejados associados a cada Estado Final, e os j=1,J Tipos de Conseqüências consideradas para cada Estado Final, do produto da Gravidade Gij pela FRP de xn. Esta modelagem do Risco como produto da Gravidade pela Probabilidade denomina-se Modelo da Expectância Linear das Conseqüências e é expresso por: ℜ = Σj {Σi [Σn P(xn)T . Gij]} {f} O dimensional de ℜ será então Gravidade por unidade de tempo. As dificuldades apontadas para avaliação de Π pela expressão [1] repetem-se para a avaliação de ℜ pela expressão [6], acrescida a uma nova: o caráter finito porém não enumerável de εin. Pode-se quantificar ℜ para um único Estado Final Ωi=1= Ω, um único Evento Indesejado εi=1,n=1 = ε e para uma única conseqüência Cj=1 = C, como mostrado abaixo. Note-se que a FRP de xn em t=T, neste caso, corresponde à FDP do Evento Indesejado ε em t={0, T}, que por sua vez corresponde à FDP da Gravidade Giji=1,j=1 = g no mesmo intervalo de tempo. ℜ = P(xn)|t=T . g = p(g)|t=0,T . g. {g} 138 Pesquisa Naval Nº 15, Setembro de 2002 Neste caso simplificado, a área sob a curva da FDP da Gravidade Gij = g em t={0,T}, dada por p(g)|t=0,T, plotada num gráfico (Probabilidade x Gravidade) representa o Risco Objetivo de um Sistema Industrial. Este gráfico, p = p(g), é utilizado para determinação de um indicador sintético (escalar) denominado Gravidade Média µG das conseqüências do funcionamento de um Sistema Industrial, formulado pela expressão abaixo como o produto da Gravidade g pela sua FDP. Note-se que a gravidade é geralmente representada sob forma descontínua, i.e. como k níveis de gravidade. µG = ∫ g. p(g) dg = Σk [gk . p(gk) ] {h} Ainda para este caso simplificado, a área sob a FRP da Gravidade Gij=g em t = T, dada pela integral da FDP da Gravidade entre t={0, T}, plotada num gráfico (Probabilidade x Gravidade) também representa o Risco Objetivo de um Sistema Industrial. Esta representação gráfica, P = P(g), denominado Diagrama de Farmer, é utilizada para determinação de outro indicador sintético (escalar) denominado Risco Médio µR das conseqüências do funcionamento de um Sistema Industrial, formulado a seguir como o produto da Gravidade g pela sua FRP, i.e. a área sob a curva P = P(g). Note-se que neste gráfico a gravidade também é representada sob forma descontínua, i.e. como k níveis de gravidade. µR = ∫ g .[ ∫ p(g) dg] dg = ∫ g . P(g) dg = Σk [gk .P(gk)] {i} Pode-se utilizar indiferentemente a Gravidade Média ou o Risco Médio como figuras de mérito, dado que existe uma relação direta entre os dois: A partir de um intervalo de definição dos níveis de Gravidade [g0, g1, ... , gk], determina-se a gravidade média µG calculando-se o baricentro das Gravidades ponderadas pelos respectivos valores da FDP [p0, p1, ... , pk]. µG = Σk (gk . pk) {j} No cálculo do risco médio, a ponderação das Gravidades é feita pela FRP: µR = Σk (gk . Σ l=k,K pl) = µG +(Σk gk . Σ l=k+1,K pl) {k} A figura a seguir apresenta um exemplo de Diagrama de Farmer, onde existem três níveis descontínuos de riscos. A Gravidade Média e o Risco Médio seriam então determinados por: µG= Σk µGk = Σk [gk . p(g=gk)] = Σk (gk . pk) µR= Σk µRk = Σk [gk . p(g≤gk)] = Σk (gk . Pk) µG= (g1 . p1 + g2 . p2 + g3 . p3) = 3 . 10-3 µR=[ g1 . p1 +( g2 + g1). p2 +( g3 + g2 + g1). P3] = 3,21 . 10-3 {l} {m} {n} {o} Pesquisa Naval Nº 15, Setembro de 2002 139 FDP 1.1 1 10-4 10-5 10-6 GRAVIDADE 0 10 100 1000 Diagrama de Farmer O Risco Médio dá um peso maior às gravidades mais severas do que à gravidade média. Com efeito, entre duas distribuições de mesma gravidade média, a diferença entre os respectivos riscos médios objetivos será tanto maior quanto maiores forem as probabilidades associadas às gravidades mais intensas. Este efeito é ainda mais notável quanto maior for a gravidade média. Sob este ponto de vista, o Risco Médio coincide melhor com a percepção social do Risco Subjetivo, decorrente de um maior peso dado aos eventos graves. A formulação do Risco Subjetivo ℜ* é baseada em Modelos de Expectância Não-Linear de Conseqüências, de natureza fundamentalmente empírica, pois envolvem fenômenos de origem social e psicológica. Estes modelos podem ser expressos de forma genérica, sendo ƒ uma função não linear, i.e. diversa do simples produto da Probabilidade pela Gravidade. ℜ* = ƒ [P(ε), G] {p} A abordagem mais corrente para o desenvolvimento destes modelos são os estudos sociais de disposição a pagar (willingness to pay) desenvolvidos em alguns países. Deve-se ressaltar que os modelos derivados deste tipo de abordagem são restritos a um grupo social bem definido e a uma época determinada, não sendo válida, a priori, sua transposição para contextos diferentes do original. 140 Pesquisa Naval Nº 15, Setembro de 2002 A Segurança (ou Seguridade) Objetiva S do funcionamento do Sistema Industrial no seu espaço de estados Ω será formulado pela expressão a seguir como o inverso do Risco Objetivo, tendo a dimensão de Tempo por unidade de Gravidade. S =1/ℜ {q} Dentro deste formalismo, para um único Estado Final Ωi=1 = Ω e uma única incidência de conseqüências Cj=1 = C, S pode ser determinado pelo período de retorno Tr de um determinado valor limite xn da FRP de uma variável aleatória Xn que caracteriza a ocorrência do evento εn. S = Tr (xn) = 1 / [1 – P (xn)] {r} A partir de {e}, pode-se deduzir ℜ como o valor da FDP p de observar no período de tempo t= {0, T} um Evento Indesejado εin com período de retorno Tr. ℜ = p(Xn>xn) = 1–[p(Xn<xn)t=0,T] = 1–[P(xn)t=T] = 1–{1–[1/Tr(xn)]} {s} Para xn suficientemente grande, determina-se p(Xn>xn) resolvendo-se a expressão {s}, onde P (xn) é a FRP da variável aleatória Xn . ℜ = p (Xn > xn) = 1 – [P (xn)]1/T {t} Para xn e Tr suficientemente grandes, a expressão [17] se simplifica, chegandose a: ℜ = p (Xn>xn) = 1 – e(T/Tr) = T/Tr {u} A Disponibilidade Pós-Acidental A* é formulada pela expressão [18] como a probabilidade do sistema, estando em um Estado Final Ωi decorrente de um Cenário Acidental, retornar a um Estado Final Ω seguro devido a ocorrência de um Evento Desejado ε*in dentro do intervalo t = {T,T+∆t}. A probabilidade p(ε*in) é determinada pelo valor limite x*p da função repartição de probabilidade P de uma variável aleatória X*n que caracteriza sua ocorrência durante o intervalo t = {T,T+∆t}. A* = p(ε*in)T+∆t = p(X*n > x*p) T+∆t = P(x*p) T+∆t {v} Note-se que, para um mesmo conjunto {ε in}, S confunde-se com a Disponibilidade Potencial Â. Entretanto, Â é em geral definida para um conjunto de eventos operacionais mais abrangente, nem todos conduzindo a uma situação de Perigo Ωi. Da mesma forma, considerando-se um conjunto de Ωi não necessariamente associados a situações de Perigo, para um mesmo {ε*in}, A* confunde-se com a Manutebilidade Corretiva M. Limites Superiores de Riscos A aceitabilidade social de uma instalação industrial perigosa depende da intensidade dos riscos para os trabalhadores, as populações vizinhas e o meio ambiente Pesquisa Naval Nº 15, Setembro de 2002 141 em geral. Admitindo-se que os riscos são quantificáveis de acordo com as formulações apresentadas, torna-se necessário fixar-se limites superiores a estes riscos com o objetivo de determinar-se a envergadura das ações de segurança requeridas para o seu efetivo gerenciamento.A definição destes limites ao nível normativo e regulamentar é uma atividade que ultrapassa a área estritamente técnica, envolvendo uma série de considerações de ordem social e política. Apesar das dificuldades associadas a esta definição, alguns países têm determinado formalmente tais limites. Analisando os estudos e práticas dos países europeus sobre o tema [2], são propostos os seguintes limites: Limite superior para a probabilidade de ocorrência de um acidente que implique na morte de um trabalhador: 10-2 / ano / trabalhador Limite superior de risco coletivo ocupacional voluntário ao qual os trabalhadores da instalação são submetidos durante suas atividades profissionais: 10-2 mortes / ano Limite superior para a probabilidade de ocorrência de um acidente que implique na morte de um indivíduo na vizinhança da instalação: 10-3 / ano / indivíduo; Limite superior de risco coletivo involuntário ao qual as populações nas vizinhanças da instalação são submetidos: 10-3 mortes / ano Adaptando-se estes limites às formulações anteriores teríamos, a partir de {j}, para uma gravidade gk igual ao número k de mortes: risco individual ocupacional: risco coletivo ocupacional: risco individual público: risco coletivo público: (g1 . p1) ≤ 10-2 mortes / ano µG = Σk (gk . pk) ≤ 10-2 mortes / ano (g1 . p1) ≤ 10-3 mortes / ano µG = Σk (gk . pk) ≤ 10-3 mortes / ano Note-se que estes limites são estabelecidos para uma única classe de conseqüências, i.e. a probabilidade de morte de uma ou mais pessoas. Esta prática decorre das inerentes dificuldades de aceitação social de uma escala de Gravidade comum a diferentes classes de conseqüências. Estes limites não levam ainda em conta os aspectos do Risco Subjetivo associado à aversão às catástrofes. Propõe-se, para consideração deste aspecto, o limite abaixo formulado a partir de {k}, no qual c é uma constante valendo entre (0,5;1). Numa primeira aproximação, c = 0,67 poderia ser considerado para quantificação deste limite. µR = Σk (1+c) . (gk Σl=k,K pl) ≤ 10-2 . c mortes / ano Conclusões O modelo de avaliação desenvolvido, do qual a Gravidade Média e o Risco Médio constituem as figuras de mérito quantitativas mais significativas, permite a aplicação objetiva do Princípios da Limitação e da Otimização ao Gerenciamento de Riscos, estabelecendo parâmetros para comparações entre: - diferentes sistemas industriais existentes;- diferentes configurações possíveis para um sistema industrial em desenvolvimento ou em modificação; - um dado sistema industrial, existente ou em desenvolvimento/modificação, e o nível de Riscos Subjetivos Toleráveis determinado pela demanda social por Segurança. A abordagem de comparação I acima constitui ferramenta básica para o Gerenciamento de Riscos de um conjunto de sistemas, permitindo determinar uma política de segurança a partir de priorização dos sistemas sobre os quais Ações de Segurança devem ser tomadas. A abordagem II constitui ferramenta básica para o gerenciamento de Riscos de um determinado sistema, permitindo avaliar a eficácia e eficiência das Ações de Segurança. A abordagem III permite verificar a aceitabilidade social da configuração atual de um sistema ou de um conjunto de sistemas. Referências Bibliográficas GUIMARÃES, L.S., Sintese de Doutrina de Segurança para Projeto e Operação de Submarinos Nucleares, Tese de Doutorado, Escola Politécnica da Universidade de São Paulo, São Paulo, 1999. SMETS, H., Limites Supérieures des Risques Crées par les Installations Dangereuses, Révue Préventique no. 43 (jan-fev/92), Paris, França, 1992. XI Capítulo EMPREGO DE FERRITAS DE NI-ZN COMO ABSORVEDORES DE MICROONDAS CC(EN) Maria Luisa Gregori, CC(EN) Emilson Gonçalves Paulo, 1T(T) Tadeu Henrique dos Santos, Magali Silveira Pinho, Roberto da Costa Lima e Júlio César dos Santos Leandro Instituto de Pesquisas da Marinha (IPqM) Resumo Este trabalho teve como objetivo avaliar o desempenho de ferritas de Ni-Zn (Ni-Zn2Fe2O4) em matrizes de policloropreno (CR), como materiais absorvedores de microondas (RAMs). A eficiência destes materiais como RAMs foi avaliada através do emprego de um guia de ondas, para as faixas de freqüência de 2,6-4,0 e 8,0-16,0 GHz. O método utilizado nas medidas de refletividade (dB), foi baseado na determinação dos valores de permeabilidade complexa (µr*) e de permissividade complexa (εr*), a partir de dados de espalhamento, sendo conhecido como método de Transmissão/Reflexão (T/R). Abstract The aim of this work was to investigate the performance of Ni-Zn ferrites (Ni-Zn2Fe2O4) in polychloroprene matrices (CR) as radar absorbing materials (RAMs) in a awaveguide medium for the frequency ranges of 2.6-4.0 and 8.0-16.0 GHz. The reflectivity curves were obtained from the determination of the complex permeability (µr*) and permissivitty (εr*), from scattering parameters. The technique adopted was the transmission line, known as the Transmission/Reflection (T/R) method. 144 Pesquisa Naval Nº 15, Setembro de 2002 1. Introdução As cerâmicas ferrimagnéticas, isto é, as ferritas consistem de um grupo de materiais magnéticos cujo interesse como RAMs tem intensificado nas duas últimas décadas. O termo ferrita é normalmente empregado de maneira genérica, para descrever uma classe de componentes óxidos magnéticos, contendo o óxido de ferro (Fe2O3) como o principal constituinte [1-3]. As ferritas mais empregadas na área de microondas consistem do tipo espinélio, podendo citar, como exemplo, a ferrita de Ni-Zn [1,4]. A estrutura cristalina das ferritas de espinélio é isomorfa com a do mineral Mg2+Al3+2 O2-4. Quando o Al trivalente é substituído por Fe3+, obtém-se a ferrita de magnésio (Mg2+Fe3+2O2-4). A magnetita (Fe3O4) é formada quando Mg divalente é substituído por Fe2+. De uma maneira geral, qualquer íon metálico divalente (Ni, Zn, Co, Mn, Cu, etc) pode ser substituído resultando na obtenção de ferritas de espinélio. A unidade cúbica da célula contém 8 unidades de 16M3+1 e 8 cátions M2+2 [1,5]. A eficiência da absorção da radiação eletromagnética foi determinada através de medidas de refletividade, utilizando-se um guia de ondas, com base no método de Transmissão/Reflexão (T/R). Os gráficos de refletividade , explicitados em decibel (dB), foram obtidos para as faixas de freqüência de 2,6-4,0 e 8,0-16,0 GHz, a partir da determinação dos valores de permeabilidade complexa (µr*) e de permissividade complexa (εr*). 2. Procedimento Experimental Materiais O material magnético utilizado como carga no compósito com CR consistiu de Ni-Zn2Fe2O4 adquirida comercialmente da Transtech. A borracha de policloro-preno (Neoprene W, densidade = 1,2062 g/cm3 ; Mw= 440.000) foi utilizada como matriz. A composição percentual em peso utilizada foi 80:20 de Ni-Zn2Fe2O4:CR. Obtenção de Misturas Físicas com o Policloropreno A mistura física de Ni-Zn2Fe2O4 com CR, com composição percentual em peso 80:20 foi obtida através do emprego do misturador de cilindros Berstorff, à temperatura ambiente, com velocidades de 22 e 25 rpm (dianteiro e traseiro). Utilizou-se na etapa de moldagem por compressão uma prensa hidráulica à 150 °C e 6.7 MPa, de acordo com os tempos de vulcanização determinados pelo Reômetro Monsanto TM 100. Amostras vulcanizadas foram obtidas com as dimensões de 7,62 x 3,81 x 0,15 cm e 4,00 x 4,00 x 0,15 cm para as medidas de refletividade (dB), para as faixas de freqüência de 2,6-4,0 GHz e de 8,0-16,0 GHz, respectivamente. Granulometria a Laser O equipamento utilizado consistiu do analisador de tamanho de partículas por difração a laser Mastersizer Microplus (MAF 5001) da Malvern Instrument. Pesquisa Naval Nº 15, Setembro de 2002 145 Método de Transmissão/Reflexão (T/R) A permeabilidade e permissividade complexas foram determinadas a partir de dados de espalhamento, através do emprego do analisador vetorial de redes HP 8510, que determinou as perdas de inserção e retorno em magnitude e fase de amostras submetidas a teste (SUT, Sample Under Test), através da comparação entre o sinal transmitido pela SUT e o refletido na sua entrada [6-7]. A utilização de diferentes faixas de freqüência acarreta no emprego de guias de ondas com diferentes dimensões. 3. Resultados e Discussão A Figura 1 ilustra a distribuição de tamanho de partículas para a amostra de NiZn2Fe2O4 analisada pela técnica de difração a laser. Fig. 1- Distribuição de tamanho de partículas para a Ni-Zn2Fe2O4 pela técnica de difração a laser. 146 Pesquisa Naval Nº 15, Setembro de 2002 Através da técnica de difração a laser foi observada uma distribuição bem ampla de tamanhos de partículas. A Figura 2 apresenta as curvas de refletividade (dB) em função da freqüência (GHz) para as composições percentuais em peso 80:20 de Ni-Zn2Fe2O4:CR. Fig. 2- Curvas de refletividade (dB) versus freqüência (a) de 2,6-4,0 GHz e (b) 8,0-16,0 GHz,paraascomposiçõespercentuaisem peso80:20 de Ni-Zn2Fe2O4:CR, com espessuras de 5,00 mm. 0 -5 Refletividade (dB) -10 -15 (a) -20 -25 -30 -35 -40 -45 2.6 2.8 3 3.2 3.4 freqüência (GHz) 3.6 3.8 4 0 -5 Refletividade (dB) -10 -15 -20 -25 (b) -30 -35 -40 -45 8 9 10 11 12 13 Freqüência (GHz) 14 15 16 Pesquisa Naval Nº 15, Setembro de 2002 147 Pelos resultados apresentados na Figura 2 pode ser observada uma absorção de microondas superior a 90 % para a faixa de freqüência de 2,6-3,5 GHz. 4. Conclusão O emprego de ferrita de Ni-Zn não dopada, do tipo espinélio, em matriz de CR com composição percentual em peso 80:20 de Ni-Zn2Fe2O4:CR, apresentou um bom desempenho como RAM, para a faixa de freqüência de 2,6 a 3,5 GHz, em relação a faixa de 8,0-16,0 GHz. Agradecimentos: À equipe do Laboratório de Sistemas Particulados da Coordenadoria de Programas de Pós-Graduação em Engenharia (COPPE/UFRJ) pela análise no granulômetro a laser. 5. Referências Bibliográficas M. PARDAVI-HORVATH, “Microwave Applications of Soft Ferrites”, J. Magn. and Mag. Mat., 215-216, pp. 171-183, 2000. REYNOLDS, T. G. E BUCHANAN R. C., “Ferrite (Magnetic) Ceramics”. Em: Ceramic Materials for Electronics- Processing, Properties and Applications, Buchanan, R. C., Marcel Dekker, Inc., New York, 1986, capítulo 4, pp. 227264. LAX, B. E BUTTON, K. J., Microwave ferrites and ferrimagnetics, McGraw-Hill Book Company, Inc, New York, 1962. S. G. ABARENKOVA, V. I. IVANOVA, V. N. KARPOV, A. A. KITAIZEV AND L. K. MICHAILOVSKY , “Resonance Properties of mountfrom Gyromagnetic Particles”, Vth International Conference on Microwave Ferrites, Proc. Vilnus, USSR, 170-174. L. STUIJTS, “Sintering of Ceramic Permanent Magnetic Material”, Trans. Brit. Ceram. Soc., vol.55, pp. 57-74, 1956. J. BAKER-JARVIS, “Transmission/reflection and short-circuit line methods for measuring permittivity and permeability”, NIST Techn. Note 1355-R. J. L. WALLACE, “Broadband Magnetic Microwave Absorbers: Fundamental Limitations”, IEEE Trans. Magn., vol. 29, pp. 4209-4214, 1993. Centro de Análises de Sistemas Navais SEGURANÇA DA INFORMAÇÃO Entende-se que a informação e o conhecimento são os maiores patrimônios de organizações modernas e diretamente ligadas com tecnologia. Com a disponibilidade de recursos como a WWW e outros meios de comunicação, informações podem ser trocadas com maior velocidade em qualquer lugar do globo. Por outro lado, quanto mais ampla a quantidade de informações transitando, maior deve ser a preocupação em preservá-las. Cada vez mais, a segurança da informação é considerada fator de força na preservação do patrimônio das organizações. A equipe de Segurança da Informação e Criptologia do CASNAV possui metodologia própria que garante projetos sob medida para as necessidades de cada cliente, estando capacitada para a realização dos seguintes trabalhos: 1. Substituição da criptografia nativa de VPN dos Centros de Comando do SISNC2 por criptografia militar; 2. Substituição da criptografia nativa do ambiente de “workflow” Lotus Notes por criptografia militar em sistemas como o SIGDEM; 3. Desenvolvimento de sistemas criptográficos, alguns distribuídos para todas as organizações militares da Marinha, tais como: Tousor Windows, MBNet, SEANet, ESCROW-II, OLIMPUS Windows; 4. Elaboração de listas de segurança para ambientes computacionais. Entre esses cita-se: NOVELL Netware, LINUX, e Windows NT; e 5. Desenvolvimento de novos modelos matemáticos. Centro de Análises de Sistemas Navais Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro 3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332 e-mail: [email protected] XII Capítulo AVALIAÇÃO DO DESEMPENHO DE MATERIAIS ABSORVEDORES DE MICROONDAS POR GUIA DE ONDAS ATRAVÉS DOS FATORES DE DISSIPAÇÃO DIELÉTRICA E MAGNÉTICA Magali Silveira Pinho1,2, Júlio César dos Santos Leandro1, CC(EN) Maria Luisa Gregori 1, Regina Célia Reis Nunes2 e Bluma Guenther Soares 2 1 Instituto de Pesquisas da Marinha (IPqM) Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ) 2 Resumo Este trabalho tem por objetivo avaliar a influência dos fatores de dissipação, representados pelas perdas dielétricas e magnéticas (tan δε and δµ, respectivamente) sobre as medidas de refletividade de materiais absorvedores de microondas (RAM). A matriz elastomérica utilizada foi o policloropreno. A eficiência destes materiais como RAM foi avaliada através do emprego de um guia de ondas, para a faixa de freqüência de 8,00 a 16,00 GHz. O método utilizado nas medidas de refletividade (dB), baseia-se na determinação dos valores, relativos ao vácuo, de permeabilidade complexa (µr*) e de permissividade complexa (εr*), a partir de dados de espalhamento, sendo conhecido como método de Transmissão/Reflexão (T/R). Abstract In this work, the influence of the dissipation factors represented by the dielectric and magnetic losses (tan δε and δµ, respectively) on the reflectivity measurements was investigated. The elastomeric matrix was chloroprene rubber. 150 Pesquisa Naval Nº 15, Setembro de 2002 The performance of these materials as microwave absorbers was evaluated in a waveguide medium for frequencies from 8.00 to 16.00 GHz. The method adopted to measure the complex permeability (µr*) and complex permittivity (εr*) from scattering parameters, related to free-space, was the transmission line technique known as the Transmission/Reflection method (T/R). 1. Introdução O emprego de diferentes tipos de cargas absorvedoras de microondas em diversas matrizes poliméricas têm constituído tema de alguns centros de pesquisas, envolvidos com a tecnologia de invisibilidade ao radar (“Stealth Technology”). Os materiais escolhidos para serem utilizados como cargas absorvedoras de microondas consistem de ferrocarbonila (CI) e de hexaferrita de bário dopada com cobalto e titânio (Co-TiBaHF) [1,5]. A escolha de policloropreno (CR) como matriz elastomérica foi decorrente de suas propriedades que incluem excelente resistência ao enve-lhecimento, água, óleo e ozônio, possibilitando sua aplicação para fins navais [6]. A dispersão destes materiais em matrizes constitui um fator determinante, posto que para estas cargas magnéticas, normalmente são requeridas elevadas concentrações em peso, para que seja observado um bom desempenho como um RAM. A microscopia eletrônica de varredura (SEM) constitui uma técnica poderosa para o estudo morfológico e visualização da dispersão destes materiais. Tem aumentado, nos últimos anos, o interesse por medidas acuradas de propriedades elétricas e magnéticas, para diferentes tipos de materiais na freqüência de microondas. As principais técnicas incluem os métodos em câmara anecóica [7] e de linhas de transmissão [8]. A técnica a ser utilizada para as medidas de permeabilidade e permissividade, baseia-se nas linhas de transmissão, sendo conhecida como método de transmissão/refexão (T/R) [9, 10] e realizada em guia de ondas. Através dos dados obtidos, pode ser avaliado o nível de refletividade do material, de forma comparativa com um padrão pré-estabelecido. Este método apresenta como vantagem a utilização de pequena quantidade de amostra em relação à norma MIL-A-17161D [11]. Os materisia utilizados como absorvedores de microondas devem apresentar perdas magnéticas e dielétricas. O modo pelo qual estas perdas variam com a freqüência é responsável pela performance do absorvedor [12]. O objetivo deste trabalho consiste na avaliação do efeito dos fatores de dissipação representados pelas perdas dielétricas e magnéticas (tan δε and δµ, respectivamente) sobre as medidas de refletividade em guia de ondas. 2. Experimental Materiais O ferrocarbonila (CI, carbonyl-iron da BASF) e o policloropreno (CR) (Neoprene W da Du Pont, densidade= 1,2062 g/cm3 ; Mw= 440.000) foram utilizados Pesquisa Naval Nº 15, Setembro de 2002 151 como adquiridos. A hexaferrita de bário dopada com cobalto e titânio (Co-TiBaHF, densidade =5,2722 g/cm3) foi obtida pela técnica de mistura no estado sólido [4,6]. Os produtos de partida utilizados com elevado grau de pureza (superior a 99 % ) consistiram de BaCO3, TiO2, MnCO3, Fe2O3 e Co3O4. As misturas físicas foram realizadas em moinho de bolas utilizando esferas de Y-TZP por um período de 24 h e, posteriormente, calcinadas a 1200 °C por 2 h. O produto estequiome-tricamente obtido consistiu de BaFe10,20Co0,85Ti0,85Mn0,10O19. A razão ponderal de CoTi-BaHF:CR utilizada foi 80:20 (% peso). Obtenção dos Compósitos com o Policloropreno As cargas com composição percentual em peso de 80% foram individualmente misturadas em adição aos agentes de vulcanização com o CR. As misturas físicas (blendas) foram realizadas em um misturador de cilindros Berstoff à temperatura ambiente e com velocidades de 22 e 25 rpm (anterior e posterior), de acordo com os procedimentos clássicos empregados pela indústria de borracha. As blendas foram moldadas por compressão a 150 °C e 6,7 MPa. Os corpos de prova foram obtidos sob a forma de tapetes vulcanizados, com as dimensões (4,0 x 4,0 cm) e espessura de 0,15 cm. Estudo Morfológico A observação micromorfológica das amostras sob a forma de pó foi realizada através do emprego de um microscópio eletrônico de varredura (SEM) da Zeiss, Mod. DSM-960. A superfície de fraturas crioscópicas foi analisada pelo equipamento Leica Mod S440, ambos utilizaram o detetor de elétrons secundários. Medidas de Condutividade As medidas de condutividade elétrica superficial (S/cm) foram realiza-das, pelo método padrão de 4 pontas, através do emprego de um eletrômetro Keithley 617. Todas as medidas foram realizadas à temperatura ambiente com 50 % de umidade relativa. Medidas de Refletividade em Guia de Ondas As medidas de absorção da radiação eletromagnética foram realizadas em guia de ondas, a partir de dados de espalhamento, obtidos através do empre-go de um analisador vetorial de rede HP 8510B. As equações que relacionam os dados de espalhamento com a permeabilidade e permissividade do material seguem o algoritmo de Nicolson-Ross-Weir (NRW) [9]. Embora as medidas de absorção da radiação eletromagnética sejam expressas em termos dos valores de Refletividade (R, dB), tornase importante colocar que a absorção e a Refletividade de materiais relacionam-se através de uma escala logarítmica [8,10]. 152 Pesquisa Naval Nº 15, Setembro de 2002 3. Resultados e Discussão A Tabela 1 ilustra os valores de condutividade superficial para as amos-tras prensadas sob a forma de pós e para os compósitos elastoméricos à base de CR. Tabela 1: Condutividade superficial (S/cm) para as amostras sob a de pós e para os compósitos elastoméricos à base de CR. AMOSTRA Condutividade Superficial (S/cm) CR 2,5 x 10-12 CI 4,4 x 102 Co-TiBaHF 8,5 x 10-12 CI/CR (80:20) 8,9 x 10-11 Co-TiBaHF/CR (80:20) 1,2 x 10-12 A condutividade superficial para a composição 80/20 de CI/CR foi indicativa de um sistema não percolativo, posto que uma elevada composição percentual em peso referente a 80 % da carga condutora de CI foi empregada e o compósito elastomérico resultante (CI/CR) apresentou um caráter isolante, próximo ao valor correspondente ao meio dielétrico (CR). Análise Morfológica por SEM As Figuras 1 e 2 ilustram as morfologias de CI e Co-TiBaHF, respec-tivamente, analisadas sob a forma de pós, com os respectivos aumentos utilizados. Fig. 1: Imagem de CI analisada sob a forma de pó com aumento de 5.000 x. Pesquisa Naval Nº 15, Setembro de 2002 153 Através de análise micromorfológica ilustrada pela Figura x, pôde ser observada uma morfologia esférica para as partículas de CI. Fig. 2: Imagens de Co-TiBaHF analisada sob a forma de pó, com aumentos de 2.500 x para (a) e de 17.500 X para (b). (a) (b) Através da Figura 2 (b) pôde ser observada uma morfologia hexagonal para a Co-TiBHF, além da tendência deste material de formar aglomerados, conforme ilustrado pela micrografia 2 (a). Torna-se relevante colocar que a não formação de aglomerados por parte de CI pode ser atribuída à esfericidade das partículas. A Figura 3 ilustra a dispersão de (a) CI e (b) de Co-TiBaHF na matriz de CR, para as composições percentuais em peso 80:20. Fig. 3: Imagens dos compósitos de (a) CI/CR e (b) Co-TiBaHF/CR (80/20, % em peso) com aumento de 1.500 x. (a) (b) 154 Pesquisa Naval Nº 15, Setembro de 2002 Pelos resultados apresentados pelas Figuras 3 (a) e (b) pôde ser visualizada através de SEM uma boa dispersão e individualização das partículas de CI e CoTiBaHF na matriz de CR. Torna-se relevante mencionar a importância de tal comportamento, uma vez que foram utilizados elevados carregamentos em adição à tendência das partículas de Co-TiBaHF para a formação de aglomerados. Medidas de Refletividade Os resultados referentes às medidas de refletividade encontram-se ilustrados pelas Figuras 4 (a)-(c) para as composições percentuais em peso 80/20 de CI/CR e CoTiBaHF/CR, com espessuras de 1,50 mm. Estas foram comparadas com a composição isenta de carga (0/100). Fig. 4: Medidas de refletividade (dB) em função da freqüência (GHz) para os compósitos com CR (% em peso) (a) isento de carga (0/100), (b) 80/20 de CI/CR e (c) 80/20 de Co-TiBaHF/ CR, com espessuras de 1,5 mm. (a) Pesquisa Naval Nº 15, Setembro de 2002 155 (b) (c) Conforme os resultados apresentados pela Figura 4, pôde ser observado um melhor desempenho como um absorvedor de microondas para a faixa de freqüência de 8,00-10,00 GHz para a compósito de CI/CR enquanto Co-TiBaHF/CR absorveu em freqüências mais elevadas. Os fatores de dissipação, representados pela perda dielétrica (tan δε) e 156 Pesquisa Naval Nº 15, Setembro de 2002 magnética (tan δµ) encontram-se apresentados pelas Figuras 5 e 6, respectivamente. Fig. 5: Perdas dielétricas (tan δε) em função da freqüência para as composições percentuais em peso 80/20 de CI/CR e Co-TiBaHF/CR, com espessuras de 1,50 mm. Pelos resultados apresentados pela Figura 5, o fator de perda dielétrica para ambas as composições 80/20 de CI/CR e Co-TiBaHF/CR permaneceu praticamente constante para a faixa de freqüência de 8,00 até praticamente 13,00 GHz, assumindo um valor de, aproximadamente, 0,05 para CI/CR, superior ao valor de 0,03 obtido para CoTiBaHF/CR. Um aumento das perdas dielétricas foi observado para as freqüências mais elevadas, com valores ainda mais altos sendo mantidos para o CI/CR. Segundo Koops, as propriedades dielétricas de Co-TiBaHF/CR podem ser atribuídas à estrutura heterogênea hexagonal de hexaferritas consistindo de grãos com baixos valores de condutividade, separados por uma matriz elastomérica isolante(CR) [13]. Em relação ao compósito de CI/CR, os valores mais elevados para a tan δε podem ser atribuídos às partículas esféricas de CI, finamente divididas e altamente condutoras. Conforme descrito anteriormente, apesar de CI constituir uma carga condutora, este atua como um sistema não percolativo com o CR para as composições utilizadas. Como resultado ambas as composições 80:20 apresentam um caráter isolante, embora o compósito de CI/CR tenha apresentado um aumento de uma ordem de grandeza no valor de condutividade superficial em relação ao compósito de Co-TiBaHF/ CR. Pesquisa Naval Nº 15, Setembro de 2002 157 Fig. 6: Perdas magnéticas (tan δµ) em função da freqüência para as composições percentuais em peso 80/20 de CI/CR e Co-TiBaHF/CR, com espessuras de 1,50 mm. Conforme o resultado apresentado pela Figura 6, a perda magnética (tan δµ) para a composição 80/20 de CI/CR permaneceu praticamente constante, assumindo o valor de, aproximadamente, 0,60 para a faixa de freqüência de 8,00–14,00 GHz. Para o compósito de Co-TiBaHF/CR foi observado um aumento dos valores de tan δµ para freqüências até 14,00 GHz, atingindo o valor superior de 0,55. A presença do pico é devida à ressonância magnética natural das Co-TiBaHF. Para ambos os compósitos foi observado um decréscimo destes valores para freqüências mais elevadas [14,15]. 4. Conclusões Através da análise de SEM pode ser concluído que compósitos elastoméricos à base de CR podem ser obtidos devido a boa dispersão e individualização das partículas de CI e de Co-TiBaHF, apesar do elevado carregamento, correspondente a 80 % em peso, e da tendência das partículas de Co-TiBaH de formarem aglomerados. O compósito 80/20 de CI/CR atuou como um ótimo absorvedor de microondas, com valor limite de refletividade de, aproximadamente, –40 dB, para a faixa de freqüência de 8,00-10,00 GHz. O compósito 80/20 de Co-TiBaHF/CR apresentou um melhor desempenho para freqüências mais elevadas. No que tange as propriedades dielétricas, ambos os compósitos apresentaram um comportamento isolante, sendo que os valores mais elevados para a tan δε observados para o CI/CR podem ser atribuído ao caráter condutor das partículas esféricas de CI. A esfericidade das partículas de CI resultou na obtenção de um sistema não percolativo. Para o compósito de Co-TiBaHF/CR, a perda magnética (tan δµ) apresentou um aumento de 0,15, para freqüência de 8,00 GHz, ao valor limite de 0,55, indicativo da ressonância destes materiais para a faixa de freqüência de 12,00-15,00 GHz, responsável pela absorção de microondas. 5. ReferênciasBibliográficas BARTON D. K. Target detection. In: Radar Evaluation Handbook, Artech House. New York, 1998. p. 55. KNOTT E. F. SHAEFFER J. F. AND TULEY M. T. Radar absorbing materials. In: Radar Cross Section, Artech House. New York, 1985. p. 320. CARVALHO A. GREGORI M. L. and CHAMBERS B. Microwave and Optical Technology Letters 1997;16 (6):393. SMITH F. C. CHAMBERS B. AND BENNETT J. C. IEE Proc. Sci. Meas. Technol. 1994;141:538. EMERSON W. H. IEEE Trans. on Antennas and Propagation AP-21 1973;4:484. PINHO M. S. DEZZOTI M. M. GORELOVA M. M. AND SOARES B. G. J. Appl. Polym. Sci. 1999;71:2329. SMITH F. C. CHAMBERS B. E. BENNETT J. C. IEE Proc. Sci. Meas. Technol. 1994;141, 6, 538-546. QUEFFLEC P. GELIN P. GIERALTOWSKI J E. LOAEC J. IEEE Trans. Magn.1994;30, 2, 224-230. NICHOLSON A. M. AND ROSS G. IEEE Trans. Instrum. Meas. 1970;IM19:377. BAKER-JARVIS J. NIST Tech. Note 1993;1355-R:40. MILITARY SPECIFICATION, MIL-A-17161D, “Absorber, Radio Frequency Radiation (Microwave Absorbing Material), General Specification for”, 1985. BIGG D. M. Polym. Engng. Sci. 1997;17: 842. KOOPS C. G. Phys. Rev. 83,121 (1951) JANA P. B. MALLICK A. K. and DE S. K. Composites 1991;22:451. MUSCH R. ROHDE E. and CASSELMANN H. KGK Kautschuk Gummi Kunststoffe 1996;5:340. Agradecimentos Os autores agradecem ao Centro de Tecnologia Mineral (CETEM) pelas análises de SEM das amostras sob a forma de pó. XIII Capítulo NOVA METODOLOGIA PARA A ESTIMATIVA DA COBERTURA DE NUVENS S. L. Mantelli Neto M.Sc. Laboratório de Energia Solar, Departamento de Engenharia Mecânica, Universidade Federal de Santa Catarina, A.V. Wangenhein Dr. Rer. Nat. Laboratório de Integração Software-Hardware, Departamento de Informática e Estatística, Universidade Federal de Santa Catarina, E. B. Pereira Ph.D. Departamento de Geofísica Espacial, Instituto Nacional de Pesquisas Espaciais. Resumo Este trabalho apresenta um estudo para aumentar a precisão da estimativa da cobertura de nuvens a partir da superfície. O trabalho foi implementado utilizando uma câmera de superfície, programas de processamento de imagens, uma rede neural, um modelo atmosférico físico, dados de superfície e algoritmos de segmentação por difusão anisotrópica. O presente estudo concluiu que a estimativa de nuvens no céu não pode ser interpretada na forma binária ou escala linear. Tal abordagem pode induzir a erros nos sistemas de identificação automatizados por causa dos fenômenos atmosféricos como espalhamento Mie e a turbidêz atmosférica, superestimando o valor real da cobertura de nuvens. Abstract This work presents a study to increase the precision of determination of cloud coverage from surface. To achieve that, we used pictures from a low cost camera, specially developed image processing programs, a neural network 160 Pesquisa Naval Nº 15, Setembro de 2002 application, a physical atmospheric model, surface data and an anisotropic diffusion algorithms. The study concluded that cloud coverage estimation could not be based on a binary or linear scale. This representation scheme could lead to results misinterpretation, due to atmospheric phenomena like Mie scattering and atmospheric turbidity on automatic cloud detection systems, overestimating the total cloud coverage value. 1. Introdução Desde a sua origem (Sol) até chegar à superfície (Terra) a radiação solar sofre influência de fenômenos astronômicos e atmosféricos. Os astronômicos compreendem os fenômenos que alteram os valores da radiação no caminho desde a sua origem até o topo da atmosfera. Os atmosféricos compreendem os que alteram os valores da radiação solar desde o topo da atmosfera até a superfície. Em ambos os casos, ocorrem a modulação da energia solar em primeira ordem (grande influencia na modulação da energia solar) e segunda ordem (pequena influência na modulação da energia solar). Iqbal (1983), Vianello e Alves (1991), Duffie e Beckman (1980), fornecem informações mais detalhadas acerca da modulação devido a fenômenos astronômicos de primeira e segunda ordem e atmosféricos de segunda ordem. A seguir será abordada uma descrição sumária da modulação da energia solar somente de primeira ordem devido a fenômenos atmosféricos causado pelas nuvens. As nuvens apresentam grande diversidade quanto à forma, altitude e densidade. O resultado da interação da luz solar com as nuvens depende do tipo da nuvem, sua espessura e do número de camadas sobrepostas. As nuvens absorvem grande parte da radiação solar aquecendo a atmosfera, refletem uma parte da radiação de volta ao espaço e retransmitem outra parte bem menor à superfície. As nuvens também interagem com a radiação refletida pela superfície, influenciando o valor final do albedo, ou radiação refletida que retorna ao espaço. A natureza aleatória de sua composição e diversidade associada a fatores macro e micro meteorológicos fazem das nuvens a maior fonte de incertezas na determinação da radiação solar que chega à superfície. A radiação solar possui uma distribuição espectral em várias bandas de energia, as nuvens se distinguem por apresentarem uma variabilidade maior nas bandas infravermelho e visível. No presente trabalho serão considerados apenas aspectos da radiação visível, visando a automatização de um processo de observação comumente realizado por observadores especializados. O efeito das nuvens sobre a radiação solar vem sendo estudado ao longo dos anos por vários autores. As nuvens podem ser observadas a partir de satélites ou da superfície. Ambos os métodos possuem limitações e não podem ser assumidos como absolutamente precisos, e sim complementares. Harrisson et al. (1995), Yamanouchi (1993) e Rossow (1982) possuem um trabalho extenso sobre o assunto desenvolvido durante o ISCCP (International Satellite Cloud Climatology Project) e apontam vários problemas na observação de nuvens a partir de satélites. Pesquisa Naval Nº 15, Setembro de 2002 161 A WMO1, padronizou os critérios de observação das nuvens a partir da superfície, que são adotados por todas as estações contínuas de observação sinóptica . Mas as observações estimam somente a quantidade dos vários tipos de nuvens que ocorrem no céu e não fornecem informações acerca das suas propriedades físicas (Rossow). As observações de superfície são baseadas em critérios subjetivos pelos operadores. Portanto ao longo do ano, com o rodízio de vários operadores diferentes, a estimativa da cobertura do céu pode apresentar inconsistências de tal forma que as variações reais da cobertura de nuvens não sejam corretamente observadas Hoyt (1978). Cientes de tais limitações diversos autores tentaram implementar a detecção automática de nuvens utilizando câmeras. Holle e MacKay (1975) executaram um experimento para medir a cobertura de nuvens a partir de fotografias com uma câmera de lente de grande abertura angular que se mostrou muito mais confiável do que o a observação por um operador na superfície. O operador tende a superestimar a cobertura de nuvens na ordem de 5-15%. Holle e MacKay mencionam que a cobertura de nuvens é difícil de se definir seja por foto ou por observador, por que as nuvens possuem espessura, mudam de forma, se apresentam em diferentes altitudes e ocorrem com a variação angular do sol quando observadas sobre a superfície. A par de todas as limitações que o sistema de observação de nuvens possuem é que se propõe o presente trabalho com o intuito de reduzir as incertezas inerentes ao processo de determinação de cobertura de nuvens a partir do solo. 2. Metodologia As nuvens compõem padrões no céu e por isto que se montou um experimento para a determinação dos padrões de nuvens, tentando identificar em uma fotografia a presença de uma nuvem ou não utilizando um classificador parametrizável (rede neural). Como classificador optou-se por um modelo de rede neural do tipo Backpropagation (Rummelhart&McLelland, 1984). A rede neural é um modelo matemático de processamento de variáveis, implementado através de programas de computador que de uma forma muito simplificada simula o funcionamento de um neurônio. Embora a rede neural ainda esteja longe de representar matematicamente a natureza complexa de um neurônio, ela apresenta uma capacidade muito grande de a partir de exemplos controlados reproduzir a classificação de um padrão estabelecido através de um treinamento prévio supervisionado. A implementação rede neural foi feita através de um aplicativo SNNS2 (Stutgart Neural Network Simulator) que fornecia um ambiente para a configuração, treinamento e geração da rede neural a partir dos conjuntos de treinamento supervisionados. A metodologia empregada no presente trabalho utiliza uma câmera digital de superfície fotografando o céu. As imagens foram tiradas do céu em diversos horários diferentes, mas limitadas aos horários que o Sol não aparecia no ângulo de visada da câmera para não danifica-la por excesso de luminosidade. Não se objetivou estimar 162 Pesquisa Naval Nº 15, Setembro de 2002 toda a cobertura existente e sim identificar precisamente o padrão de nuvem no ângulo de visada da câmera. A partir das imagens, utilizou-se um protótipo computacional desenvolvido em linguagem SMALLTALK 1 conforme pode ser apreciado na fig. 4. O protótipo executava as seguintes funções. Gerar um conjunto de treinamento supervisionado. Integrar a rede neural obtida através de bibliotecas geradas pelo aplicativo externo SNNS2 em linguagem C. Integrar um modelo atmosférico gerado a partir do pacote matemático MAPLE V, baseado no modelo paramétrico C semi-empírico sugerido por Iqbal(1983). Utilizar dados meteorológicos e solarimétricos da estação BSRN (Baseline Surface Radiation Network) de Florianópolis3 como parâmetros de entrada. Os dados meteorológicos foram utilizados para o cálculo da transmitância atmosférica no modelo paramétrico utilizado. Os dados solarimétricos foram utilizados na normalização dos dados calculados no modelo paramétrico do cálculo da radiação. Classificar uma imagem de entrada, apresentando como dado de saída um índice de cobertura de nuvens da imagem analisada. Visualizar os resultados obtidos comparando-os com a imagem original. 3. Resultados e Discussões Aplicar simplesmente um mecanismo de segmentação e limiarização utilizando os valores dos píxeis para obter um resultado binário ou em escala esperando obter céu ou nuvem não é uma abordagem apropriada. Um problema surge quando observamos uma imagem com o Sol nas proximidades do angulo de visão da região que esta sendo observada. A existência da turbidêz na atmosfera faz com que o Sol apresente um halo difuso ao seu redor que fica tanto mais intenso quanto maior for a turbidêz. A turbidêz forma no céu um gradiente de brilhância que vai desvanecendo a medida que se afasta do Sol. Esta brilhância chega a produzir píxeis, na vizinhança do disco solar, com valores próximos ou ate maiores que os que caracterizam os píxeis das nuvens de pequena profundidade óptica. Isto pode induzir a erros na estimativa da cobertura de nuvens, pois o céu claro esta sendo caracterizado como nuvem. Uma ilustração acerca deste problema pode ser visualizada na fig. 1. Somente através de uma inspeção visual mais detalhada que se pode distinguir a diferença entre a brilhância por turbidêz e as nuvens de pequena profundidade óptica. Na fig. 1 pode-se observar claramente que a imagem é de céu azul, mas a brilhância causada pela turbidêz faz com que os píxeis sejam interpretados como nuvens. Problemas adicionais surgem quando o Sol diminui o ângulo de elevação e é mais freqüente o espalhamento Mie nas cores vermelha e amarela. 1 Para a programação em SMALLTALK foi utilizado o ambiente VISUALWORKS e um conjunto de bibliotecas parcialmente desenvolvido no Laboratório de Integração Software-Hardware da UFSC. 2 http://www-ra.informatik.uni-tuebingen.de/SNNS/. 3 www.labsolar.ufsc.br, ou http://bsrn.ethz.ch Pesquisa Naval Nº 15, Setembro de 2002 163 Um exemplo dessa dificuldade pode ser visualizado na imagem na fig. 2. Não se pode esperar que um sistema automático apresente um resultado binário (nuvem ou céu) ou até mesmo uma escala do índice de cobertura satisfatório na presença dos fenômenos ilustrados nesta figura. Os efeitos dos fenômenos físicos que induziram ao erro o sistema automático proposto, só puderam ser observados de forma mais acentuada, depois que foi feita uma análise utilizando filtros de difusão anisotrópica em uma versão monocromática das imagens coletadas. Os filtros de difusão foram inicialmente aplicados ao processamento de imagem por Perona e Maralik (1990) em imagens médicas. Depois de aplicado às imagens coletadas, o filtro de difusão efetuou a segmentação e homogeneização de regiões com pequenas diferenças na imagem. Isto permitiu a visualização da turbidêz próxima ao Sol e de um gradiente de profundidade óptica das nuvens, segmentando-as em regiões similares de mesma intensidade (superfícies isófonas). Para uma observação mais detalhada, é necessário que se observe as imagens com um sistema de visualização de imagens com uma interface gráfica mais refinada e de melhor qualidade. Tal interface está presente no aplicativo desenvolvido em SMALLTALK e permite uma visualização melhor dos resultados, conforme ilustrado na fig. 3. Fig. 1. Presença do gradiente causada pelo brilho devido a turbidêz atmosférica próxima ao disco solar. As figuras em branco e preto à direita foram geradas a partir do filtro de difusão anisotrópica com os valores de alguns píxeis.. 164 Fig. 2. Pesquisa Naval Nº 15, Setembro de 2002 Foto ilustrando alguns dos fenômenos de interação da radiação solar com a atmosfera. Pesquisa Naval Nº 15, Setembro de 2002 Fig. 3 165 Interface gráfica do protótipo implementado, ilustrando as superfícies isófonas, abaixo. O filtro de difusão anisotrópico disponível para análise das figuras foi desenvolvido para imagens monocromáticas. Filtro para imagens coloridas ainda não está desenvolvido para a pesquisa em andamento por ser de implementação matemática complexa e utilizar métodos numéricos para resolver equações diferencias em espaço vetorial tridimensional (espaço de cores). As imagens analisadas em branco e preto são um espaço com valor escalar de píxeis em níveis de cinza. 4. Conclusões A presença da brilhância próxima ao Sol induz erros de interpretação no índice de cobertura das nuvens. Nuvens próximas ao Sol tendem a ser mais brilhantes dos que as longe do Sol. Isto impõe certas dificuldades aos sistemas automáticos de detecção de nuvens causando erros quando se tentar classificar em qual escala de transparência 166 Pesquisa Naval Nº 15, Setembro de 2002 a nuvem se encontra, superestimando o resultado ou classificando o pixel para uma escala errada. Este problema precisa ser abordado de forma correta para ser minimizado. Ao invés de se classificar os fenômenos presentes no céu como céu ou escalas de nuvem, talvez seja mais apropriado classifica-los em categorias como eles realmente aparecem na forma de espalhamento (Rayleigh, Mie com variações) ou absorção da luz solar. Após a classificação, as categorias poderiam ser reagrupadas de forma a atender o padrão de observação para nuvens ou céu conforme utilizado atualmente. Isto traria vantagens de se obter um sistema de análise mais controlado e uma estimativa de cobertura mais próxima do real. Um resultado intermediário surpreendente do presente trabalho foi a segmentação da imagem das nuvens utilizando a difusão anisotrópica. Após a difusão pode-se segmentar com precisão as bordas das nuvens viabilizando um cálculo mais preciso da área de cobertura em diversas escalas de profundidade. 5. Referências Bibliográficas DUFFIE J. A., E BECKMAN W. A. Solar Engineering of Thermal Processes. John Wiley & Sons 1980. 919 p. HARRISSON E. F., MINNIS P., BARKSTROM B. R., GIBSON G. G.. Radiation Budget a the Top of the Atmosphere. Atlas of Satellite Observations Related to Global Change 1995. 35 p HOLLE L. R. E MACKAY S. A.. Tropical Cloudness from all-sky cameras on Barbados and adjacent Atlantic ocean area. Journal of Applied Meteorology. vol. 14 p. 1437-1450. 1975. HOYT D. V. Interannual cloud-cover variations in the contiguous United States. Journal of Applied Meteorology vol. 17 p. 354-357 1978. IQBAL, M. Introduction to Solar Radiation. Academic Press, 1983. 390 p. KREYSZIG, E. Advanced Engineering Mathematics, 2nd ed. John Wiley & Sons Inc. 1993.1271 pag. LENOBLE J.. Atmospheric Radiative Transfer. A. Deepak Publishing. 1993. 532p. LILLESAND T. M., KIEFER R. W.. Remote Sensing and Image Interpretation. John Wiley & Sons 1994. 750p. MANTELLI NETO, S. L. Desenvolvimento de metodologia para a estimativa da cobertura de nuvens usando uma câmera de superfície e comparando com as imagens de satélite. Tese de mestrado do Laboratório de Visão Computacional, Departamento de Informática e Estatística, Universidade Federal de Santa Catarina, 2001. 124 p Pesquisa Naval Nº 15, Setembro de 2002 167 PERONA P. AND J. MARALIK, Scale-Space and edge detection using anisotropic diffusion, in Proceedings of IEEE Transactions on Pattern Analisys and Machine Intelligence, vol. PAMI-12, no. 7, pp.629-639, 1990. ROSSOW W. B. . Clouds. Atlas of satellite observations related to Global change. International Satellite Cloud Climatology Project ISCCP, 1982. p.141-162 RUMMELHART, D.E., AND MCCLELLAND, J.L., 1986, Parallel Distributed Processing, MIT Press. SNNS: Stuttgart Neural Network Simulator User Manual version 4.1. University of Stuttgart, report n. 6, 1995, 312 p. VIANELLO, R.L.; ALVES, A.R., Meteorologia Básica e Aplicações. Universidade Federal de Viçosa: Imprensa Universitária, 1991. 449 p. WANGENHEIN A., Introdução à Visão Computacional. Métodos, técnicas, Ferramentas e Aplicações. Apostila do Curso de pós-graduação em Ciências da Computação. Departamento de Informática e Estatística Universidade Federal de Santa Catarina 2000, 133 p. WEICKERT, J. Anisotropic. Diffusion in Image Processing. Ph. D. Thesis from Keiserslauterrn University, Germany 1996 140 p. YAMANOUCHI,T. Variations of Incidente Solar Flux and snow albedo on the solar Zenith Angleand Cloud Cover at Mizuho Station Antartica. Journal of the Meteorological Society of Japan. v.61,n.6,p.879-893,1993. Centro de Análises de Sistemas Navais APOIO À DECISÃO O CASNAV desenvolve ferramentas computacionais que auxiliam o Comandante do Teatro de Operações Marítimo e demais comandos subordinados, no planejamento, execução e controle das Operações Navais, Aeronavais e de Fuzileiros Navais. Os Sistemas de Apoio à Decisão (SAD) auxiliam no processo de obtenção de soluções para as principais inquietudes de natureza operativa e administrativa. Estes sistemas incorporam uma filosofia abrangente que, por possuir firmes alicerces na Engenharia de Software, se constitui numa arquitetura aberta à permanente evolução e ao atendimento das necessidades de novos clientes. Entre os Sistemas de Apoio à Decisão dedicados aos problemas de caráter administrativo, podemos mencionar o SAD-GP, voltado para questões relativas à Gerência de Pessoal. Esta ferramenta auxilia o gerenciamento do complexo sistema de pessoal da Marinha, permitindo, por exemplo, determinar as necessidades de admissão de pessoal nas diferentes qualificações existentes. Este programa executa projeções para horizonte de até dez anos, possibilitando conhecer os impactos futuros de políticas de pessoal adotadas nos dias atuais. Para tal, empregamos modernas ferramentas matemáticas com o propósito de simular a admissão e progressão funcional dos cerca de 50 mil componentes dos diversos quadros e qualificações da Marinha. Este Sistema foi comercializado para o Exército e para a Força Aérea Brasileira. Nossa equipe está habilitada a desenvolver sistemas como este, capaz de organizar imensa massa de dados, de maneira inteligente, para que os decisores, conhecendo o impacto no futuro, possam fazer as melhores opções no presente. Centro de Análises de Sistemas Navais Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro 3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332 e-mail: [email protected] XIV Capítulo ESTUDO DO CAMPO DE VENTO DE SUPERFÍCIE SOBRE O ATLÂNTICO SUL USANDO DADOS DO ESCATERÔMETRO DO ERS Marlos C. Baptista 0, José L. Stech +, João A. Lorenzzetti + 0 Oceansat Tecnologia Espacial para Monitoramento Ambiental S/C Ltda Incubadora de Empresas – Sala 15 e 16 – Cidade Universitária – Ilha do Fundão CEP: 21945-970 - Rio de Janeiro – RJ + Instituto Nacional de Pesquisas Espaciais (INPE) Av. dos Astronautas, 1758, Jardim da Granja CEP: 12227-010 São José dos Campos – SP Resumo Este trabalho estuda a variabilidade temporal e espacial do campo de vento para o Oceano Atlântico, setor 20ºN à 40ºS, a partir dos dados do escaterômetro dos satélites ERS 1/2. A base de dados utilizada foi obtida junto ao IFREMER, para o período de dezembro de 1991 a novembro de 1998. Blocos de dados do escaterômetro, correspondentes a três dias, foram usados para a interpolação em uma grade geográfica regular de 1º x 1º. Uma interpolação espacial, envolvendo um processo iterativo com correção de valores médios de erros ponderados, foi utilizada. A avaliação deste algoritmo foi feita comparando o resultado com ventos medidos pelas bóias do projeto PIRATA e os dados de ventos de reanálises do NCEP. As diferenças RMS da intensidade do vento da bóia menos escaterômetro (P-S) e bóia menos NCEP (P-N) foram: posição 0-35o W (P-S=1.13 m/s; P-N=1.11 m/s); posição 10o S-10o W (P-S=0.72 m/s; P-N=1.83 m/s) e 15o N-38o W (P-S=0.99 m/s). Os resultados dos campos de vento descrevem as principais feições dos ventos alísios de Sudeste e Nordeste. A ITCZ e o centro de alta pressão semi-permanente nos sub-trópicos são claramente detectados nos campos médios. 170 Pesquisa Naval Nº 15, Setembro de 2002 1 - Introdução Um dos responsáveis pela absorção de dióxido de carbono por parte dos oceanos é o cisalhamento dos ventos na sua superfície. Além da troca de gases entre a atmosfera e o oceano, o vento também é responsável por determinar algumas das maiores feições oceânicas. Segundo Harrison (1984), os ventos quando interagem com os oceanos determinam direta ou indiretamente muitas de suas correntes de superfície, sendo também responsáveis pela transferência de energia entre o oceano e a atmosfera, e pelo estado das ondas de superfície. Atividades como o planejamento de rotas de navegação, pesca e exploração de óleo em alto mar, entre outras, requerem dados apropriados de vento, para que possam se tornar seguras, econômicas e até mesmo viáveis. Além disso, informações dos ventos sobre a superfície dos oceanos poderão ser usadas como parte da assimilação nos sistemas de previsão do tempo para calcular o desenvolvimento do tempo a curto e a longo prazo. Assim, há uma grande necessidade de se medir rotineiramente os ventos sobre a superfície dos oceanos. Convencionalmente, o vento é medido por meio de navios ou bóias. Porém, a implantação e a manutenção de um sistema de coleta deste tipo tem um custo muito alto. Além disto, essas medidas estão restritas a pequenas áreas e são esparsamente distribuídas particularmente em áreas remotas, tais como às dos oceanos do Hemisfério Sul. Entretanto, para muitas aplicações não é suficiente ter dados deste tipo, sendo necessário que as medidas de vento sejam em pontos de grade regular e se estendam a grandes áreas (ESA, 1995). O principal objetivo deste trabalho foi obter campos de vento sobre a superfície do oceano Atlântico em pontos de grade regular utilizando os dados do escaterômetro do ERS 1/2, a partir disto comparar os resultados encontrados com outras fontes, que no caso foram os dados das bóias do projeto PIRATA e reanálises do NCEP. 2 - Material e Método A área de estudo, abrangendo grande parte da bacia oceânica do Atlântico Tropical e parte do Atlântico Sul, (20º N - 40º S e 20º E - 60º W), foi dividida em subquadrados de 1º de latitude por 1º de longitude, constituindo assim a base espacial do trabalho, ver Fig. 1. Pesquisa Naval Nº 15, Setembro de 2002 171 Fig. 1: Área de estudo gradeada. Os dados utilizados neste trabalho foram obtidos junto ao Centre ERS d’Archivage et de Traitement (CERSAT) do Institut Français de Recherche pour l’Exploitation de la MER (IFREMER) e correspondem aos períodos de dezembro de 1991 até novembro de 1998. Do satélite ERS - 1 foram utilizados dados do período compreendido entre dezembro de 1991 e março de 1996, e para o satélite ERS - 2 foram utilizados dados de abril de 1996 até novembro de 1998. Como o campo de um dia não permitia uma cobertura espacial suficiente da área de estudo, optou-se por reagrupá-los em campos de três dias. Obteve-se então uma cobertura espacial suficientemente boa para executar uma interpolação nos dados e com isto gerar campos de vento em pontos de grade regular. Na Fig.2 é mostrado o padrão de cobertura do escaterômetro para o campo de três dias. Fig. 2: Padrão de cobertura em três dias do escaterômetro do ERS. 172 Pesquisa Naval Nº 15, Setembro de 2002 Além da cobertura espacial de um dia ser insuficiente, e o fato dos dados coletados pelo satélite estarem distribuídos espacialmente ao longo de sua órbita, houve a necessidade de um processo de interpolação para a geração de campos de vento em pontos de grade regular. Para tal processo, foram utilizados campos que estavam agrupados a cada três dias dentro de cada mês, atribuindo o resultado da interpolação ao dia central da série de três dias. A metodologia utilizada para a interpolação dos dados do escaterômetro foi a desenvolvida por Allender (1977). Esta técnica é similar à utilizada por Cressman (1959) e inicia-se com um first guess (suposição inicial) para cada componente do vento, sendo que este é obtido de uma média aritmética de todos os valores dentro de um determinado raio no passo de tempo inicial. Um novo campo é calculado ponto a ponto corrigindo o first guess: ** U ( x,y ) =U * ' 2 1 N L − + ' ∑ 2 N m=1 L + 2 d ( x,y ) d ( x,y ) m 2 m obs (U m − U * (1) ), onde d( x, y)m é a distância entre o ponto de grade a ser interpolado e a mth (enésima) amostra dentro de um raio, L é chamado o raio de varredura, e N’ é o número de pontos dentro do raio L de (x,y). Assim a correção é um valor médio de erros ponderados, tornando este tipo de interpolador um método de análise objetiva. A nova componente calculada U** é realocada para U*, o raio de varredura é então reduzido, e uma nova correção é feita. Este procedimento é repetido três ou quatro vezes até que o interpolador converge. A cada passo de iteração o raio de influência foi dividido pela metade. Depois de várias simulações com diferentes valores iniciais para o raio de influência L, verificou-se que para o presente trabalho um raio de 5º foi o que apresentou melhores valores para sair do laço de interpolação e conseqüentemente convergir mais rapidamente. Como critério de convergência do algoritmo de interpolação foi utilizada uma modificação da norma apresentada por Simpson e Gobat (1994), sendo que a cada passo de iteração foi calculado uma nova norma e comparada com a norma anterior. O critério de saída baseado na norma se deu quando o resultado da comparação da norma atual com a anterior foi inferior a 10 %. Finalizado todo o processamento de interpolação surgiu à necessidade de agrupar os campos gerados de uma forma na qual pudessem ser melhor interpretados. Para cada estação do ano foram feitas médias aritméticas simples para cada componente do vento (zonal e meridional). As estações do ano foram definidas como sendo: Verão (dezembro, janeiro e fevereiro), Outono (março, abril e maio); Inverno (junho, julho e agosto); Primavera (setembro, outubro e novembro). As comparações feitas neste trabalho entre os dados do escaterômetro, os dados fornecidos pelas bóias do projeto PIRATA e reanálises do NCEP, foram para avaliar o desvio dos dados de vento interpolados do escaterômetro. As análises de Pesquisa Naval Nº 15, Setembro de 2002 173 variabilidade foram feitas através do root-mean-square difference (rmsd), mais conhecido como RMS. Uma adaptação da formulação do RMS descrito por Brandt (1976) foi utilizada. Esta metodologia utilizada por vários autores entre eles Chu et al (1999), se mostrou bastante útil na estimação da variabilidade de um mesmo tipo de dado proveniente de diferentes fontes. N RMS = ( ∑ xi − yi i =1 ( N − 1) ) 2 (2) onde, xi é um dado valor para as observações do satélite, yi é um dado valor para as observações das outras fontes (modelo, bóia ou navio) e N é o número de observações a serem comparadas. As comparações entre as distintas fontes foram realizadas ao longo do ano de 1998 e foram feitas com os dados médios de três dias. 3 - Discussão Na Fig.3 é apresentado o campo de vento médio derivado dos dados do escaterômetro para o oceano Atlântico Tropical e parte do Sul para os meses de verão austral (dezembro, janeiro e fevereiro) dos anos 1992 a 1998. O campo de vento resultante descreve as principais feições como os alísios de Nordeste e os de Sudeste. Pela análise da Fig. 3, a zona de convergência inter-tropical e o centro semi-permanente de alta pressão do oceano Atlântico Sul podem ser claramente observados. Observando-se também a Fig. 3, acima da ITCZ tem-se a incursão dos alísios do Hemisfério Norte com ventos soprando de Nordeste. Este padrão de direção do vento se mantém constante durante toda esta estação, variando apenas em intensidade, com ventos de aproximadamente 6,0 a 7,0 m/s e desvio padrão com valores entre 1,5 e 2,0 m/s. Fig. 3:- Campo de vento médio para o verão austral (dez., jan. e fev.). 174 Pesquisa Naval Nº 15, Setembro de 2002 Estes resultados estão de acordo com Young e Holland (1996), que descrevem para esta região e neste mesmo período um campo de vento com a mesma direção característica, ventos de Nordeste, e com intensidade variando de 5,0 a 10,0 m/s. Estes autores utilizaram dados de fontes distintas para obter estes resultados, sendo que as direções do vento foram obtidas através de reanálises do European Centre for Medium - Range Weather Forecasts (ECMWF) e as intensidades dos ventos foram obtidas através do sensor altímetro do satélite GEOSAT. Na Fig. 4 é apresentado o mapa do campo de vento médio para o inverno austral: junho, julho e agosto. Nesta Figura uma característica marcante é a posição da ITCZ mais ao Norte. Em sua marcha anual a ITCZ tem um deslocamento meridional e no inverno austral atingi a sua posição mais ao Norte. Hastenrath e Heller (1977) determinaram como sendo 8º N a posição mais ao Norte atingida pela ITCZ. Isto pode claramente ser verificado através da Fig. 4, com a ITCZ atingindo a latitude aproximada de 8º N. Fig. 4: Campo de vento médio para os meses de junho, julho e agosto Serão apresentados a seguir gráficos onde se discutirá os resultados das comparações entre o campo de vento gerado pelo processo de interpolação dos dados do escaterômetro e os dados de bóias e de reanálises. Estas comparações se deram somente em três localizações, que são as posições das bóias do projeto PIRATA. Duas destas foram coincidentes com os pontos de grade dos dados de reanálises do NCEP. As localizações são: 10º S e 10º W, equador e 35º W, e 15º N e 38º W. Foram comparados os dados de vento das três fontes (bóias, reanálises e interpolação) que se encontram em médias de três dias ao longo do ano de 1998. Apesar de somente três pontos serem comparados estas localizações se mostram com características no campo de vento bastante distintas, o que torna a comparação bem diversificada. Foram executadas também, comparações entre os dados interpolados do satélite e os dados de reanálises ao longo de toda a área de estudo e entre os anos de 1992 e 1998. Os resultados de rms encontrados ficaram entre 1 e 2 m/s, sendo que os Pesquisa Naval Nº 15, Setembro de 2002 175 maiores valores encontrados eram resultantes da comparação dos dados nas regiões de médias latitudes. Na Figura 5 é apresentado um gráfico da série temporal da intensidade do vento dos dados de bóias, dados de reanálises e os dados interpolados do satélite. Estes dados se estendem de 1º de fevereiro a 30 de novembro de 1998. Foram calculados os valores de RMS da diferença dos dados de intensidade e direção do vento entre os dados de bóias e os dados interpolados do satélite, e entre os dados de bóias e os dados de reanálises do NCEP. A posição desta comparação foi no equador e 35º W. Pela análise desta figura é possível observar um comportamento bem distinto entre as três fontes de dados. Fig. 5: Gráfico da série temporal da velocidade do vento na posição 0º e 35º W. Para as comparações de intensidade do vento os valores de RMS são os seguintes: 1,13 m/s e 1,11 m/s, para as comparações entre as bóias e os dados interpolados, e as bóias e os dados de reanálises, respectivamente. Estes valores de RMS para a intensidade do vento estão compatíveis com os encontrados na literatura. Inúmeros trabalhos na área de escaterometria apresentam valores equivalentes de RMS. Para o RMS da direção do vento os valores são os seguintes: 24º e 41º, para as comparações entre as bóias e os dados interpolados e as bóias e os dados de reanálises, respectivamente. Este alto valor de RMS para a direção do vento está associado a uma região de alta variabilidade. Nesta região os ventos predominantes são os alísios que dependendo da época do ano podem ser de Nordeste ou Sudeste. Na Figura 6 é apresentado um gráfico da série temporal da intensidade do vento dos dados de bóias e os dados interpolados do satélite. A posição desta comparação foi: 15º N e 38º W. Esta figura apresenta somente a comparação entre os dados da bóia e os dados interpolados do satélite. Isto se deve ao fato da coordenada longitudinal da bóia, 38º W, não coincidir com o ponto de grade dos dados de reanálises do NCEP. 176 Pesquisa Naval Nº 15, Setembro de 2002 Na Figura 6 é possível observar uma grande concordância na intensidade do vento entre as duas fontes de dados, que no caso são dados de bóia e interpolados do escaterômetro. Existem poucas diferenças nas duas séries temporais, mas as que ocorrem estão principalmente nos cavados onde as intensidades foram menores do que 4,0 m/s. Foram calculados os valores de RMS para a intensidade e direção do vento entre estas duas fontes. Os valores obtidos foram: para a direção 26º e para a intensidade 0,99 m/s. Este último resultado de RMS, para a intensidade do vento, poderia ser melhorado caso o satélite adquirisse ventos com intensidade abaixo de 4,0 m/s, pois é possível observar na Figura 6 dois grandes cavados com intensidade abaixo de 4,0 m/s nos dados adquiridos pelas bóias, um no início do mês de fevereiro e outro em meados de setembro. Como o satélite não recupera ventos de baixa intensidade estes cavados não foram acompanhados pelos resultados do interpolador. Mesmo assim os resultados se encontram muito bons como demonstra os baixos valores de RMS. Fig. 6: Gráfico da série temporal da velocidade do vento na posição 15º N e 38º W. Na Figura 7 é apresentado o último gráfico da série temporal da intensidade do vento dos dados de bóias, dados de reanálises e os dados interpolados do satélite. Nesta figura são apresentadas as séries temporais da intensidade do vento para a posição 10º S e 10º W. É possível observar nesta figura uma sobre – estimação dos dados de reanálise em relação aos dados de bóias e uma pequena subestimação, principalmente nos meses anteriores a julho, dos dados interpolados do satélite em relação às bóias. Os valores de RMS encontrados para a direção do vento foram: 19º e 16º, para as comparações entre os dados de bóias e de reanálises e os dados de bóias e os interpolados do satélite, respectivamente. Para a intensidade do vento foram encontrados valores de RMS da comparação entre a bóia e a reanálise na ordem de 1,83 m/s, e entre Pesquisa Naval Nº 15, Setembro de 2002 177 a bóia e os dados interpolados do escaterômetro ficou em 0,72 m/s. Fig. 7: Gráfico da série temporal da velocidade do vento na posição 10º S e 10º W. Através destes valores de RMS encontrados nas figuras 5, 6 e 7, principalmente os encontrados na última comparação, foi possível observar satisfatoriamente que a metodologia empregada na interpolação dos dados do escaterômetro se mostrou bastante robusta, e também que os dados de vento coletados pelos satélites ERS são de alta qualidade. A prova disto está nos baixos valores de RMS encontrados, quando se comparou os resultados da interpolação com as “verdades” de campo, que neste caso foram os dados de bóias. A seguir serão apresentados vários trabalhos que calcularam RMS dos dados de ventos obtidos por satélite, e será possível então verificar a eficiência da metodologia empregada neste trabalho. Boutin et al (1999) utilizando dados de dois escaterômetros e um radiômetro obtiveram dados de vento e fizeram comparações com medidas in situ em regiões de baixa velocidade do vento no Oceano Pacífico Equatorial Leste. Os cálculos mostraram excelente agrupamento entre os dados do NSCAT e das bóias (bias de 0,3 m/s) enquanto ERS-2 foi subestimado em 1,3 m/s e SSM/I ficou superestimado por 0,7 m/s. Rufenach (1995) utilizando dados do escaterômetro do ERS – 1 e dados de bóias fez comparações entre os ventos na região do oceano Pacífico Equatorial e em latitudes médias. Os valores de RMS para a região de latitudes médias foram em média 1,39 m/s e para a região equatorial no ano de 1992 foi de 1,69 m/s, e em 1993 foi de 1,40 m/s. Bentamy et al (1997) geraram campos de ventos semanal e mensal sobre todos os oceanos a partir dos dados do escaterômetro do ERS – 1 para o período de agosto de 1991 até abril de 1996. A resolução espacial do campo de vento resultante foi de 1º de latitude por 1º de longitude. O cálculo foi baseado em uma técnica geo-estatística denominada método kriging. Esta técnica varia o vetor vento obtido pelo escaterômetro em tempo e espaço usando funções de estrutura temporal e espacial para os parâmetros do vento de superfície. A acurácia do vetor vento resultante foi avaliada por comparação 178 Pesquisa Naval Nº 15, Setembro de 2002 com medidas de bóias. Dois tipos de dados de bóias foram utilizados: o primeiro foi fornecido pelo National Data Buoy Center (NDBC) da National Oceanic and Atmospheric Administration (NOAA); o segundo foi fornecido pelo NOAA Pacific Marine Environmental Laboratory (PMEL) referenciado como o array de bóias Tropical Atmosphere Ocean (TAO). Estes autores utilizaram o cálculo do RMS para verificar a acurácia dos dados de ventos, e a região de comparação foi o Oceano Pacífico Equatorial. Na tabela 1 são apresentados os resultados das comparações feitas por estes autores entre os dados de intensidade do vento nos campos gradeados derivados do escaterômetro e os dados de bóias, bem como as posições onde se deram tais comparações. É possível observar pela tabela 1, valores bem distintos de RMS para a velocidade do vento. Tais valores variam de 0,68 m/s a 1,19 m/s, sendo que os menores valores ocorrem na borda Leste do oceano Pacífico Equatorial. Na tabela 2 são apresentados os resultados das comparações feitas por Bentamy et al (1997) entre os dados de direção do vento dos campos gradeados derivados do escaterômetro e os dados de bóias, bem como as posições onde se deram tais comparações. TABELA 1 – RMS entre as velocidades do vento das bóias e dos dados gradeados do escaterômetro 9N 1.00 8N 1.04 5N 0.81 0.92 2 N 0.92 1.09 1.03 0.85 0.86 0N 0.86 0.75 0.87 0.80 2S 0.97 0.83 0.86 0.77 5S 0.77 0.68 0.80 0.89 8S 0.89 95 110 125 140 155 w w w w w 1.13 0.89 1.09 0.95 1.07 0.85 1.19 1.16 0.76 0.73 0.88 0.92 0.84 1.02 0.89 1.16 1.06 1.03 170 170 165 156 154 147 143 137 w e e e e e e e Adaptada de Bentamy et al (1997, p. 1190). É possível observar pela tabela 2 valores bem distintos de RMS para a direção do vento. Tais valores variam de 14º à 76º, sendo que os menores valores ocorrem na borda Leste do oceano Pacífico Equatorial. Pesquisa Naval Nº 15, Setembro de 2002 179 TABELA 2 – RMS entre as direções do vento das bóias e dos dados gradeados do escaterômetro 9N 36 8N 33 5N 24 17 26 31 2 N 34 33 19 14 22 28 0N 26 28 22 19 33 52 2S 27 21 23 18 25 5S 20 19 22 28 8S 23 95 110 125 140 155 170 170 w w w w w w e 40 54 62 62 62 39 54 76 63 55 73 63 42 165 156 154 147 143 137 e e e e e e Adaptada de Bentamy et al (1997, p. 1190). Pela observação dos valores de RMS para a intensidade e direção do vento encontrado por Bentamy et al (1997), mostrados através das tabelas 1 e 2, com os resultados de RMS encontrados neste trabalho, foi possível verificar que houve uma grande concordância entre estes trabalhos. Apesar das regiões de comparação não serem as mesmas, elas se encontram sobre a influência da ITCZ o que apresenta características idênticas do campo de vento, como por exemplo, a convergência dos alísios de Nordeste e Sudeste. Isto valida a técnica de interpolação dos dados utilizada neste trabalho, e também comprova a sua eficiência. 4 - Conclusões Com o avanço da tecnologia espacial, e conseqüentemente o lançamento de satélites de sensoriamento remoto, tornou-se mais fácil estudar o ambiente terrestre. Com o desenvolvimento deste trabalho foi possível observar a atual necessidade dos dados de vento para monitoramento de várias atividades no país. Estes dados se mostraram úteis tanto para fins comerciais, por exemplo, no planejamento de operações off-shore, e de pesquisa, para assimilação em modelos de previsão do tempo e circulação oceânica. Uma dificuldade para utilizar dados coletados por satélites está no fato de sua aquisição ser ao longo da órbita. Para alguns tipos de estudos isto não é suficiente, requerendo dados de forma mais regular, ou seja, em pontos de grade. Para solucionar tal fato foi implementado um método de interpolação linear para gerar dados de vento em pontos de grade regular de 1º de latitude por 1º de longitude. Esta metodologia se mostrou bastante robusta e eficiente, principalmente quando os resultados da mesma 180 Pesquisa Naval Nº 15, Setembro de 2002 foram comparados com outras fontes de dados. Com os dados do satélite em pontos de grade regular foram geradas médias para cada estação do ano (verão, outono, inverno e primavera). Estes campos médios foram analisados e então discutidos as suas variações sazonais. Foi possível observar, através das figuras do campo de vento médio, as principais feições como, por exemplo, a Inter-Tropical Convergence Zone (ITCZ) e o centro de alta pressão semipermanente. Foi possível observar também o deslocamento ao longo do ano da ITCZ, no verão a mesma se encontrava na sua posição mais ao Sul e no inverno mais ao Norte. Observou-se também o deslocamento do centro de alta pressão semipermanente ao longo das estações do ano. Para o verão o mesmo se encontrava mais concentrado, enquanto que no inverno houve um deslocamento em direção à Noroeste e o mesmo se tornou mais alongado. Outra característica importante foi a zona de divergência do vento de superfície próximo à costa Nordeste do Brasil, sendo esta zona importante na determinação da zona de bifurcação da Corrente Sul Equatorial. No verão esta zona fica na latitude de aproximadamente 15º S e no inverno observa-se que esta zona avança para cerca de 20º S. Isto pode indicar que a zona de formação da Corrente do Brasil pode ter sua origem deslocada ao longo do ano com um posicionamento mais ao Sul no inverno. A eficiência da metodologia empregada na interpolação dos dados provenientes do escaterômetro pode ser comprovada pela comparação com outras fontes de dados. Os resultados destas comparações apresentaram baixos valores de RMS, tanto para direção quanto para intensidade do vento. Estas comparações foram realizadas, principalmente, ao longo do ano de 1998 por disponibilidade de dados. Foram utilizados para comparação dados de bóias do projeto PIRATA e dados de reanálises do NCEP, com os dados de bóias assumidos como “verdades de campo”. Os valores das diferenças RMS para a intensidade do vento entre os dados de bóias e os dados gradeados do escaterômetro variaram de 0,72 m/s à 1,13 m/s. Para a direção do vento os valores RMS variaram de 19º à 26º. Estes valores de RMS estão compatíveis com valores apresentados na literatura, como por exemplo os trabalhos de Siefridt et al (1993) e Bentamy et al (1997). Vale a pena salientar que este estudo teve um caráter inovador, onde se buscou demonstrar a aplicabilidade destes dados. A partir disto pode-se pensar, num futuro próximo, em obter tais dados em tempo real. Para isto seria necessário um estudo mais aprofundado principalmente na transformação dos dados brutos adquiridos pelo satélite em informações de intensidade e direção do vento. Os resultados destes trabalhos poderão ser usados para melhorias nos modelos de previsão do tempo e de ondas e modelos de circulação oceânica. 5 - Referências Bibliográficas ALLENDER, A.H. Comparison of model and observed currents in lake michigan. Journal Of Physical Oceanography, V. 7, P. 711-718, SEP. 1977. Pesquisa Naval Nº 15, Setembro de 2002 181 ARCHER, O.; BENTAMY, A.; DUPONT, L.; FIRING, J.; FLAMENT, P.; GRIMA, N.; HARSCOAT, V.; LOUBRIEU, F.; MARONI, C.; POULIQUEN, S.; QUILFEN, Y. Mean surface wind fields from the ERS-AMI and ADEOS-NSCAT microwave scatterometers. [CD-ROM]. In: WOCE Conference, Halifax, 1998. BENTAMY, A.; GRIMA, N.; QUILFEN, Y. Wind climatology from ERS Scatterometer. In: ERS-1 Symposium on space at the service of our environment, 3., Florence, Mar. 1997. Proceedings. Italy: ESA, 1997. v. 3, p. 1187-1193. (ESA SP-414). BOUTIN, J; ETCHETO, J.; RAFIZADEH, et al. Comparison of NSCAT, ERS-2 active microwave instrument, special sensor microwave imager, and Carbon Interface Ocean Atmosphere buoy wind speed: Consequences for the air-sea CO2 exchange coefficient. Journal of Geophysical Research, v. 104, n. C5, p. 11375-11392, May 1999. BRANDT, S. Sampling. Statistical and computational methods in data analysis. 2.ed. New York: North-Holland, 1976. Cap. 6, p. 92-132. CHU, P.C.; LU, S.; Liu, W.T. Uncertainty of South China Sea prediction using NSCAT and National Centers for Environmental Prediction (NCEP) winds during tropical storm Ernie, 1996. Journal of Geophysical Research, v. 104, n. C5, p. 11273-11289, May 1999. CRESSMAN, G.P. An operational objective analysis system. Monthly Weather REVIEW, v. 87, p. 367-374, 1959. European Space Agency (ESA) New views of the earth: scientific achievements of ERS-1. Noordwijk: Estec, 1995. 162 p. (ESA SP-1176/I). HARRISON, D.E. Ocean surface wind stress. In: Gautier, C.; Fieux, M. ed. LargeScale Oceanographic Experiments and Satellites. Dordrecht: D. Reidel, 1984. P. 99-115. HASTENRATH, S; HELLER, L. Dynamics of climatic hazards in Northeast Brazil. Quartely Journal of the Royal Meteorological Society, v. 103, n. 435, p. 77-92, 1977. RUFENACH, C. A new relationship between radar cross-section and ocean surface wind speed using ERS-1 scatterometer and buoy measurements. International Journal of Remote Sensing, v. 16, n. 18, p. 3629-3647, Aug. 1995. SIEFRIDT, L.; LEGLER, D.M.; BARNIER, et al. Mapping ERS-1 wind fields over north west atlantic using a variational objective analysis. In: ERS-1 Symposium on space at the service of our environment, 2., Hamburg, Oct. 1993. Proceedings. Paris: ESA/ESTEC, 1993. v. 2, p. 1017-1021. (ESA SP-361). SIMPSON, J.J.; GOBAT, J.I. Robust velocity estimates, stream functions, and simulated lagrangian drifters from sequential spacecraft data. IEEE Transactions on Geoscience and Remote Sensing, v. 32, n. 3, p. 479-492, May 1994. YOUNG, I.R.; HOLLAND, G.J. Atlas of the oceans: wind and wave climate. Oxford: Elsevier, 1996. 241 p. Cap. 7. Global wind and wave statistics, p. 67229. Instituto de Pesquisas da Marinha SICAV O SICAV é um sistema de monitoração e controle de avarias que tem por base o uso eficiente e confiável das informações dos sensores de alagamento, fumaça, temperatura e abertura de portas estanques. Além disso, o sistema também inclui um módulo de apoio à decisão para rotas de pessoal e de extração de fumaça. Em sua primeira versão (CAVFRAG), está destinado às Fragatas brasileiras da classe “Niterói”. Porém, a abordagem utilizada no projeto permite a sua aplicação a diversos tipos de instalação como plataformas de petróleo e navios mercantes. A instalação do primeiro sistema foi iniciada em agosto de 2002. Abaixo é mostrada uma das telas apresentadas no console do SICAV. CARACTERÍSTICAS PRINCIPAIS •Console Principal duplo; •Estações Secundárias do tipo “work station” com “touch screen”; •Comunicação por rede Ethernet entre o console principal e as estações secundárias; •Arquitetura VMIC padrão VME com microprocessador Pentium Intel; •Sistema Operacional QNX. DADOS GERAIS• Dimensões do Console Principal (mm): 399(A), 533(L), 537(P). •Peso do Console Principal: 27,5Kg. •Temperatura de Operação: 0°C a 55°C •Dimensões da Estação Secundária (mm): 315(A), 335(L), 130(P). Instituto de Pesquisas da Marinha Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador CEP 21931-090 – Rio de Janeiro – RJ – Brasil Fone: (021) 3386-2710 – Fax: (0*21) 3386-2788 XV Capítulo SOBRE A REPRODUÇÃO FIEL EM CORES Prof. TEODORO ONIGA, PhD Ex-Analista Sênior do CASNAV Resumo A reprodução por meio da tricromia, recurso tão largamente utilizado na imprensa colorida, padece de duas grandes distorções: uma, devida ao fato das características óticas dos filtros utilizados na extração dos três clichês serem bastante diferentes das características óticas das tintas utilizadas na impressão; outra, decorrente da utilização de apenas três cores básicas, o que simplesmente elimina o relevo cromático. Para restabelecer a fidelidade da reprodução em cores, estas duas distorções devem ser corrigidas. Para eliminar a primeira distorção, o único caminho possível consiste em deixar de utilizar filtros coloridos na obtenção dos clichês por transparência e recorrer, em vez disso, a painéis pintados com as mesmas cores básicas que serão utilizadas na reprodução, fazendo a extração dos clichês por meio de reflexão. A captação de cada imagem parcial requer a mobilização de certos recursos tecnológicos especiais: células foto-elétricas no caso da exploração punctiforme (ou por “pixels”), espelhos semi-prateados e cilindros xerográficos especiais no caso da exposição simultânea de toda a superfície a ser reproduzida, mas é perfeitamente possível garantir a fidelidade cromática, tanto na operação pontual de “scanning”, quanto na reprodução integrada. A segunda distorção é bem mais sútil e sua eliminação requer o conhecimento exato das coordenadas óticas de cada ponto colorido: o matiz, a pureza e a tonalidade. Se o “ pixel “ (ou ponto colorido) se encontra na zona clara do hexaedro cromático (ou seja, no tetraedro A1A2A3B, A1,2,3 sendo as três cores 184 Pesquisa Naval Nº 15, Setembro de 2002 básicas e B o branco), deve-se acrescentar uma porcentagem de branco e se o “ pixel “ estiver situado na zona escura (ou seja, no tetraedro NA1A2A3 , N sendo o preto), deve-se acrescentar uma porcentagem definida de preto, para restabelecer o relevo cromático. No caso da exploração por pontos (operação de “ scanning”), um mecanismo calculador permite definir os quatro coeficientes kj de ponderação de cada cor Aj (j = 1, 2, 3 ou 4, com 4 = B ou N). Já na reprodução superficial integrada por meio de clichês, se a confecção dos clichês C1,2,3 não parece apresentar maiores dificuldades, a obtenção dos clichês complementares CB e CN depende de certas técnicas inteiramente novas de utilização dos cilindros xerográficos, a fim de aproveitar a presença simultânea do “ positivo “ (A+) e do negativo (A-) de uma imagem eletrostática A, para realizar a soma eletrostática ∑ das três cores A1,2,3 (já que a somação ótica é inexequível) e a diferença, eletrostática também, entre ∑ + e o original A- para o clichê CB e entre A+ e ∑ - para o clichê CN . Palavras-chave: cor de reflexão, fidelidade colorimétrica, reprodução cromática. Abstract The tri-chromatic reproduction of colored documents is a very largely used technology, but it presents two great distortions: one, due to the sensible differences between the optical characterisctics of the colored filters used for the extraction of the three clichés and those of the inks used in printing; and another, as the consequence of the limitation to only three basic colors, which simply eliminates the chromatic relief. In order to restore the fidelity in color reproduction, these two distortions must be corrected. As to the first distortion, the only way for its elimination consists in the abandonnement of the filters used to produce clichés via transparency and have recourse to panels printed with the same inks used in the printing, the clichés being obtained through refletion. In order to seize each partial image, it may be necessary to mobilize certain special technologies: photo-cells in the exploration by pixels, half-silvered mirrors and special xerographic cylinders in the simultaneous exposure of all the area to be reproduced, but it is very possible to guarantee the chromatic fidelity either in the operation of scanning, or else in the integrated reproduction of the original via clichés. The second distortion is more subtle and for its elimination it is necessary to know the exact optical coordinates of each clored point: hue, chroma and value. If the pixel A sits in the clear zone of the chromatic hexahedron (i.e. inside the tertahedron A1A2A3B, A1,2,3 being the three basic colors and B the white), one must add a certain percentage of white and if the pixel sits in the dark zone (i.e. inside the tetrahedron NA1A 2A3 , N being the black), it will be necessary to add a definite percentage of black, in order to restore the chromatic relief. In the case of the scanning, a computing mechanism will define the four ponderation coefficients kj of the colors Aj (j = 1, 2, 3 or 4, with 4 = B or N). Now in the integrated superficial reproduction throught clichés, if the confection of the clichés C1,2,3 doesn’t seem to face greater Pesquisa Naval Nº 15, Setembro de 2002 185 difficulties, the obtention of the complementary clichés CB and CN depends upon certain new utilization forms of the xerographic cylinders, in order to profit of the simultaneous presence of the “ positive “ (A+) and of the “ negative” (A-) of the electrostatic image A, and perform the electrostatic summation ∑ of the three colors A1,2,3 (since the optical addition is ineffective) and the difference, also in electrostatic terms, between ∑ + and the original A - for the cliché CB and between A+ and ∑ - to obtain the cliché CN . Key-words: reflected-colors, colorimetric fidelity, chromatic reproduction. 1- Introdução A reprodução em cores, principalmente das obras de arte, constituiu-se, desde longa data, em um dos principais veículos de difusão cultural, pelo enriquecimento dos “ museus imaginários “ (na acepção de André Malraux [11]) com reproduções pretendidamente fiéis das obras primas existentes em igrejas, museus e coleções particulares. Um exame atento dessas cópias mostra, entretanto, serem elas bastante distorcidas em relação às obras originais, devido á imperfeição dos meios gráficos empregados, sobretudo da tricomia, tão largamente utilizada em quase todas as revistas publicadas atualmente. De fato, uma cor de reflexão qualquer apresenta três características fundamentais , que podem ser tomadas como as coordenadas para figurá-la num espaço cromático tridimensional: o matiz, caracterizado pelo comprimento de onda da cor espectral dominante; a pureza cromática, medida pela aproximação da cor pura espectral correspondente ou pelo afastamento em relação à cor neutra ou cinzenta; e a tonalidade, expressa em termos de luminosidade equivalente na escala dos cinzentos. Assim, no sistema A . H . Munssell [12] de classificação das cores e com referência à fig. 1: o matiz (“ hue “) é medido pelo ângulo m, que por sua vez pode ser deduzido da posição em relação à divisão do plano em dez regiões: R-RP-P-PB-B-BG-GGY-Y-YR (onde R = “ red “, vermelho; P = “ purple “, púrpura; B = “ blue “, azul; G = “ green “, verde; e Y = “ yellow “, amarelo), cada região sendo subdividida em dez,o que corresponde a 3,60 por subdivisão (na prática sendo realizados apenas quatro passos: 2,5 – 5 - 7,5 - 10, abrangendo 90 por passo circunferente); a pureza (ou intensidade) da cor é medida pelo cromatismo c (“ chroma “), que varia desde /0 para os cinzentos (eixo neutro) até /16 ou mais para as cores espectrais, com passos de 2 em 2; e a tonalidade é medida pelo valor (“value”) v, variando desde 0/ para o preto, até 10/, para o branco. 186 Pesquisa Naval Nº 15, Setembro de 2002 Fig. 1 – Coordenadas de um ponto A, representativo da cor (A), no espaço cromático tridimensional. Fig. 2 – Hexaedro delimitando as cores que podem ser obtidas a partir de (A1), (A2), (A3), (B) e (N) Pesquisa Naval Nº 15, Setembro de 2002 187 Fig. 3 – Triângulo das cores espectrais no diagrama (x, y) de cromaticidade, estabelecido desde 1931 pelo Comitê Internacional de Iluminação, com a designação das cores proposta por Kelly (1940) (Fig. 39 do tratado [6] de D. Judd) e uma sugestão de escolha das três cores básicas A1,2,3. Das coordenadas cilíndricas (m, c, v) do ponto figurativo A (fig.1) pode-se facilmente passar para um sistema cartesiano tri- retangular (x, y, z) mediante fórmulas extremamente simples: x = c cos m, y = c sen m , z=v O mesmo pode ser dito, pelo menos em princípio, quanto a outros sistemas de classificação das cores, tais como os de A . Maerz & M. R. Paul (1930 e 1950) [10] , W. Ostwald (1931) [2] , A . Kornerup & J. H. wanscher (Methunen, 1961) [8] , etc. 188 Pesquisa Naval Nº 15, Setembro de 2002 Dadas duas cores (A1) e (A2), figuradas no espaço cromático pelos pontos A1 e A2 (fig.2), será possível obter qualquer cor intermediária (D) cujo ponto figurativo se situe no segmento de reta A1A2, misturando adequadamente (A1) e (A2): (D) = k1 (A 1) + k2 (A2), onde k1= DA2/A1A2, k2 = A1D/ A1A2, k1+ k2=1. Introduzindo uma terceira cor (A3), de ponto figurativo A3, será igualmente possível, mediante combinação adequada, obter qualquer cor (A0) situada no interior ou na periferia do triângulo A1A2A3: (A0) = k1 (A1) + k2 (A2) + k3 (A3), onde k1=A0A2A3/A1A2A3, k2 = A0A1A3/A1A2A3, k3=A0A1A2/A1A2A3, k1 + k2 + k3 = 1. Uma delas, em particular, estará situada no eixo neutro e representará o cinzento (C0), de modo que (A0) poderá também ser obtida por combinação de (D) e de (C0) . Em caso algum, porém, será possível representar, por combinação das três cores (A1), (A2) e (A3), uma cor qualquer situada fora do plano figurativo A1A2A3 ou, neste plano, fora do triângulo A1A2A3. Uma litografia, pelo seu próprio modo de confecção, é normalmente multiplicada mono, bi ou tricromaticamente, mas um quadro pintado nunca será reproduzido fielmente através da tricromia, pois nenhum pintor aceitaria trabalhar com uma paleta contendo apenas três cores. Pode-se reafirmar, portanto, que todos os álbuns de arte são enganosos e as reproduções de quadros famosos, feitas sob a égide dos grandes museus, são cromaticamente deformadas se comparadas com os respectivos originais. As únicas reproduções fidedignas são aquelas feitas por (futuros) grandes pintores ao copiarem quadros famosos (caso típico foi o de Goya copiando “ Las Meninas “ de Velasquez, ou o de El Greco reproduzindo, em escala menor, seu próprio quadro “ O Santo (a cavalo) e o mendigo “ , as duas obras se encontrando na National Gallery de Washington). Fora disso, todas as reproduções tricromáticas e todas as fotografias em cores são falsas, incompletas e sem relevo cromático, o que acaba, inclusive, distorcendo a apreciação visual do mundo através da tricromia. Para estender as combinações possíveis e representar cores situadas fora do plano e do triângulo A1A2A3, torna-se necessário recorrer a uma quarta cor, que poderá ser o branco (B), no caso do ponto figurativo A estiver situado acima de A1A2A3, na zona clara, ou o preto (N), se o ponto figurativo A’ se encontrar abaixo de A1A2A3, na zona escura do espaço cromático. Utilizando apenas três cores, como se faz correntemente na imprensa, força-se uma distorção de todo o espaço cromático, reduzindo-o praticamente a duas dimensões apenas, as do plano A1A2A3. É bem verdade que na tricromia impressa utiliza-se , indiretamente, uma quarta cor, que é a do suporte, na grande maioria dos casos constituído pelo papel branco, mas aí surgem pelo menos três outras fontes de distorção: Pesquisa Naval Nº 15, Setembro de 2002 189 - uma, devida ao efeito de superposição dos clichês sucessivos (vermelho, amarelo, azul) e à consequente imperfeita mistura das tintas superpostas, o que acaba favorecendo a última tonalidade impressa; - outra, proveniente do fato de o branco do papel (ou a cor do suporte) diferir do branco original e de não ser possível dosar corretamente a proporção de branco na cor resultante; - a terceira, e não a menos importante, causada pela diferença entre os espectros de absorção do filtro utilizado para extrair uma cor (vermelho, amarelo, azul) do quadro original na preparação do respectivo clichê e da tinta empregada na impressão da mesma cor no papel (ou no suporte). Com os mesmos clichês e utilizando tintas primárias com diferenças mínimas obtêm-se reproduções completamente diferentes entre si (veja-se, por exemplo, a seção 9 do catálogo de cores da Néochrome de 1950 [13] e as três reproduções tricromáticas de um mesmo quadro, representando uma marina de Mary Ribeto; ou, ainda, a diferença entre exemplares de uma mesma revista pendurados nas paredes de um quiosque de jornaleiro), o que mostra definitivemente a indiscutível infidelidade da reprodução tricromática. Poder-se-ia pensar na adição de um outro clichê, destinado a reproduzir apenas o preto (e, por mistura com o branco do suporte, os cinzentos intermediários) para restituir o “ relevo” das cores, mas esta técnica redundaria na substituição de B por C (V.fig.2) e a obtenção de um ponto A” diferente de A; todos os pontos situados acima do plano A1A2A3 sairiam mais escuros e os abaixo mais claros que o original, de modo que a reprodução seria infiel por reduzir ou aumentar, em proporções variáveis, o relevo cromático. As três cores primárias (A1), (A2) e (A3) devem ser escolhidas entre as que possuem uma pureza elevada, o que significa que elas deverão situar-se na periferia do espaço cromático, perto dos limites definidos pelas cores espectrais extraídas do triângulo das cores (cf. fig.3), a fim de assegurar uma área A1A2A3 tão grande quanto possível. E, para evitar a distorção acima assinalada, provocada pela diferença entre as curvas de absorção espectral dos filtros e as da distribuição espectral das tintas utilizadas na impressão, torna-se imperativo substituir os filtros por superfícies de reflexão pintadas com as próprias tintas (A1), (A2) e (A3) que serão utilizadas na fase de reprodução dos pontos coloridos (ou “ pixel s”) do documento original. 2 – Processo de Análise e Síntese dos “ Pixels “ A fig. 4 mostra a distribuição espectral da energia luminosa refletida por uma superfície iluminada normalmente, em função do comprimento de onda do espectro visível (que se estende desde 380 mµ , no violeta, até 780 mµ, no vermelho do espectro), quando essa superfície é um corpo branco puro ideal (V), três cores primárias quaisquer (V1,V2,V3), uma superfície branca real (VB) e uma superfície preta (VN). Uma superfície muito próxima do branco puro E pode ser obtida por uma camada de óxido de magnésio 190 Pesquisa Naval Nº 15, Setembro de 2002 (MgO), cuja refletância média é de 0,976 (a título de comparação, a refletância do papel branco é de 86%). Já o branco real (B) poderá ser obtido, na prática, a partir de uma supensão coloidal de óxido de zinco (ZnO) ou de titânio (TiO2, rútilo), de amalgama de prata, ou de outra substância que se aproxime do branco ideal, sem que constitua , no entanto, uma superfície simplesmente refletora (tipo espelho). A cor preta (N), que será utilizada na reprodução, resultará de uma suspensão coloidal de negro de fumo, que se aproxima bastante da distribuição do corpo negro ideal, a qual se confunde com o eixo horizontal (absorção total, reflexão nula). A medição desses fluxos luminosos pode ser feita por meio de células fotoelétricas (ou fotocélulas), cujo princípio de funcionamento é indicado na fig. 6 para uma célula foto-emissiva à base de césio e amplificação por triodo (que pode ser substituído por um transistor): o fluxo incidente kj gera a corrente ij = fkj; a queda de tensão Rij abaixa o pontencial da grelha do triodo T, o que provoca uma queda ∆Ij da corrente de placa, podendo-se escrever: ∆Ij = I0 – Ij = T.Rij (T sendo o fator de amplificação do triodo, que varia de 100.000 a 500.000), donde: Ij = I0 – T.Rij = I0 –TRfKj , o que mostra ser Ij uma função descrecente de Kj, que será linear se T e F forem constantes. Conforme esquematizado na fig. 5, o fluxo V (que corresponde ao branco puro) é, primeiro, refletido por um difusor perfeito E (equivalente ao mesmo branco puro), em seguida pelas cores (A1), (A2), (A3), (B) e (N), podendo-se inverter (B) com E e (N) com E. Seja agora K a distribuição espectral da cor (A) de um dos pontos (“pixels”) explorados, quando iluminado normalmente (seja pela luz do sol, seja pela fonte “ C “ da fig. 3, que é o ponto x = y = z = 1/3 do CIE) e sejam K1, K2, K3, KB e KN as distribuições resultantes da reflexão de K pelas superfícies de referência, conforme exemplificado esquematicamente pela fig. 7. A medição destes fluxos pode ser feita pelas mesmas fotocélulas, apenas substituindo o difusor perfeito E pela superfície colorida (A), conforme esquematizado pela fig. 8. Note-se que, se fosse conhecido v, não seria necessário medir os fluxos KB e KN, pois admitindo curvas VB e VN (fig.4) sensivelmente horizontais, ter-se-ia: KB/ K ≅ VB /V = b e KN/K ≅ VN/V = n, o que significa que os fluxos KB e KN podem ser deduzidos de VB e VN, multiplicados pela proporção K/V = v (isto é, KB =VB.v, KN =VN.v). Esta proporção v mede, de certa forma a refletância global da cor (A), que pode ser assemelhada à sua tonalidade (coordenada z = v do espaço cromático). Se o Pesquisa Naval Nº 15, Setembro de 2002 191 ponto A se encontrar no tetraedro superior (claro), sua projeção no plano A1A2A3, vista do ponto B, será A0 (V. fig.2). Já se A estiver no tetraedro inferior (escuro), ponto A’ da fig. 2, sua projeção vista de N será também A0. É importante, então, conhecer a coordenada v da cor (A) do “pixel” e calcular a coordenada v0 do ponto A0, que servirá de referência para situar a cor (A) na zona clara, A, ou na zona escura, A’, do hexaedro NA1A2A3B. O cálculo de v0 pode ser efetuado conforme indicado a seguir: (A) = kB . (B) + k0. (A0) , ou v = kB.b + k0.v0 , com kB = A0A + v – v0 , donde A0B b – v0 v0 = v - b.kB . 1 - kB puro E e VN) Fi.4 – Distribuição espectral da energia luminosa refletida por um corpo branco (linha V) e pelas cores (A1), (A2), (A3), (B) e (N) (respectivamente V1, V2, V3, VB Fig.5 – Esquema de mediação dos fluxos V e Vj 192 Pesquisa Naval Nº 15, Setembro de 2002 Fig.6 – Princípio de funcionamento de uma fotocélula v= k kB , ≅ v vB Fig. 7 – Distribuição espectral K de uma cor qualquer (A) e distribuições Kj resultantes da reflexão de K pelas superfícies coloridas (Aj ) Fig.8 – Esquema de medição dos fluxos K e Kj Pesquisa Naval Nº 15, Setembro de 2002 193 A expressão geral de v é a seguinte: v = k1v1 + k2v2 + k3v3 + k4v4, onde 4 = B e v4 = b, no tetraedro A1A2A3B (claro) e 4 = N e v4 = n, no tetraedro NA1A2A3 (escuro), os kj devendo verificar a relação: k1 + k 2 + k 3 + k 4 = 1 . Substituindo kB (= k4) = 1 - k1 - k2 - k3 na expressão de vo, vem: v0 = k1v1 + k2v2 + k3v3 + k4 b – b k4 = Σkjvj (j = 1, 2, 3). k1 + k2 + k3 kj Há, contudo, um pequeno problema decorrente da impossibilidade gráfica de medir diretamente o fluxo total K, conforme sugerido pela fig.8, devido à ausência , dentro do aparelho de medição dos fluxos luminosos, de uma superfície E equivalente ao branco puro, já que a superfície de referência (B) será a de um pigmento branco de fácil utilização na prática da impressão, que não será o branco ideal. Não dispondo do valor de K, não poderão ser conhecidos de imediato os valores normalizados kj = Kj/K, nem o valor de v = K/V. É possível, no entanto, conseguir para vo uma expressão equivalente em termos apenas de kj, que foram (ou estão sendo) medidos: v0 = k1v 1 + k 2v 2 + k 3v 3 = ∑ k ′j v j . (j = 1, 2, 3), k1 + k 2 + k 3 K ′j = KJ K1 + K 2 + K 3 Por outro lado, mesmo desconhecendo momentaneamente o valor de K, pode-se obter para v uma boa aproximação escrevendo: os dois valores KB e VB tendo já sido medidos, KB no momento da análise da cor (A), VB por ocasião da escolha e calibração inicial das cores de referência. (*)1 v= k kB ≅ v vB Assim sendo, pode-se comparar v com vo e então deduzir os valores de ko, kj (j = 1, 2, 3) e finalmente de kB ou de kN, conforme indicado a seguir. 194 Pesquisa Naval Nº 15, Setembro de 2002 v ≥ v0 (A) = k0 (A0) + kB (B) v = v’ < v0 (A’) = k0 (A0) + kN (N) k0 = AB = b – v A0B b – v0 k0 = NA’ = v’ - n NA 0 v0 - n kB = A0A = v – v0 = 1 – k0 A0B b – v0 kN v = k0v0 + (1 – k0) b = = b – v . v0 + v – v0 .b b – v0 b – v0 kj = b – v . Kj b - v0 K1 + K2 + K3 A’A0 = v0 - v’ NA 0 V0 - n = 1 – k0 v’ = k0v0 + (1 – k0) n = v’ – n .v0 + v0 – v’ v0 – n v0 – n = kj = v’- n . v0 – n (j = 1, 2, 3) kB = v – v0 = 1 – k1 – k2 – k3 b – v0 = Kj K1 + K2 + K3 (j = 1, 2, 3) kN = v0 – v’ = 1 – k1- k2 – k3 v0 – n A fig, 10 é um fluxograma de cálculo dos coeficientes kj (j = 1, 2, 3, B, N), em função das entradas I1,I2,I3 e IB e das medições prévias de VJ. Se v >v0, o ponto A situa-se na zona clara do espaço cromático e as três cores (A1), (A2), (A3) deverão ser completadas com uma fração kB de branco (B); se v < v0 , o ponto A ocupa a posição A’, na zona escura, devendo então ser adicionada uma fração kN de preto (N); o caso v = v0 corresponderia ao plano A1A2A3, quando (e somente quando) o ponto resultará como combinação tricromática. 3 – Aparelho para Reprodução Fiel em Cores Conhecidos os valores de kj, será possível dosar as cores (Aj) e reconstruir a cor verdadeira (A) de cada “pixel”. Uma das possíveis realizações de um aparelho capaz de fazer tanto a operação de análise quanto o acionamento dos comandos de abertura, proporcionalmente a esses kj, de cada recipiente de cor (sob a forma de uma suspensão coloidal de pigmentos) e a impressão no suporte escolhido, está devidamente descrita Pesquisa Naval Nº 15, Setembro de 2002 195 na referência [14] e não será reproduzida aqui, por se tratar meramente de detalhes técnicos. Cabe, entretanto, examinar a qualidade da reprodução em cores sob um outro aspecto, que é o da continuidade dos “pixels” assim reconstituídos. Fig. 9 – Distribuição espacial do fluxo luminoso refletido (Lei de Lambert) Fig.10 – Fluxograma do dispositivo calculador dos coeficientes kj A escolha do tamanho mais adequado desses “pixels” deve resultar do compromisso entre uma boa definição ótica (o que exige pontos pequenos e densos) e as possibilidades práticas de miniaturização. Assim, por exemplo, um clichê reticulado de 50 a 40 malhas por centímetro linear fornece uma resolução considerada muito boa, mas a superfície elementar resultante é de apenas 1/2500 a 1/1600cm2 e o fluxo luminoso 196 Pesquisa Naval Nº 15, Setembro de 2002 refletido será ínfimo. Considerando, no entanto, que a reprodução pelo processo aqui sugerido é praticamente contínua (em contrapartida à reprodução por meio de clichês reticulados, onde a superfície é descontínua), a definição resultante para o mesmo grau de decomposição será bem melhor, o que sugere a consideração de uma área de cerca de 1/2000 cm2 a 1/900 cm2, equivalente à área elementar de uma retícula de 45 a 30 linhas/cm. Observe-se que , no caso de superfícies elementares tão pequenas, a iluminação deverá ser muito intensa para que se possa obter um fluxo refletido detectável; mas, por outro lado, o fator de concentração deverá ser limitado, a fim de evitar a danificação pelo calor da superfície explorada, sugerindo-se, inclusive, o emprego de vidros recobertos por uma fina camada de óxido de estanho ou de índio, que filtram os raios infra-vermelhos, o que permitirá aumentar a concentração da parte visível do espectro (que gera pouco calor). Visto que o poder separador (ou acuidade visual) do olho humano normal é da ordem de 1’, o que corresponde a (π /180).1/60 = 0,000291 radianos, uma malha de 1/45 = 0,0222 cm a 1/30 = 0,0333 cm deixará de ser percebida individualmente, em perfeitas condições de iluminação, a partir de uma distância de (0,0222 a 0,0333) ÷ 0,000291 = 76,3 a 114,4 cm, que será reduzida para cerca de metade desses valores nas condições normais de iluminação (5000 lux), aproximando-se, assim, da distância habitual de leitura (30 a 45 cm). Esta área 2 (V. fig. 12), fortemente iluminada por uma mini-lâmpada central 4, munida de refletor parabólico 3 (ou de um outro concentrador equivalente) e por quatro mini-lâmpadas laterais, inclinadas a cerca de 450, também previstas com concentradores, mesmo que apresente algumas asperidades (o que ocorre normalmente quando se trata de superfícies pintadas), receberá uma luz uniforme, o que evitará distorções cromáticas. A luz das mini-lâmpadas deverá ser tão próxima do branco ideal quanto possível, podendo inclusive ser substituída pela luz solar direta, que fornece um iluminamento da ordem de 100.000 lux (ou lumens por metro quadrado). Fig.11 - Vista de frente, segundo II da fig. 12, de um dispositivo detector e analisador das cores elementares que entram na composição de um “pixel”. Pesquisa Naval Nº 15, Setembro de 2002 197 Fig. 12 Corte segundo I-I da fig. 11 do mesmo dispositivo detector e analisador de cores. 198 Pesquisa Naval Nº 15, Setembro de 2002 O fluxo incidente sobre a superfície 2 do “ pixel “ é parcialmente refletido em todas as direções (a parte não refletida sendo absorvida pela própria superfície iluminada) e uma fração do fluxo refletido é interceptada, em partes iguais, por quatro superfícies trapezoidais 6, das quais três estão pintadas com uma das cores básicas (A1), (A2), (A3) e a quarta (B) está revestida de uma substância que se aproxime do branco ideal. Sabe-se que uma superfície difusora elementar tem uma distribuição espacial das intensidades em forma de esfera tangente (fig.9), pois numa direção qualquer, medida pelo ângulo α , ter-se-á I α = I senα (lei de Lambert). O ângulo esférico correspondente a uma variação ∆α do ângulo plano α sendo ∆ϕ = 2 πcos α ∆ α, o fluxo elementar terá a expressão ∆k = I α ∆ϕ e sua integração entre os limites α1 e α 2 fornece: k = π I (sen2 α2 - sen2 α1). O fluxo total será obtido com α1 = 0 e α2 = 900 : k max = π I. Para α1 = 300 e α 2 = 600, o fluxo interceptado será sensivelmente 50% de k max e para α1 = 200 e α 2 = 700 ele alcançará 76,5% de k max, sendo, desta forma, possível contar com pelo menos 64%, ou seja, 16% de k max para cada superfície interceptadora 6, desde que α1 ≤ 250 e α 2 ≥ 650. O fluxo luminoso interceptado por essa superfícies 6 é, por sua vez, parcialmente refletido sobre quatro superfícies foto-sensitivas 7 de quatro foto-células, que recebem, conforme o caso, uma fração kj (= k1, k2, k3 ou kB) do fluxo refletido. Para que estas frações sejam as mais elevadas possíveis, as cortinas 9 e os voletes laterais 10, além de impedirem a penetração de qualquer luz direta sobre as superfícies 6 e 7, têm suas partes internas refletoras e o ângulo γ agudo; com δ ≤ 300 e ε ≤ 900, a perda de fluxo não ultrapassará a fração (30/180). (90/180) = 1/12, de modo que a fração incidente sobre 7, se bem que inferior à fração teórica restante 11/12, representará, assim mesmo, pelo menos ¾ do fluxo refletido por 6. O fluxo recebido por cada superfície foto-sensitiva 7 será um pouco inferior aos 16% de k max, podendo-se admitir uma perda de, no máximo, 25%, restando, pois, 12 % do refletido pelos 1/2000 = 0,0005 cm2 de cada superficie de referência 2. Sendo esta última submetida a um iluminamento diretro de 105 lux (luz solar) e a quatro iluminamentos oblíquos a cerca de 450 (sen 450 = 0,707), totalizando assim 100.000 (1 + 4 × 0,707) = 382.800 lux, a energia recebida será de cm2 . 1 m2 = 0,01914 Lm. 382.800 Lm . 1 2 m 2000 104 cm2 Uma célula foto-emissiva à base de césio pode gerar entre 10 e 80 µA/Lm. Tomando o valor intermediário f ≅ 50 µA/Lm, a corrente gerada i sera da ordem do microampère. Esta corrente, conforme visto na seção anterior, pode ser amplificada entre cem mil e quinhentas mil vezes, conduzindo, portanto, a correntes Ij diretamente operativas de 0,1 a 0,5 ampères. Estas correntes entram no dispositivo calculador esquematizado na fig.10, que fornece, na saída, os coeficientes kj sob a forma de correntes proporcionais às intensidades relativas das cores de índice j (abrangendo, desta vez, também o preto N) que deverão ser misturadas para reconstituir a cor original (A) do “ pixel “ explorado. No dispositivo calculador, os dois valores do coeficiente k0 são calculados e somados, mas o resultado da comparação v: v0 só ativará um dos termos da soma. Pesquisa Naval Nº 15, Setembro de 2002 199 Além de comandar a impressão das quatro cores que reconstituirão cada “pixel”, as correntes kj 99oderão alimentar, acessoriamente, um dis99ositivo registrador de cinco cabeças para gerar, como subproduto, um registro gráfico ou magnético completo do campo explorado pelo dis9ositivo varredor e analisador, servindo como re99ositório 9ara arquivos (“scanner”). O mecanismo dosador de cores tem exemplificada uma 99ossível forma de realização na fig. 13. A cuba 14 contém a cor (Aj) sob a forma de um líquido (água, óleo ou um solvente adequado) no qual se acha dispersado ou dissolvido o respectivo 9igmento. Um visor 26 permite controlar o nível de líquido na cuba, o enchimento desta sendo feito através do tubo 27, abrindo a torneira 28, de99ois de fechar a válvula 29, que põe a cuba em contato com um reservatório 30 de ar comprimido, destinado a manter uma pressão uniforme sobre o nível do líquido e igual nas cinco cubas. Na parte inferior a cuba 14 tem uma abertura 16, fechada pela placa móvel 15, provida de outra abertura 17; esta placa esta normalmente mantida em 99osição fechada 9ela ação da mola 25, fixada na 9arede da cuba e numa proeminência 24 da placa 15; a corrente kj alimenta, através dos bornes 19, um eletro-ímã cuja armação 20 está isolada da parede da cuba 99or meio de uma placa 21; um cilindro 22 de ferro mole, solidário à proeminência 23 da 9laca 15, é atraído pela armação do eletro-ímã com uma força 9ro99orcional à corrente kj, produzindo um deslocamento da 9laca móvel 15 e a abertura progressiva da área de passagem comum às aberturas 16 e 17 (que coincidirão quando kj atingir seu valor máximo). A forma dessas aberturas e seu movimento relativo (que 99ode ser a translação ou de rotação) 99odem ser combinados de maneira a corrigir qualquer falta de 9ro9orcionalidade entre o valor de kj e o deslocamento corres99ondente da peça 22. O fluxo de líquido colorido será pro99orcional à área deixada livre pela abertura 17 e sairá da cuba através do tubo capilar 18, para desembocar no pavilhão concentrador de seção quadrada 31, onde as cores se misturam parcialmente entre si e intimamente com o ar aspirado 99or força dos esguichos de líquido. O lado do quadrado 31 na saída do pavilhão concentrador será, em 9rincípio, igual ao da superfície elementar 2 do “ 9ixel “, podendo, contudo, ser menor em caso de redução (36) ou maior em caso de ampliação (37) do quadrado original. O dis9ositivo analisador e esquadrinhador 99oderá também funcionar inde9endentemente como analisador, identificador e classificador automático de quaisquer amostras de cores, pois uma vez conhecidos os kj e as coordenadas mj, cj e vj, determinam-se as coordenadas cartesianas equivalentes xj, yj e zj e então têm-se para as coordenadas da cor analisada (A): x = c cos m = Σ kjcj cos mj y = c sem m =Σ kjcj sen mj z = v = Σ kjvj j =1, 2, 3, 4 (4 = B ou N) 200 Pesquisa Naval Nº 15, Setembro de 2002 donde se tira: c= x2 + y2 e m = arc tg y x v = z. Os kj podem ser , por outro lado, calculados diretamente a partir das coordenadas (xj, yj, zj), mediante as fórmulas: kj = ∆j / ∆, em que ∆= 1 x1 y1 z1 1 x2 y2 z2 1 x3 y3 z3 1 x4 y4 z4 = 6 × vol. A1A2A3A4 e ∆j = ∆ em que a j-ésima linha (1 xj yj zj) foi substiuída por (1x y z). 4 – Incovenientes do Processo Pontual e Procura de uma Solução Integrada O processo e aparelho descritos nos capítulos anteriores 2 e 3, ainda que permitindo reproduzir fielmente as cores contidas no hexaedro NA1A2A3B da fig.2, tem um grande inconveniente prático, que é o de exigir um tempo muito grande, devido à necessidade de dividir a área a ser explorada e copiada em “pixels” muito finos (com “pixels” de 0,316 mm de lado seriam necessários 107 – dez milhões – de “pixels” por metro quadrado). As cópias assim obtidas seriam fiéis, porém muito caras, logo pouco acessíveis. As pesquisas mostraram que é possível proporcionar a obtenção de reproduções fiéis de quaisquer quadros pintados ou documentos coloridos, quer por meio de cinco clichês reticulados que reproduzem a superfície inteira e não apenas “pixels” sucessivos, quer por meio de cilindros foto-sensitivos como os utilizados na reprodução xerográfica, tornando desta forma as cópias incomparavelmente mais baratas e, portanto, mais acessíveis ao grande público e contribuindo, assim, para a difusão da cultura artística e o aprimoramento da educação visual dos apreciadores de artes plásticas em geral e de pintura e outros trabalhos coloridos em particular. O novo processo, baseado numa pentacromia xerográfica, foi detalhadamente descrito na referência [15] e será resumido no capítulo seguinte. Antes, porém, cabe fazer uma análise do processo xerográfico de reprodução, já de domínio público, que servirá de base para a confecção dos cinco clichês acima mencionados. Pesquisa Naval Nº 15, Setembro de 2002 201 O processo xerográfico, esquematizado na fig.14, pode ser decomposto em sete fases: fase I: deposição de cargas elétricas positivas na superfície 11 do cilindro, que é revestida de selênio ou de outra substância foto-sensitiva (ou foto-condutora, ou foto- receptora), tal como: tri-seleniato de arsênio, polivinilcarbazol e trinitrofluorenona, ftalocianina, óxido de zinco, sulfeto de cádmio, devendo-se apenas, na escolha da substância fotosensitiva, levar em conta as curvas de sensibilidade dessas substâncias às várias cores do espectro, a fim de evitar desequilíbrios óticos entre as cores (Aj), cf. fig. 15 da ref. [16] (p.810); fase II: exposição da superfície foto-sensitiva à imagem do original a ser copiado e sua transformação em imagem eletrostática latente; fase III: revelação da imagem latente por meio de um “ toner “ Tj carregado positivamente por um corotron 22, o borne negativo da pilha 23 sendo ligado ao eletrodo-base 17; o “ toner “ é um pó finíssimo, da cor que se quer imprimir, suficientemente condutor para receber cargas de corotron e podendo conter um lubrificante para facilitar a aderência ao suporte e a fusão posterior; fase IV: transferência da imagem revelada para o suporte 26 (papel, plástico, etc), podendo este receber uma carga de sinal contrário à do ‘toner’, a fim de facilitar a passagem do pó; fase V: fixação do pó no suporte 26, quer por simples pressão, através dos rolos 25, quer por ligeiro aquecimento em 27; fase VI: limpeza do cilindro, para retirar os 10 a 30% de pó não aderido; e fase VII: neutralização, por meio de um banho de luz, das cargas eventualmente remanescentes, deixando o fotoreceptor pronto para iniciar um novo ciclo. Um cilindro xerográfico como o da fig.14, carregado positivamente, quando exposto à luz projetada da imagem do original (A), produz uma imagem latente que representa o “ negativo “ desse original em cargas positivas (A-), ou o “ positivo “ do mesmo (A+) em buracos (ausência de cargas). Se o cilindro estivesse sido carregado negativamente, a imagem latente do original (A) seria o “negativo “ do original (A-) em cargas negativas, ou o “ positivo “ do mesmo (A+) em buracos (ausência de cargas). Portanto, qualquer que seja o sinal (+ ou -) das cargas superficiais, a imagem latente abrange tanto o “negativo” quanto o seu complemento, que é “positivo” do original, bastando usar o sinal adequado na carga do “ toner “ para extrair o resultado desejado. Este fato não parece ter sido explorado na confecção das máquinas de reprodução xerográfica, mas é fundamental quando se trata de efetuar comparações de imagens, como se verá em seguida. 202 Pesquisa Naval Nº 15, Setembro de 2002 Fig. 14 As sete etapas (I a VII) que caracterizam o processo de reprodução xerográficadooriginalA j. Fig. 15 Obtenção da imagem original (A) sobre uma tela (Aj) e, por reflexão, sobre um suporte neutro. Pesquisa Naval Nº 15, Setembro de 2002 203 Fig. 16 Sistema ótico convergente isento de aberrações e astigmatismos. Fig. 17 Esquema de extração das cinco imagens parciais Aj 5 – Utilização do Processo Xerográfico para Extrair os Cinco Clichês de Reprodução Fiel em Cores O processo de reprodução fiel em cores por meio de pentacromia xerográfica abrange duas fases distintas: - na primeira, extraem-se do original colorido (A) a ser reproduzido cinco clichês Cj (j = 1, 2, 3, B, N), que representam as proporções em que as cores (Aj) entrarão na composição de cada ponto colorido (“ pixel “) do original; - na segunda fase, usam-se os clichês Cj para efetuar impressões sucessivas sobre um mesmo suporte, preferivelmente neutro (que pode ser transparente, ou então de uma leve cor cinzenta de meia intensidade), das cinco cores (Aj), seja transformando esses clichês xerográficos em clichês reticulados que serão depois utilizados numa impressora comum, seja utilizando tais clichês para alimentar cinco cilindros xerográficos, cada um imprimindo, em sequência, uma das cores (Aj) sobre o suporte escolhido. 204 Pesquisa Naval Nº 15, Setembro de 2002 Corrigir e completas-se-á, desta forma, a tricromia, que agora aparece como decorrência de uma simplificação forçada, devida à incorreta interpretação do triângulo das cores espectrais de emissão (fig.3), que não leva em conta a tonalidade (ou valor, ou luminosidade) dar cor refletida , para a reprodução da qual torna-se necessário misturá-la com uma quarta ou quinta cor, que será o branco ou o preto, conforme o caso. Note-se que, aos serem empregados os clichês reticulados, corre-se o risco de pequenas superposições de cores, o que poderá favorecer a última cor impressa, ou então a mais intensa, e só a prática poderá recomendar a melhor sucessão na impressão dos clichês. A grande vantagem deste processo, no entanto, é a de garantir a durabilidade das matrizes, que poderão ser usadas cada vez que houver uma demanda de reproduções. Já no caso dos clichês xerográficos, visto ser a definição eletrostática muito mais fina que a dos reticulados, haverá menos risco de superposição das cores, mas em compensação sua durabilidade será limitada devido à desbotadura pela luz e às alterações ocasionadas por fatores vários (umidade, calor, etc.). A cor de cada clichê poderá ser a cor a ser impressa, para evitar confusões, mas nada impede que os clichês xerográficos sejam impressos em preto sobre um suporte neutro ou incolor, ou mesmo branco, com indicação inequívoca da cor que corresponde cada um. A extração dos clichês C1,C2 e C3 das três cores fundamentais escolhidas (A1), (A2) e (A3) é efetuada segundo o esquema da fig.15, onde o original (A), apoiado no suporte 1, forte e uniformemente iluminado por um conjunto de lâmpadas 6 e refletores 7 convenientemente dispostos na frente de (A), é projetado oticamente, através da lente 2, sobre um suporte 4, que é pintado com cor a (Aj) que se quer extrair. Da imagem de (A) sobre 4, a camada de cor (Aj) refletirá apenas os “ pixels “ de cor j do original, os demais sendo simplesmente absorvidos, de modo que um observador, olhando para 4, verá uma imagem monocromática traduzindo a presença da cor j em cada um dos pontos iluminados. Trata-se agora de captar essa imagem e transformá-la em outra imagem eletrostática equivalente. A captação será conseguida projetando a imagem sobre um suporte horizontal transparente 5, mediante a interposição de um espelho semi-prateado 3, inclinado a 450. Este espelho terá um coeficiente de transmissão r1 e outro de reflexão r2; admitindo que a absorção da luz através do vidro do espelho será medida por um coeficiente r3 desprezível, ter-se-á r2 = 1 – r1, já que r1 + r2 + r3 = 1. A imagem formada no suporte 4 terá então a intensidade luminosa reduzida para r1 (Aj) e a nova imagem refletida sobre 5, que é a imagem captada, terá a intensidade r2r1(Aj). Para que esta última tenha o valor máximo, dever-se-ia escolher r2 = r1 = ½ e então r2r1 = ¼, mas dificilmente se obterá um prateamento exatamente na proporção de 50%, de modo que o produto r2r1 será sempre um pouco inferior a 1/4, podendo-se aceitar, para efeitos práticos, um valor r2r1 ≅ 0,2. Historicamente, este tipo de espelho foi utilizado por Fizeau, no século XIX, quando mediu a velocidade da luz (299.796 km/s), e pouco Pesquisa Naval Nº 15, Setembro de 2002 205 depois na célebre experiência de Michelson e Morley em 1887 para avaliar o efeito do movimento da terra sobre a velocidade da luz, cujo resultado negativo deu origem à teoria da relatividade (Lorentz, Einstein). A fim de corrigir as imperfeições devidas às aberrações (esférica, cromática) e astigmatismos, a lente simples 2 será substituída por um sistema ótico como o exemplificado na fig. 16, que é o de uma objetiva duplamente anastigmática e sem aberrações, contendo, de cada lado, duas lentes convergentes 8 e 9 e uma divergente 10. A produção dos três clichês C1,2,3 se completará com a transformação da imagem captada no suporte 5 em uma imagem eletrostática e a revelação desta última mediante deposição e fixação de um “ toner “ sobre o suporte neutro ou transparente escolhido, utilizando para isso o cilindro 11 e uma copiadora xerográfica comum, segundo detalhadamente mostrado na fig. 14 e descrito na seção anterior (4). Normalmente, o “ toner “ Tj (21) é carregado negativamente e então ele se deposita naquelas regiões da superfície foto-sensitiva 16 que ainda possuem cargas positivas. De fato, após a passagem do cilindro 11 por baixo do original (Aj) iluminado, os fótons oriundos deste destroem as cargas superficiais que se encontram na sua frente, de modo que as regiões claras, do tipo aj, deixam passar a luz, enquanto as regiões escuras permanecem carregadas, atraindo em seguida os grãos de “ toner “ e produzindo finalmente uma imagem revelada que é o “positivo” do original. Já na fig. 14 os grãos só se depositarão nas regiões foto-sensitivas isentas de cargas (porque tendo recebido, por hipótese cargas positivas do coroton 22, estas serão repelidas pelas cargas positivas superficiais), ou seja, nas regiões do tipo aj, que são iluminadas pela cor (Aj) , de modo que, finalmente a imagem revelada será o “ negativo “ de Aj no original, que é exatamente o que se quer para gerar o clichê Cj. Conforme já assinalado, a cor do “ toner “ poderá ser a própria cor (Aj) – mas, neste caso, o recipiente 21, que contém o “ toner “, deverá ser substituído nas três tiragens sucessivas – ou então uma cor preta comum, com indicação precisa da cor para qual o clichê será usado. Para obter os dois clichês restantes, CB e CN, deve-se fazer uma operação de soma e outra de subtração de cores, que não poderão ser efetuadas oticamente, devendose obrigatoriamente recorrer às imagens latentes eletrostáticas. Eis os raciocínios: - visto tratar-se da adição de branco (B) ou de preto (N), a coordenada-chave de cada cor (Aj) será sua tonalidade vj (ou seja, sua posição no eixo vertical dos cinzentos nos espaço cromático); - fazendo a soma ponderada das tonalidades das três cores (A1), (A2) e (A3), obter-seá a tonalidade v0 = k1v1 + k2v2 + k3v3 do ponto A0 da fig.2, ou então do seu correspondente C0 no eixo NB; 206 Pesquisa Naval Nº 15, Setembro de 2002 - se v0 < v = v’A , deve-se adicionar (v - v0) ao valor v0 obtido como soma ponderada das tonalidades , ou seja: vB = vA – v0; isto é a mesma coisa que dizer: sendo a soma ponderada das tonalidades das três cores inferior à tonalidade do original (A), o resultado da superposição das três cores é mais escuro que o original e então, para corrigir a tonalidade, deve-se adicionar uma determinada proporção de branco; - se v0 > v = v’A, subtrair-se-á de v0 a diferença (v0 – v), isto é: v’B = v0 – v’A; ou ainda, em termos comuns: sendo o resultado da superposição das cores de uma tonalidade mais clara que a do original, deve-se corrigi-lo adicionando determinada porcentagem de preto. Os clichês C1,2,3 já trazem, em si, a ponderação kj (Aj) das respectivas cores. Trata-se agora de somar, para cada um dos pontos do original (A), as três tonalidades ponderadas e comparar o resultado com a tonalidade do original. Para tanto, na fig.17 está representada a presença de mais quatro cilindros xerográficos, além de Aj: 12 (Σ+), 13 (A-), 14 (A+) e 15 (Σ-). Estes cilindros têm os “toners” 21 e os receptores 26 desligados, recebem inicialmente cargas superficias positivas (12 e 14) ou negativas (13 e 15) e, em seguida: —o cilindro 12, girando no sentido normal, recebe sucessivamente as imagens (A1), (A2) e (A3), que iluminam a mesma área e provocam descargas superpostas, o que equivale dizer que finalmente as três imagens terão sido somadas quanto às suas tonalidades, encerrando, em cargas positivas superficiais, o “ negativo “ de Σ (isto é, Σ-), ou, o que é mais importante, uma imagem complementar que consiste na ausência de cargas e que é o “ positivo “de Σ (ou Σ +); —o cilindro 15, girando em sentido contrário, também recebe em sucessão as imagens (A1), (A2) e (A3), mas sendo carregado negativamente, a soma resultante será também negativa, obtendo-se o “negativo” de Σ (ou Σ-) em cargas negativas e seu complemento Σ + em buracos (ou ausência de cargas); —o cilindro 13, carregado positivamente, gira no sentido inverso e recebe a imagem do original (A) refletida por um painel 4 (V. fig.15) revestido de uma cor branca pura (suspensão coloidal de amalgama de prata, óxido de zinco ou de titânio), produzindo a imagem latente que é o “negativo” de A (ou A) em cargas positivas, ou o seu complemento, que é o “ positivo “ de A (ou A+) em ausência de cargas (ou buracos); —o cilindro 14, carregado negativamente e girando em sentido normal, também reflete a imagem do original (A), produzindo a imagem latente do “ negativo” de A (A-) em cargas negativas e seu complemento, o “positivo” de A (ou A+), em buracos, ou ausência de cargas. Pesquisa Naval Nº 15, Setembro de 2002 207 Aproximando agora os cilindros 12 e 13 para superpor as duas imagens latentes superficiais (V.fig. 18), uma parte das cargas positivas (+) de A- cairá em cima de cargas positivas (+) de A – cairá em cima de cargas positivas do “ negativo “ de Σ , não produzindo ali qualquer eleito qualitativo suplementar (quanto muito uma saturação em cargas positivas); a outra parte dessas cargas cairá nos buracos de Σ-, introduzindo ou acrescentando cargas positivas que diminuirão cada buraco de quantia (Σ - A) desejada, de modo que a imagem latente “ positiva “ resultante no cilindro 12 será exatamente a da quantia de branco a ser acrescentada para restabelecer o relevo cromático. Uma vez revelada, ela produzirá o clichê CB. Da mesma forma, aproximando os cilindros 14 e 15 e superpondo, assim, o Σsobre o A+ (V. fig.19), uma parte das cargas negativas de Σ cairá em cima das cargas negativas superficiais de A-, sem alterar o sinal resultante, enquanto que a outra parte encherá parcial ou totalmente os buracos de A+, o resultado desta “ osculação “ sendo a diferença (A - Σ) de cor preta (N) a ser acrescentada a cada “ pixel “ para restabelecer o relevo cromático. Revelando essa imagem latente do cilindro 14, resultará o clichê CN. Como os pontos A e A’ da fig.2 estão em zonas diferentes, não haverá nenhuma região comum entre os dois clichês, mas isto não quer dizer que CN é o negativo de CB, porque nas zonas onde não há branco haverá um cinzento de intensidade variável correspondente ao vB, e não simplesmente uma cor preta (em outras palavras, a densidade dos pigmentos pretos será variável, de acordo com a tonalidade cinzenta de respectivo “ pixel “). Obtidos, assim, os cinco clichês CJ (j = 1, 2, 3, B, N), serão os cilindros 12, 13, 14 e 15 religados, redirecionados e os respectivos recipientes 21 alimentados com “ tornes “ Tj da cor j. Inserindo os clichês Cj nos cilindros 11 a 15, o suporte 26 passará sucessivamente por cada um e receberá uma das impressões. A ordem recomendada “ a priori “ seria: CN, CB, C1, C2 e C3, supondo que C1 é a cor mais escura e C3 a mais clara das três fundamentais, mas a prática poderá indicar outras ordens de preferência. O mesmo se aplica aos cilindros metálicos reticulados utilizados numa impressora comum. Cabe ainda fazer uma observação relativa ao conteúdo em cor (Aj) de cada clichê Cj. Com efeito, da imagem projetada sobre o painel 4 da fig.15, a superfície do painel, pintada na cor (Aj) refletirá não apenas essa cor, mas também a proporção de (Aj) contida no branco (B) existente em (A). Contudo, na impressão dos clichês sobre o suporte final, as três porções de cores se recombinarão para restituir o branco que lhes deu origem, de modo que não haverá excesso de nenhuma das três cores de base, sendo assim reconstituída a aparência original e garantida a fidelidade da reprodução. 208 Pesquisa Naval Nº 15, Setembro de 2002 Fig.18 Superposição das imagens latentes obtidas nos cilindros 12 e 13 para produzir o clichê CB Fig .19 Superposição das imagens latentes obtidas nos cilindros 14 e 15 para produzir o clichê CN Pesquisa Naval Nº 15, Setembro de 2002 209 Todas as operações acima descritas poderão ser automatizadas sem qualquer dificuldade, limitando a intervenção do operador a ligar a máquina, escolher o tamanho da reprodução e o número de cópias, substituir folhas do suporte mal impressas e desligar a máquina, além de cuidar do arquivamento correto dos clichês. Quanto à possibilidade de simplificar a obtenção dos clichês CB e C N, substituindo simplesmente CB pelo suporte branco e CN pela imagem em preto-e-branco (mais exatamente: em tons de cinzento) do original (A), deve-se observar que isto redundaria na substituição de B por C (V. fig.2) e a obtenção de um ponto A” diferente de A: todos os pontos situados acima do plano A1A2A3 seriam mais escuros e os abaixo mais claros que o original, de modo que a reprodução seria infiel por reduzir ou aumentar, em proporções variáveis, o relevo cromático. 6 - Conclusões A tricromia, tão largamente utilizada na imprensa colorida, introduz duas grandes distorções nas imagens reproduzidas: uma, devida ao fato das características óticas dos filtros utilizados na extração dos três clichês serem bastante diferentes das características óticas das tintas utilizadas na impressão; e outra, decorrente do fato de com três cores somente ser possível reproduzir as cores existentes no triângulo por elas delimitado, o que simplesmente elimina todo o relevo cromático. Uma reprodução fiel em cores deverá, portanto, eliminar essas duas distorções. Para corrigir a primeira distorção, só existe um caminho: em vez de utilizar filtros coloridos e obtenção de clichês por transparência, recorrer a painéis coloridos com as cores básicas que serão utilizadas na reprodução e fazer a extração dos clichês por meio de reflexão. A captação de cada imagem parcial requer a mobilização de vários recursos tecnológicos avançados (tais como foto-células, espelhos semi-prateados, etc.), mas é perfeitamente possível garantir a fidelidade da análise dos “pixels” na operação de exploração (“scanning”) e da obtenção dos clichês de impressão na reprodução simultânea de toda a superfície do documento original. A segunda distorção é um pouco mais sutil e sua eliminação requer o conhecimento exato das coordenadas óticas de cada “pixel” a ser reproduzido. Se o “pixel” se encontrar na zona clara do hexaedro cromático (ou seja, no tetraedro A1A2A3B, A123 sendo as três cores básicas e B o branco), acrescentar-se-á uma porcentagem de branco, e se o “ pixel “ estiver situado na zona escura (ou seja, no tetraedro NA1A2A3, N sendo o preto) acrescentar-se-á uma porcentagem de preto, para restabelecer o relevo cromático. No caso do “scanning” e/ou da reprodução pontual, um mecanismo calculador permite definir os quatro coeficientes kj de ponderação de cada cor Aj (j = 1, 2, 3 ou 4, com 4 = B ou N). Já no caso da reprodução superficial integrada por meio de clichês, a confecção dos clichês C1,2,3 não apresenta maiores dificuldades, mas a obtenção dos clichês complementares CB e CN depende de técnicas inteiramente novas de utilização dos cilindros xerográficos, a fim de aproveitar a presença simultânea do “ positivo “ (A+) e do “ negativo “ (A-) de uma imagem eletrostática A, para realizar a soma eletrostática Σ das tonalidades ponderadas das três cores A1,2,3 (já que a somação ótica é inexequível) e a diferença, eletrostática também, entre Σ + e o original A- para o clichê CB e entre A+ e Σ - para o clichê CN. Desta forma, será possível restabelecer a fidelidade cromática e o barateamento das reproduções, contribuindo, assim, para aprimorar os aspectos estéticos das artes plásticas e melhorar a apreciação visual do mundo colorido. 7 – Referências Bibliográficas BOLL, Marcel & DOURGNON, Jean Le Secret des Coulers Paris, PUF, 1956, Coll. “Que Sais-je? “ 128p. CONTAINER Corp. of America Color Harmony Manual Chicago, 3 rd ed. 1948 (680 chips) Sistema de W.Ostwald. CORAL Dulux Guia de Cores e Produtos folheto 16 p., 1998. FER, Edmond Solfège de la Couleur Paris, Dunod, 1953, 28 p. +14 planches. JUDD, Deane B. Colorimetry NBS Circular 478 (1950) Washington D.C. 56 + 4 p., 128 ref. JUDD, Deane B. Color in Business, Science and Industry N. York, J. Wiley & Sons Inc., 1952, 402 + 8 p., 106 fig., cca 400 ref. KELLY, K.L. Color Designations for Lights, in: J. Research NBS 31, 271 (1943) RP 1565 e J. Opt. Soc. Am. 33, 627 (1943). KORNERUP A . & WANSCHER, J . H. Methuen Handbook of Color, London, 2nd ed. 1963,244p. , incl. 30 plates 8 x 6 chips. LORILLEUX & Cie, Ch. Catalogue de 3 x 120 coulers, 1950, 15 p. MAERZ, A. & PAUL, M. Rea A Dictionary of Color Mc Graw-Hill, N. York, 1950, 2nd ed. 208 p., incl. 56 plates of 6 x 12 colors (7056 cores). MALRAUX, André Le Musée Imaginaire Paris, Gallimard, 1965, 262 p., 172 ilustrações. MUNSELL Color Co. Munsell Book of Color, Baltimore, V. I 1929, V. II 1943, 40 charts. NÉOCHROME, Soc. Des Encres d’Imprimerie Catalogue (1950) 8 p. + 18 sections. ONIGA, Teodoro Processo e Aparelho de Reprodução Fiel em Cores, pat. dep. INPI –RJ n. 7191, de 27/06/2001. ONIGA, Teodoro Reprodução Fiel em Cores por Meio de Pentacromia Xerográfica, pat. dep. INPI-RJ n. 1657, 20/02/2002. Xerografia – V. artigo ELECTROPHOTOGRAPHY (autores: Nicolaus E. WOLFF, Consultor, e Jonh W. WEIGL, da Xerox Corp.), in: Encyclopedy of Science and Technology vol. 8, p. 794 – 826. XVI Capítulo JAVAMIX: SISTEMA DE APOIO À DECISÃO PARA AVALIAÇÃO DE PLANOS DE VARREDURA DE MINAS CC José Corrêa Paes Filho, MSc. Centro de Análises de Sistemas Navais Ilha das Cobras, ed. 8 - 3º Andar - AMRJ Centro - Rio de Janeiro - RJ e_mail: [email protected] Alan Washburn, PhD. Professor Titular do Departamento de Pesquisa Operacional. Naval Postgraduate School – Monterey, CA e_mail: [email protected] Resumo JAVAMIX é um Sistema de Apoio à Decisão (SAD), em Java, para varredura de campos minados marítimos com vários tipos de minas presentes. O SAD usa simulação de Monte Carlo e é baseado na opção Monte Carlo do SAD MIXER (Washburn, 1995). A interface homem máquina JAVAMIX permite ao usuário introduzir diferentes planos baseado nos meios e varreduras disponíveis e nos tipos de minas esperados. Para limpar o campo minado o usuário deve escolher um arquivo de parâmetros e estabelecer um plano de varredura. Ao final da simulação, tabelas, com o resultado da varredura, são apresentadas ao usuário numa janela do DOS, permitindo uma fácil visualização da aplicação tática do plano. O sistema foi concebido de modo a permitir futuros desenvolvimentos, tais como a implementação das outras opões do SAD MIXER e a introdução de novos parâmetros . 212 Pesquisa Naval Nº 15, Setembro de 2002 Abstract A Tactical Decision Aid (TDA) for mixed minefield clearance, JAVAMIX, was designed, developed and tested. The TDA uses a Monte Carlo Simulation and it is based on the Monte Carlo option of the TDA MIXER (Washburn, 1995). The JAVAMIX GUI allows the user to introduce different plans based on the sweep and resource types available and mine types expected. To clear the minefield the user is asked to choose a parameter file and to introduce a plan. Output tables are presented in a DOS window and permit the user to easily visualize if the chosen plan is tactically executable. The design of the system permits future developments such as the implementation of MIXER’s other options and the introduction of new parameters. 1. INTRODUÇÃO A guerra de minas é um aspecto da guerra naval extremamente importante. Apesar de muitas evidências, muitas Marinhas tendem a negligenciá-la. Por exemplo, nos últimos cinco meses da Segunda Guerra Mundial, a perda de navios japoneses devido a atuação de minas foi praticamente a mesma que a perda de navios americanos no Atlântico por ataque de submarinos alemães, durante todo o período da guerra [1]. Apesar da varredura de minas ser uma tarefa extremamente perigosa, este ramo da guerra de minas muitas vezes não é considerado uma das funções mais nobres de uma Marinha, principalmente por ser uma tarefa árdua e perigosa. Todas as Marinhas devem considerar os riscos que as minas impõem as suas esquadras e assegurar a manutenção e o desenvolvimento de suas capacidades para guerra de minas. Desde a década de 70, Sistemas de Apoio à Decisão vêem sendo desenvolvidos para ajudar os planejadores de contra-medidas de minagem. O SAD MIXER (Washburn, 1995) é um exemplo de sistema para varredura de áreas minadas com vários tipos de minas. Este foi implementado em Fortran e na sua forma atual só é utilizável nas mãos de especialistas, pelo fato do sistema não possuir interfaces visuais que facilitem sua utilização pelos usuários. 2. DEFINIÇÃO DO PROBLEMA O SAD MIXER possui quatro opções e uma delas é uma simulação de Monte Carlo. Dada a velocidade dos atuais computadores, este tipo de simulação consegue resultados próximos à realidade mostrando com isso uma boa aplicação tática. Este trabalho é responsável pelo design e desenvolvimento de um software em Java para implementação da opção Monte Carlo do SAD MIXER. O sistema resultante é chamado de JAVAMIX. Pesquisa Naval Nº 15, Setembro de 2002 213 3. DESIGN DO SISTEMA O IHM (Interface Homem Máquina) JAVAMIX permite ao usuário a introdução de diferentes planos baseado no tipo de varreduras e meios disponíveis e no tipo de minas esperados. Para limpar o campo minado o usuário deve escolher o arquivo de parâmetros desejado e estabelecer um plano de varredura. Tabelas apresentadas numa janela do DOS permitem ao usuário uma fácil visualização da aplicação tática do plano. O sistema permite futuros desenvolvimentos tais como a implementação das outras opções do SAD MIXER e a introdução de novos parâmetros. JAVAMIX permite ao usuário fazer as modificações desejadas no plano inicial na própria tela do computador. Depois de estabelecer seu plano de varredura o usuário pode rodar a simulação e verificar se o plano é executável. Baseado nos resultados da simulação o usuário pode decidir que modificações deseja efetuar no seu plano inicial. Todos os parâmetros são transcritos em arquivos de entrada e o usuário pode escolher qual arquivo desejar. Esta opção dá ao usuário uma grande flexibilidade por permitir que este use os parâmetros que julgar necessários baseado nos cenários. A Figura 1 mostra o design do sistema. Figura 1. Design do Sistema 4. CENÁRIOS E PARÂMETROS PARA VARREDURA Um dos mais importantes aspectos das ações de contramedida de minagem é a obtenção de um desejado grau de limpeza baseado num plano estabelecido. Para obter sucesso numa missão o primeiro passo é a definição do cenário. Este, para JAVAMIX, é uma área retangular que deve ser varrida pelos recursos disponíveis. Todos os parâmetros necessários são definidos num arquivo de parâmetros onde o planejador define os dados necessários para o cumprimento da missão. O planejador então, introduz no SAD JAVAMIX o nome do arquivo de parâmetros e o seu plano. A 214 Pesquisa Naval Nº 15, Setembro de 2002 Figura 2 mostra um plano de varredura com duas raias, uma raia com dois e outra com três passes. Figura 2. Cenário: passes e raias. A “raia” é definida como o ponto de entrada no campo minado por cada tipo de varredura, sendo que cada raia possui uma determinada posição no campo. O sistema define ainda “passe” como sendo o número de passagens de ida e volta numa determinada raia. JAVAMIX então, lê os parâmetros no arquivo selecionado usando a classe SimpleInput [2], que é um programa em Java desenvolvido para ler palavras e números de um arquivo texto. O planejador pode alterar o arquivo de parâmetros como desejado. Durante o processo de leitura, JAVAMIX captura todas as exceções apresentando ao planejador mensagens de erro indicando a falha. Por exemplo, se um valor de probabilidade com valor superior a um for introduzido, o sistema mostrará o erro. O arquivo de parâmetros deve estar no mesmo diretório que todas as classes de JAVAMIX. O cenário é definido pelos seguintes dados de entrada lidos no arquivo de parâmetros com as respectivas variáveis do programa JAVAMIX representadas em itálico: a. Tipos de minas (iMax). Quantidade de tipos minas esperados. b. Tipos de meios (kMax). Quantidade de tipos de meios disponíveis. Exemplo: navios, helicópteros e caça minas. Tipos de varreduras (jMax). Quantidade de tipos de varreduras possíveis de acordo com meios disponíveis. Um navio varredor pode ter dois tipos de varreduras disponíveis (mecânica e acústica). Contramedida de varredura (ind[j]). Para cada tipo de varredura, ind[j] = 0 indica ação de varredura e ind[j] = 1 indica ação de caça. Largura (width) do campo minado a ser varrido. c. d. e. Pesquisa Naval Nº 15, Setembro de 2002 215 f. g. Comprimento (length) do campo minado em milhas náuticas. Fator de ajuste trapezoidal (tr). Fator usado para atenuar as arestas das curvas de atuação (0 < tr < 1). h. Tempo de Busca (ht). Tempo, em horas, requerido para localização de uma mina por um determinado tipo de varredura. i. Erro de navegação (sig[j]). Desvio padrão, em jardas, para cada tipo de varredura. j. Uso do meio por tipo de varredura (h[k][j]). O uso conecta o tipo de varredura e o meio. O uso h[k][j] = 2 indica que a detonação letal destruirá o varredor e o dispositivo de varredura, h[k][j] = 1 indica que o meio k é requerido pelo tipo de varredura j, mas não este não é vulnerável e h[k][j] = 0 indica que o meio k não utiliza a varredura tipo j. k. Seqüência de entrada no campo minado (seq[j]) de um determinado tipo de varredura j. l. Tempo de guinada (turn[j]). Tempo, em horas, necessário para realização das guinadas entre passes. m. Velocidade de varredura (vel[j]) de um varredor j. n. Serviço (duty[j]). Fator adimensional usado para converter tempo no passe para a quantidade de horas realmente requeridas (hours[j]). hours[j] = duty[j] x (turn[j] + length / vel[j]) o. p. q. r. s. Probabilidade de Setagem dos atuadores de cada tipo de mina (act[i]), onde 0 < act[i] < 1. Fronteira de Atuação (a[i][j]). Largura da curva de atuação para cada tipo de mina com valores maiores que zero (a[i][j] > 0). Probabilidade de Atuação (b[i][j]). Altura da curva de atuação para cada tipo de mina com valores entre 0 e 1 (0 < b[i][j] < 1). Fronteira Perigosa (af[i][j]). Distância dentro da qual varrer uma mina pode ser letal para a varredura, com valores maiores do que 0 (af[i][j] >0). Probabilidade de Avaria condicionada na Detonação (bf[i][j]), com valores entre 0 e 1 (0 < bf[i][j] < 1). 5. PLANO DE VARREDURA Depois de definir o cenário, ao escolher o arquivo de parâmetros, o SAD JAVAMIX apresenta ao usuário os parâmetros lidos para que este possa checá-los e proceder para o próximo passo. Caso haja correções a fazer, o usuário deverá modificar o arquivo de parâmetros e reiniciar o programa. Depois de checar os dados, o usuário então, introduz seu plano tático. O SAD JAVAMIX orienta o usuário através da IHM e permite a introdução dos seguintes dados: 216 Pesquisa Naval Nº 15, Setembro de 2002 a. b. c. d. e. 6. Quantidade de meios de cada tipo (nu[k]). Quantidade de raias (ntrk[j]). Posição das raias (x[t][j]). Quantidade de passes por raia (runs[t][j]). Média (kzA[i]) e Desvio Padrão (kzB[i]) para a quantidade de minas esperadas. QUANTIDADE DE MINAS PRESENTES JAVAMIX define o número de minas presente assim como Washburn [4] o faz no SAD MIXER. MIXER difere dos atuais SAD de guerra de minas por necessitar que o usuário escolha a quantidade esperada e um desvio padrão para cada tipo de mina. O desvio padrão indicará o quanto a quantidade de minas poderá estar diferente do valor escolhido. MIXER interpreta a escolha da quantidade como uma média µ da quantidade aleatória X de minas realmente presentes na área, sendo σ o desvio padrão e σ ² a variância de X. Cada repetição da simulação corresponde a um valor diferente de X, mas que obedece a uma distribuição com média µ e variância σ ². A variável aleatória X, quantidade de minas de um tipo particular, não é totalmente determinada pelos dois dados de entrada µ e σ . Alguma assunção sobre sua distribuição deve ser feita. MIXER considera que X pertence a uma distribuição Katz, ue estão relacionados a µ e σ pelas classe esta indexada por parâmetros equações: µ = α (1 − β ) (1.1) σ 2 = α (1 − β ) (1.2) 2 Os requisitos para α e β são e α = 0 e β < 1 , mais uma restrição adicional para < 0. As principais propriedades da distribuição Katz são reportadas na referência [2]. A classe é composta em geral, pelas distribuições binomial negativa ( Poisson ( = 0) e binomial ( > 0), < 0). A distribuição Katz é fechada quanto a operação de soma e subtração , fato este que a torna útil para estudos de guerra de minas. Numa análise mais precisa, suponhamos que cada mina seja removida de maneira independente, com probabilidade p e que a quantidade de minas removidas seja y. Portanto a quantidade de minas remanescentes, dado y, continua obedecendo a uma distribuição Katz, mas σ Pesquisa Naval Nº 15, Setembro de 2002 217 com seus parâmetros revisados segundo as seguintes equações: α ′ = (1 − ρ ) (α − βy ) β ′′ = (1 − ρ )β (1.3) (1.4) As equações (1.3) e (1.4) são analisadas na referência [4]. A distribuição Katz tem mostrado ser a maior classe fechada quanto a operação de soma e subtração, levando-a a ser conhecida e explorada por vários estudos sobre guerra de minas. A vantagem de se trabalhar com uma classe fechada, é que se a varredura de minas for considerada uma sucessão de estágios de soma e subtração, então a quantidade de minas em cada estágio obedecerá sempre a um tipo de distribuição. Assim sendo, rodar MIXER várias vezes num processo de varredura é o mesmo que rodá-lo uma vez para cada estágio da varredura. Em geral não há restrições para os valores de µ e σ , apenas estes não podem ser negativos. Para alguns pares ( µ , σ ) não há distribuição Katz. Por exemplo, não há distribuição Katz se µ = 7,5 e σ = 0, visto que Katz está concentrada em inteiros não negativos. Ao invés de parar a simulação, nestes casos, MIXER aproxima os valores para uma distribuição Katz, modificando os valores de . Por exemplo, considerando ( µ , σ ) = (7,5, 0) como dados de entrada, MIXER fará ( α , β ) = (120, 7,5). Isto corresponde a uma distribuição binomial com 8 provas e probabilidade de sucesso igual a 15/16, onde a média é 7,5 e a variância é 15/32 ao invés de 0. Tais correções não serão necessárias se σ ² e” µ . Operacionalmente, o maior defeito da distribuição Katz é que esta não atribui um peso especial ao número 0, portanto X pode receber um valor 0 ou maior. 7. SIMULAÇÃO DE MONTE CARLO A simulação de Monte Carlo é um método que envolve amostragem aleatória, sendo aplicada a problemas que possam ser formulados em termos de probabilidade e que normalmente é executada por computador. Na guerra de minas, se aplicada com um grande número de interações, este tipo de simulação pode ser muito útil. Depois de ler o cenário e o plano de varredura, o SAD JAVAMIX solicita ao usuário a introdução do número de repetições, em centenas, desejada. As seguintes operações são efetuadas pela classe “Monte” durante a execução da simulação: a. Para cada tipo de mina, JAVAMIX gera uma quantidade de minas baseado numa distribuição Katz e designa uma posição transversal (xm[m]) para 218 Pesquisa Naval Nº 15, Setembro de 2002 cada uma e depois soma as quantidades armazenando o valor na variável mines. 8. b. JAVAMIX interpola, aleatoriamente, as minas ao longo da direção longitudinal da área a ser varrida e considera como minTyp[m]o tipo da m-ésima mina que os varredores encontrarão durante a varredura. Inicialmente, JAVAMIX atribui status = -1 para todas as minas ainda não varridas. c. Considerando os tipos de varredura na ordem seqüencial armazenada em seq[j], JAVAMIX realiza passes de ida e volta pelas raias até que todos os passes e tipos de varreduras tenham sido executados. Quando uma mina não varrida é encontrada, o sistema verifica se esta foi atuada. Havendo a atuação, o sistema verifica se a detonação foi letal para o meio considerado. Quando um tipo de varredura k é perdido, o sistema reduz o número de meios disponíveis em nun[k] e se necessário, reduz também o número de unidades capazes de realizar determinada varredura simultaneamente. d. Depois que toda a varredura é executada, o sistema faz passar pelo campo o tráfego alvo (navios alvos) usando a mesma lógica usada com os varredores. e. Ao final, o sistema coleta todos os resultados em médias e apresenta ao usuário o resultado da varredura. RESULTADO DA VARREDURA O resultado da varredura é apresentado numa janela do DOS (Figura 3) e é interpretado da seguinte maneira: a. O cabeçalho mostra o número de repetições introduzida pelo usuário. b. A primeira tabela apresenta a quantidade de passes realizados em relação ao planejado. Por exemplo, somente 60,60% dos passes planejados, para a varredura mecânica por helicóptero, foram completados, pois a perda da varredura pela atuação das minas provocou o fim prematuro desta. c. A segunda tabela mostra a eficiência das varreduras para varrer minas. d. A terceira tabela mostra a eficiência das minas para destruir as varreduras. e. Os últimos três resultados correspondem à Ameaça Seqüencial (probabilidade o i-ésimo navio alvo ser destruído) para os dez navios que passaram pelo campo já varrido, a média das perdas dos dez navios alvos e o tempo médio necessário a realização de todo o plano de varredura. Pesquisa Naval Nº 15, Setembro de 2002 219 Figura 3. Resultado da Varredura. 9. APRESENTAÇÃO DA IHM DO SAD JavamixBR (versão em português do SAD JAVAMIX) Figura 4. IHM - Página 1. A Página 1(Figura 4) apresenta as opções e as instruções iniciais ao usuário. O usuário então, introduz o nome do arquivo de parâmetros desejado e escolhe uma opção. As opções “Ótimo”, “Ensaio” e “Realidade” não estão disponíveis (em construção). O usuário seleciona a opção “Monte”, clicando com o mouse. 220 Pesquisa Naval Nº 15, Setembro de 2002 Figura 5. IHM - Página 2. A Figura 5 apresenta os parâmetros lidos pelo sistema para que o usuário possa verificar se estes estão corretos. Figura 6. IHM - Página 3. A Figura 6 apresenta a segunda parte dos parâmetros lidos pelo sistema. Figura 7. IHM- Página 4. Pesquisa Naval Nº 15, Setembro de 2002 221 A Página Figura 7 mostra ao usuário os tipos de meios disponíveis para este possa introduzir as quantidades desejadas. Figura 8. IHM - Página 5. A Página 5 (Figura 8) apresenta ao usuário as varreduras disponíveis de modo que este possa entrar o número de raias desejado para cada varredura. Figura 9. IHM - Página 6. O número de campos disponíveis, para introdução da posição das raias, é baseado no número de raias escolhido na Página 5 (Figura 8). Cada raia possui uma posição no campo minado entre a posição mais a esquerda (0) e a mais à direita. Neste caso, os valores são entre 0 e 1000 jardas. 222 Pesquisa Naval Nº 15, Setembro de 2002 Figura 10. IHM - Página 7. A Página 7 (Figura 10) apresenta o número de varreduras disponíveis, de modo o usuário possa introduzir o número de passes por raia. O número de passes por raia é baseado no número de raias definido na Página 5 (Figura 8). Um passe corresponde a um passe de ida. Dois passes correspondem a um de ida e outro de volta e assim sucessivamente. Não é necessário definir o número de passes para os alvos pois estes só realizam passes singelos. Figura 11. IHM - Página 8. A Página 8 (Figura 11) apresenta os tipos de minas esperados. O usuário introduz a média e o desvio padrão para cada tipo de mina clicando nas barras de rolagem. Quando o usuário, por exemplo, seleciona a mina “FNDMAG”, um gráfico dinâmico, com a distribuição Katz, é apresentado (Figura 12). O gráfico apresentado é a função de distribuição de probabilidade (F.D.P.) da variável aleatória X (quantidade de minas) no ponto Xi (valor entre 0 e 1), que representa a probabilidade de uma determinada quantidade de minas X ser igual ou menor que Xi. Pesquisa Naval Nº 15, Setembro de 2002 223 Figura 12. Distribuição Katz. Figura 13. IHM - Página 9. A Página 9 (Figura 13) apresenta a opção para executar a simulação, onde o usuário escolhe o número de repetições desejado em centenas. 10. CONCLUSÃO A descrição do software JAVAMIX, com todos os seus aspectos, quais sejam as definições de cenários e parâmetros de varredura, o plano de varredura, a quantidade de minas presentes, a simulação de Monte Carlo propriamente dita e a apresentação do resultado da varredura, evidenciam a complexidade de um problema de Guerra de Minas. A gama de parâmetros envolvidos enfatiza também a dificuldade que seria construir um modelo analítico em detrimento da construção de uma simulação para reprodução do problema da varredura de minas. A quantidade de parâmetros evidencia ainda, que a simulação, reproduzida como exemplo, envolve a utilização de diferentes meios, tipos de minas e tipos de varredura. Os meios por exemplo, são helicópteros, navios varredores e de caça de minas e mergulhadores de combate. Uma situação como esta para ser reproduzida na prática envolveria um custo alto de material e pessoal, visto que são meios com alto índice de sofisticação e que necessitam de alto grau de preparação e adestramento dos seus operadores. Hoje, a velocidade e a evolução dos computadores nos permitem simular com grande fidelidade muitos problemas reais, que envolvam riscos materiais e humanos, como por exemplo, a varredura de minas marítimas. 11. REFERÊNCIAS BIBLIOGRÁFICAS Hartmann, K., and Truver, S. Weapons that wait, Naval Institute Press, pp. 15-16, 1991. Barnes, David J. Object Oriented Programming with Java: An Introduction, Prentice Hall, pp. 366-372, 2000. Johnson, N., and Kotz. Discrete Distributions, Wiley, New York, pp. 37-43, 1969. Washburn, A., MIXER: A TDA for Mixed Minefield Clearance, Naval Postgraduate School Technical Report, NPS-OR-95-011PR, Monterey, CA 93943, 1995. Paes Filho, José C., JAVAMIX: A Tactical Decision Aid to Evaluate Minefield Clearance Plans, Naval Postgraduate School Master’s Thesis, Monterey, CA, 2001. XVII Capítulo SISTEMA DE APOIO À DECISÃO ESPACIAL PARA ROTEAMENTO DE VEÍCULOS: APLICAÇÃO NA MARINHA CC Rogério Pesse Centro de Análises de Sistemas Navais e-mail: [email protected] Roberto Diéguez Galvão Programa de Engenharia de Produção, COPPE/UFRJ e-mail: [email protected] Júlio Francisco Barros Neto Universidade Federal do Ceará e-mail: [email protected] Resumo Este trabalho apresenta o uso de um algoritmo de roteamento de veículos com base em busca tabu acoplado a um Sistema de Apoio à Decisão Espacial (SADE), para roteamento com frota heterogênea em plataforma visual georeferenciada. Como exemplo de aplicação prática foi utilizado o roteamento da frota de veículos da Base de Abastecimento da Marinha no Rio de Janeiro, na distribuição do material necessário às diversas organizações da Marinha em áreas vizinhas. Abstract This paper presents the use of a tabu search vehicle routing algorithm embedded into a Spatial Decision Support System, for routing an heterogeneous fleet in a visual geo-referenced platform. As example of a practical application we used the routing of the fleet of vehicles of the Navy Supply Base in Rio de Janeiro, in the distribution of material to several Navy organizations in the neighboring areas. Palavras-chave: Roteamento de veículos; Busca tabu; Sistemas de Apoio à Decisão Espacial. Key words: Vehicle routing; Tabu search; Spatial Decision Support Systems. 226 Pesquisa Naval Nº 15, Setembro de 2002 1. INTRODUÇÃO Apesar do crescente desenvolvimento dos computadores, resolver problemas NP-Completos por métodos exatos ainda é restrito, tornando-se em geral proibitivos os tempos computacionais requeridos para solução naqueles de maior porte. De maneira a contornar este fato utilizam-se heurísticas, que buscam obter soluções próximas à solução ótima com esforço computacional reduzido. No início de seu desenvolvimento as heurísticas visavam resolver problemas específicos, não sendo generalizáveis para uma gama maior de problemas. Nos anos 80 começaram a surgir métodos heurísticos mais abrangentes. A idéia mais interessante surgiu da união entre os conceitos de Otimização e Inteligência Artificial, resultando daí as Metaheurísticas ou Métodos Inteligentemente Flexíveis. Neste trabalho é aplicada a Busca Tabu como técnica para solução de um problema prático de roteamento de veículos com frota heterogênea (PRVHE). O algoritmo desenvolvido foi acoplado a uma base de dados georeferenciada, resultando um Sistema de Apoio à Decisão Espacial (SADE) – o GEOREDES, disponível para aplicação a um problema de roteamento da Base de Abastecimento da Marinha no Rio de Janeiro (BAMRJ). 2. BUSCA TABU: CONCEITOS Um dos métodos desenvolvidos com o objetivo de superar ótimos locais é a Busca Tabu (Tabu Search); entre os desenvolvimentos pioneiros nesta área podemos citar GLOVER (1986) e HANSEN (1986). Um Algoritmo Geral da Busca Tabu foi definido por HERTZ (1992) e é descrito a seguir. Sejam: X - conjunto de soluções viáveis; N(s) - conjunto de soluções vizinhas para cada solução s em X; VM - subconjunto de N(s) que corresponde às soluções vizinhas (ou soluções candidatas) de “s” geradas em cada iteração; s’ = s ⊕ m ∈ VM ⊆ N(s) - significa que s’ é obtido aplicando-se uma modificação (movimento ou trocas entre os clientes e suas rotas) “m” em s ∈VM; Critério de Aspiração (Função A) - se “m” é um movimento que está na Lista Tabu, mas f(s ⊕ m) < f(s), o movimento é realizado. - Inicialização Escolha uma solução inicial s em X; Escolha nitermax; { nitermax = máximo número de iterações} s* := s; { s* = melhor solução encontrada até o momento} Pesquisa Naval Nº 15, Setembro de 2002 227 - niter := 0; { inicialização de um contador para iterações} - Miter := 0; { última iteração onde houve alguma melhora} - Inicialize Kmax; { limite de iterações sem melhora} - InicializealistaTabu,T := ∅; - Inicialize o critério de aspiração (Função A); Enquanto { niter ≤ nitermax } Faça Enquanto { (niter - Miter < Kmax) e (f(s) > f(s*) } Faça - niter := niter + 1; - Gere um conjunto de soluções VM ⊆ N(s) - T ; ou - Aplique Aspiração → s’ = s ⊕ m com “m” sendo Tabu porém f(s ⊕ m) < f(s); - Escolha a melhor solução s’ em VM tal que f(s’) = Min f(s) e s ∈ VM; - Atualize T { T := T - (solução mais antiga) ∪ [s ⊕ m]}; SE f(s’) < f(s*) então - s* := s’ ; - Miter := niter; - s := s’ ; Fim Enquanto Fim Enquanto Término. 2.1 MECANISMOS DA BUSCA TABU: INTENSIFICAÇÃO E DIVERSIFICAÇÃO 1. 2. 3. 1. 2. 3. 4. A Intensificação tem por base: A modificação das regras de seleção para fomentar combinações de movimentos com características das “boas” soluções encontradas, incorporando atributos das melhores soluções com a finalidade de gerar melhores soluções; Voltar a regiões atrativas para examiná-las de forma mais completa; Diminuir o esforço computacional. A Diversificação tem por base: Redirecionar a busca para regiões ainda não exploradas, modificando as regras de seleção para incorporar atributos de soluções de pouca freqüência de ocorrência (ao contrário da Intensificação); como exemplo utilizam-se “penalidades” para forçar determinado movimento; O recomeço parcial ou total do processo de solução; O propósito de impedir que os processos de busca entrem em ciclo; A exploração mais completa do espaço de soluções. 228 Pesquisa Naval Nº 15, Setembro de 2002 Maiores detalhes sobre a Busca Tabu podem ser encontrados nos tutoriais e revisões bibliográficas produzidos por GLOVER (1989b, 1990a e 1990b). 3. SOLUÇÃO DE UM PROBLEMA DE ROTEAMENTO DE VEÍCULOS COM FROTA MISTA/HETEROGÊNEA UTILIZANDO A BUSCA TABU O Problema de Roteamento de Veículos (PRV) foi formulado pela primeira vez por DANTZIG e RAMSER (1959) e posteriormente por BALINSKI e QUANDT (1964); CLARKE e WRIGTH (1964) apresentaram o primeiro algoritmo heurístico para sua solução. Resolver um PRV básico consiste em construir um conjunto de rotas de custo mínimo que atenda às necessidades de demanda de todos os clientes, respeitando os limites de capacidade dos veículos e distâncias máximas a serem percorridas pelos veículos de entrega (com início e término das rotas nos depósitos). As referências sobre o assunto podem ser encontradas por exemplo em BODIN et al. (1983) e LAPORTE (1992). A Busca Tabu, aplicada a um PRV, tem como base os seguintes passos: 1. Geração de um conjunto de soluções iniciais viáveis (conjuntos de rotas); 2. Armazenamento da melhor solução encontrada; 3. Geração de um conjunto de soluções vizinhas a cada iteração (movimentos); 4. Aceitação de movimentos que melhorem a solução do problema, passando estes movimentos a fazer parte de uma lista Tabu por determinado número de iterações; 5. Aplicação de critérios de aspiração que retirem movimentos da lista Tabu caso estes venham a melhorar a solução do problema; 6. Aplicação eventual de mecanismos de intensificação e diversificação da busca; 7. Formulação de um critério de parada. 1. 2. 3. 4. 5. Uma formulação básica para o PRVHE utilizando a Busca Tabu tem por base: Um conjunto Ψ = {1,..., K} de tipos de veículos diferentes; Veículos do tipo k ∈ K têm capacidade Qk; A disponibilidade de veículos do tipo k é de nk veículos; O custo de roteamento para ir do cliente i ao cliente j com o veículo do tipo k é di j k; A utilização de um veículo do tipo k também implica em incorrer em um custo fixo fk. No caso do PRVFM – “PRV com Frota Mista” (caso especial do PRVHE), procura-se determinar uma frota de veículos (tamanho e composição) que minimize a soma dos custos fixos e de roteamento, relaxando o PRVHE da seguinte forma: • os custos de roteamento são os mesmos para todos os tipos de veículos, isto é, di j k = d i j V k, k∈Ψ; e • o número nk de veículos de cada tipo não é limitado (nk = ∞ , k ∈ Ψ). Pesquisa Naval Nº 15, Setembro de 2002 229 Dentre as formulações atuais para o PRVHE (onde a frota é imposta) e o PRVFM (onde a frota é determinada no processo de solução do problema), pode ser destacada a de OSMAN e SALHI (1996), resolvida por um algoritmo de busca Tabu. Sejam: “O” um depósito sem tempo de serviço e com demanda zero; K = um conjunto de diferentes tipos de veículos, K = {1,...,k max}; Fk = custo fixo do veículo do tipo k, k∈K; Q k = capacidade do veículo do tipo k, k∈K; Tk = máximo tempo de viagem para o veículo do tipo k, k∈K; v = variável de decisão que indica o número total de rotas obtidas; V = conjunto selecionado de veículos de diferentes tipos, V= {1,..., v}, V ⊆ K; N = conjunto de clientes, N = {1,...,n}; qi = demanda do cliente i, i∈N; δi = tempo de serviço para o cliente i, i∈N; di j = distância entre os clientes i e j, di j = d ji V i, j ∈ N ∪ {O}; di = distância até o cliente i a partir do cliente que o precede; α k = custo variável por unidade de distância para o veículo do tipo k; βk = fator de tempo por unidade de distância para o veículo do tipo k; Rp = conjunto de clientes servidos por um veículo v ∈ V, configurando-se uma rota de pontos; σ = função σ: V → K; σ(p) indica o veículo de menor capacidade viável para a rota Rp; πp = rota do Problema do Caixeiro Viajante (PCV) que serve Rp∪{O}, envolvendo clientes e depósito; πp(i) indica a posição do cliente i em πp; D(π πP) = distância total da rota πp; T(π πp) = tempo total de viagem na rota πp; C(π πp) = total dos custos fixos e variáveis (de roteamento) da rota πp; S = solução viável, definida como S = {R1,...,Rv}; Π = conjunto de todas as rotas de caixeiro viajante em S, Π = {π1,...,πv}. O problema consiste em: Minimizar C (S ) = ∑ C (π S ,Π ,v p ) R p ∪ Rq = N e R p ∩ Rq = ∅ s. a ∑ qi ≤ Qσ ( p ) i∈R p D (π p ) = ∑ i∈R p ∪{O} diπ p (i ) V p∈V (1) Vp≠q∈V (2) V p∈V (3) V p∈V (4) 230 Pesquisa Naval Nº 15, Setembro de 2002 T (π p ) = βσ ( p ) xD(π p ) + ∑ δ i ≤ Tσ ( p ) i∈R p C (π p ) = α σ ( p ) xD (π p ) + Fσ ( p ) Vp ∈ V (5) Vp ∈ V (6) A função objetivo minimiza os custos totais de todas as rotas π p ; as restrições (2) garantem que cada cliente é suprido por uma e apenas uma rota; as restrições (3) asseguram que a capacidade de cada veículo não é excedida. As restrições (4) representam a soma total das distâncias de cada rota , enquanto que as restrições (5) garantem que o tempo máximo de viagem para cada veículo não é excedido. Finalmente, as restrições (6) representam o custo total de cada rota. 3.1 PROCEDIMENTO DE BUSCA TABU PARA O PRVFM (OSMAN E SALHI, 1996) Passo 0: Inicialização Gerar uma solução inicial S para o PRVFM; Fazer melhor solução corrente Smelhor := S; Avaliar todos os movimentos na vizinhança N(S); Fazer TABL := lista Tabu; Fazer t := tamanho da lista Tabu; DS := estrutura de dados especial para armazenagem de atributos dos movimentos, composta de duas matrizes: MATRIZDS e MATRIZDSINFO; MaxMelhor := número limite de iterações sem melhoria de Smelhor; Fazer : nbiter := 0 (contador do número da iteração corrente); Fazer : melhoriter := 0 (contador do número da iteração da melhor solução); Passo 1: Lista de Soluções Candidatas Determinar, usando a estrutura de dados DS, o conjunto dos melhores movimentos na vizinhança (lista elite), N*(S) ⊆ N(S); Atualizar DS após cada iteração; Passo 2: Seleção Estratégica Escolher a melhor solução viável S ∈ N*(S); Fazer Smelhor := S e nbiter := nbiter + 1; Se C(S) < C(Smelhor), então fazer Smelhor := S e melhoriter := nbiter; Armazenar na lista Tabu TABL os atributos dos movimentos executados; Passo 3: Critério de Parada Se { (nbiter – melhoriter) > MaxMelhor }, então Pare; Senão volte ao Passo 1. Pesquisa Naval Nº 15, Setembro de 2002 231 3.2 ANÁLISE DOS MOVIMENTOS PARA O PRVFM Dada uma solução corrente S, há três tipos de operadores que geram as novas soluções S’∈N(S), através de movimentos de trocas (chamados λ-trocas) entre clientes de 2 rotas Rp e Rq: os movimentos (1,0), (0,1) e (1,1). O movimento (1,0) envolve o deslocamento de um cliente i∈Rp para a rota Rq; o movimento (0,1) o deslocamento de um cliente j∈Rq para a rota Rp e o movimento (1,1) a troca entre rotas de i∈Rp para Rq e de j∈Rq para Rp. Os custos de um movimento dependem do tipo de operador. No caso do operador (1,0) podemos fazer a seguinte análise quanto aos custos: sejam os clientes a e b respectivamente o antecessor e o sucessor do cliente i na rota πp de Rp. Sejam c e e respectivamente o antecessor e o sucessor de i na nova rota do caixeiro viajante π q de R q onde o cliente i é melhor inserido. As equações de custo ' ' das novas rotas do caixeiro viajante são as seguintes: D(π 'p ) = D(π p ) + d ab − ( d ai + d ib ) : nova dist. total da rota π p sem o cliente i; (7) D(π q' ) = D(π q ) + (d ci + d ie ) − d ce : nova dist. total da rota π q com cliente i; (8) C (π 'p ) = α σ ( p ) xD(π 'p ) + Fσ ( p ) : novo custo total da rota sem cliente i (9) C (π q' ) = α σ ( q ) xD (π q' ) + Fσ ( q ) : novo custo total da rota π q com cliente i; (10) ∆ (1,0) = [C (π 'p ) − C (π q )] + [C (π q' ) − C (π p )] :variação de custos. (11) Os cálculos para o operador (0,1) são semelhantes. Quanto ao operador (1,1), o movimento pode ser visto como uma combinação de dois deslocamentos simultâneos: deslocar o cliente i para o conjunto de clientes da rota através do operador (1,0) e deslocar o cliente j para através do operador (0,1). A mudança no valor da função objetivo ∆(1,1) devida ao operador (1,1) pode ser facilmente avaliada através dos dados já armazenados para computar as equações de novos custos dos movimentos (0,1) e (1,0), tendo-se atenção para alguns casos especiais que necessitam uma análise mais cuidadosa, como por exemplo no caso de se incluir um cliente i na rota entre dois clientes c e e da antiga rota onde o cliente j estava incluído. Depois de calculadas as três variações de custos ∆(1,0) , ∆(0,1) e ∆(1,1), toma-se a menor delas: δij = Mínimo { ∆(1,0) , ∆(0,1) , ∆(1,1) } . 232 Pesquisa Naval Nº 15, Setembro de 2002 Executa-se o processo para cada cliente i∈Rp e para cada cliente j∈Rq, de forma seqüencial em suas rotas. A busca sistemática consiste em escolher o menor dos δij encontrados entre os pares de rotas (Rp, Rq), que será o valor ∆(p,q); chamemos o movimento correspondente de 1IMpq (1-intertrocas). ∆ ( p ,q ) = Mínimoδ ij . i∈R p , j∈Rq A mudança no valor da função objetivo, ∆ = C(S’) – C(S), é então igual a ∆(p,q) caso o melhor movimento (1IMpq) seja executado utilizando-se os clientes das rotas (Rp, Rq). 3.3 O Uso de uma Estrutura de Memória Especial para o PRVFM Há dois níveis de estrutura de memória: (i) O primeiro nível dessa estrutura de memória armazena os custos de todos os movimentos 1-intertrocas 1IM, nas vizinhanças de S, que não são alterados a todo momento, como por exemplo o custo total da rota π p (já sem o cliente i), ' (ii) C(), que auxiliarão a avaliar custos como no movimento (1,1). O segundo nível é uma “Lista de Candidatos Elite”, que é principalmente usada para identificar o conjunto de todos os melhores movimentos 1IMpq, obtidos após cada iteração, quando todos os v(v +1)/2 pares de conjunto de rotas (πp, πq), com (Rp, Rq) para todo p< q ∈ V, são considerados através do mecanismo 1-intertroca para gerar a vizinhança N(S). MATRIZDSINF é uma matriz {v(v +1)/2} x A, onde A é o número de atributos requeridos para identificar um movimento em DS. Um valor padrão para A é seis e indica que seis atributos serão armazenados em MATRIZDSINF. Por exemplo, o melhor movimento 1IMpq entre (Rp, Rq) é identificado por seu valor ∆(p,q) em MATRIZDS; o índice “l” associado com o par (Rp, Rq), que é usado para identificar os outros atributos em MATRIZDSINF, consiste de: MATRIZDSINF (l, 1) = l, MATRIZDSINF (l, 2) = p, MATRIZDSINF (l, 3) = q, MATRIZDSINF (l, 4) = i, MATRIZDSINF (l, 5) = j, MATRIZDSINF (l, 6) = ∆(p,q). Nota-se que tanto MATRIZDSINF (l, 1) quanto MATRIZDSINF (l, 6) poderiam ser ignorados pois já são arquivados em MATRIZDS, porém são mantidos por conveniência. Se ∆(p,q) é associado com operadores (1,0) ou (0,1), então os valores de i ou j são substituídos por ∅ em MATRIZDSINF, de maneira que facilmente é identificado o tipo de operador aplicado a este movimento. Se necessário o número de colunas em MATRIZDSINF pode ser aumentado, para que mais informações sejam armazenadas. Pesquisa Naval Nº 15, Setembro de 2002 233 3.4 CRITÉRIO DE PARADA PARA O PRVFM Após um número pré-especificado de iterações (MAXMelhor = 5 x n) ser executado sem melhoria de Smelhor o procedimento Tabu é interrompido. Este é o critério de parada utilizado e possui a vantagem de poder ser alterado de acordo com a estrutura dos problemas a serem resolvidos, evitando-se assim subestimar o número total de iterações. 4. ESTUDO DE CASO: APLICAÇÃO NA MARINHA A Marinha possui um complexo de seis depósitos concentrados na Avenida Brasil, no Rio de Janeiro, onde é armazenado e distribuído todo o material necessário às diversas organizações militares das imediações, como por exemplo alimentos, fardamentos, material eletrônico, sobressalentes diversos. Cada Órgão Distribuidor (OD) detém portanto um tipo de material com as mais variadas medidas e pesos, a ser distribuído com determinada periodicidade. Devido às particularidades inerentes aos materiais de cada depósito (OD) tornouse difícil uma padronização da frota de entrega, pois não há fatores comuns entre, por exemplo, fardamento e gêneros secos e frigorificados, ou ainda compatibilização de volumes e pesos entre os diversos itens, que vão desde pequenos sobressalentes eletrônicos até grandes itens de máquinas. Uma proposta de auxílio ao gerenciamento da frota seria utilizar um padrão comum de procedimentos em todos os depósitos no que diz respeito à pesagem do material a ser distribuído aos clientes, adequando-o ao tipo de veículo utilizado para transporte deste material. Peso é uma restrição comum que aparece em todos os modelos em que se busca otimizar o transporte de materiais. Logo, há necessidade de uma estrutura flexível que possa atender a todos os depósitos e auxilie o gestor a economizar pessoal e outros recursos envolvidos na distribuição. 4.1 ANÁLISE DA LOCALIZAÇÃO E DEMANDA DOS CLIENTES Através da visualização das localizações dos clientes pode-se notar os clusters, que são as concentrações de clientes nas áreas do AMRJ, 10 DN, e BNRJ. O extrato do cadastro de clientes abaixo também fornece uma estimativa de demanda mensal de gêneros alimentícios, extraída de diversas listas de requisição de material de consumo do banco de dados da GLE – Gerência Local de Estoque, para determinado período. Note-se que não há uma preocupação de levantamento estatístico mais apurado, apenas o objetivo de introduzir dados para o algoritmo de roteamento. 234 Pesquisa Naval Nº 15, Setembro de 2002 Tabela 1 – Cadastro de Clientes do DepSubMRJ Nr. Clientes 1 AMRJ 2 NAe 3 Fragata 4 CT 5 Corveta 6 CETM 7 Btl. Nv. 8 HCM o 9 1 DN 10 SDM 11 EN 12 EGN 13 UISM 14 HNMD 15 LabFM 16 PNNSG 17 CIAGA 18 CEFAAN 19 BNRJ 20 BAMRJ Demanda (kg/mês) 21545,7 11000,0 2871,4 3703,8 1098,4 1027,2 1722,0 1200,0 15716,7 550,0 12468,4 5500,0 575,9 12275,4 300,0 847,3 1227,3 917,5 21375,9 3617,3 Coord. SIGX (longitudeW) 43,1765749 43,1746162 43,1765749 43,1733920 43,1706987 43,173147 43,175351 43,175354 43,178451 43,173239 43,167765 43,167026 43,356959 43,283209 43,247571 43,224803 43,251531 43,267370 43,107253 43,258955 Coord. SIGY (latitudeS) 22,894145 22,893900 22,892676 22,892921 22,896593 22,8953623 22,8958593 22,8958592 22,8986754 22,8955271 22,9098151 22,9548660 22,9211293 22,9122199 22,8889565 22,9231092 22,8384731 22,8265903 22,1854735 22,8325300 Localização - Área Ilha das Cobras AMRJ Cais-atracado AMRJ Cais-atracado AMRJ Cais-atracado AMRJ Cais-atracado AMRJ Ilha das Cobras AMRJ Ilha das Cobras AMRJ Ilha das Cobras AMRJ Pr Br Ladário s/n 1o DN Ilha das Cobras 1o DN Av. Alte S Noronha Centro Av. Pasteur 480 Zona Sul Mar Serejo 539 Jacarep. César Zama 185 Lins Av. D HelderC 315 Benfica R Cd Bonfim 54 Tijuca Av. Brasil 9020 Av. Brasil Av. Brasil 10000 Av. Brasil Ilha de Mocanguê Av. Brasil 10500 Av. Brasil Na tabela acima o depósito é representado pelo número 20 (BAMRJ). O depósito tem por vezes que atender diversos tipos de navios em diferentes quantidades, o que aumenta significativamente o número de clientes a serem incluídos em uma dada programação da frota de veículos. Um esboço da localização de alguns clientes da BAMRJ é apresentado na Figura 1. Pesquisa Naval Nº 15, Setembro de 2002 235 Fig. 1: Mapa de Vias do Rio de Janeiro – Esboço da localização de clientes da BAMRJ 4.3 Proposta de uma solução do Estudo de Caso por meio da Incorporação do Algoritmo de Frota Heterogênea a um Sistema de Informação Geográfica (SIG) Um protótipo de Sistema de Apoio à Decisão Espacial, chamado de “GEOREDES” - Sistema de Apoio à Decisão Espacial para Modelos em Redes Georeferenciadas, criado no âmbito de Projeto Integrado1 apoiado pelo CNPq, permite: 1- a integração de modelos matemáticos (por exemplo, algoritmos para resolver problemas de localização e de roteamento) com banco de dados relacionais e informações das vias da cidade do Rio de Janeiro; 2- a utilização de recursos gráficos para visualização e apresentação dos resultados; 3- a geração de relatórios. O GEOREDES foi desenvolvido em ambiente Borland Delphi 5.0 para Windows 95/98/2000, utilizando recursos SIG, programação orientada a objetos e alguns modelos da Pesquisa Operacional nas áreas de localização de instalações e roteamento de veículos, propiciando um ambiente de trabalho para utilização por parte de usuários não-especialistas. A tecnologia SIG nele implementada é a biblioteca MapObjects versão 2.0, desenvolvida pela ESRI, que apresenta diversos procedimentos e funções para tratamento de mapas digitais. 236 Pesquisa Naval Nº 15, Setembro de 2002 Basicamente, o GEOREDES possui três módulos (ilustrados na Figura 2 para uma aplicação de roteamento de veículos): - O Ambiente de Trabalho; - O Sistema Gerenciador de Banco de Dados Geográficos (SGBDG); - Os modelos matemáticos disponíveis. No módulo SGBDG o usuário é capaz de manipular e gerenciar as informações contidas nas bases de dados espaciais e de atributos. No módulo de redes, um ambiente simplificado foi desenvolvido a fim de que o usuário final não necessite conhecer a fundo os modelos matemáticos utilizados. No ambiente de trabalho, os processos de visualização, manipulação das propriedades dos mapas, consulta e geradores de relatórios foram implementados de forma a facilitar o uso do sistema. Os dados que são utilizados pelo GEOREDES são basicamente a Malha Viária, Redes de Pontos e Arcos (geradas pelo sistema para aplicação dos algoritmos) e Banco de Dados de Bairros para a região metropolitana em consideração. Fig. 2: Ilustração dos Módulos do GEOREDES e seu Inter-relacionamento (Particularizado para uma Aplicação de Roteamento de Veículos) Na versão atualmente disponibilizada do GEOREDES utilizamos dados do município do Rio de Janeiro. A malha viária consiste do mapa digital desse município, com informações sobre sentido de fluxo, CEP, tipo de logradouro e numeração de início Pesquisa Naval Nº 15, Setembro de 2002 237 e fim de cada quarteirão. Estão codificados os cruzamentos e quarteirões e o sentido de fluxo é considerado. Na base de dados dos bairros foram incorporados alguns atributos obtidos no Censo de 1996 do IBGE. A partir da rede de pontos e arcos gerada, da localização de clientes e depósito, e das características dos veículos a serem utilizados no atendimento aos clientes (ver Figuras 3 e 4 a seguir), pode-se fazer o roteamento utilizando o algoritmo de frota mista/heterogênea. Antes da utilização do algoritmo há a necessidade do estabelecimento de critérios de parada e de aspiração para o algoritmo de busca Tabu, como mostra a Figura 5. Fig. 3: Definição da Rede de Pontos e Arcos e de Depósito e Clientes Fig. 4: Definição da Frota de Veículos 238 Pesquisa Naval Nº 15, Setembro de 2002 Fig. 5: Introdução dos parâmetros da Busca Tabu no GEOREDES Como resultado são geradas as rotas e criado um arquivo .shp (shape) que apresenta visualmente as mesmas em ambiente gráfico. 4.4 RESULTADOS OBTIDOS A ilustração de uma solução obtida pelo GEOREDES para o problema estudado é mostrada na Figura 6. Fig. 6: Uma Solução para um Problema de Roteamento de Veículos fornecida pelo GEOREDES em atendimento a clientes da BAMRJ Pesquisa Naval Nº 15, Setembro de 2002 239 5. CONCLUSÕES O uso de algoritmos para roteamento de veículos em um ambiente SADE permite redução nos custos de transporte, através de uma boa utilização da frota, e a facilidade da utilização de um banco de dados georeferenciado, com visualização da solução em ambiente gráfico. Os cálculos são desenvolvidos utilizando distâncias reais da malha viária (diferentemente de quando se obtém rotas a partir de distâncias Euclidianas), propiciando soluções mais precisas no que diz respeito às distâncias totais percorridas pela frota. A utilização do ferramental apresentado neste trabalho permite que a programação diária da distribuição a partir dos depósitos da Base de Abastecimento da Marinha no Rio de Janeiro (BAMRJ) seja realizada de modo mais preciso, com evidentes ganhos de natureza econômica, operacional e permite vislumbrar o emprego de Sistema de Informação Geográfica em outras aplicações que necessitem a introdução de algoritmos para apoio à decisão. REFERÊNCIAS BIBLIOGRÁFICAS BALINSKI, M. L., QUANDT, R. E., 1964, “On an integer program for a delivery problem”. Operations Research, vol.12, n. 2, pp. 300-304. BODIN, L., GOLDEN, B., ASSAD, A . et al., 1983, “Routing and scheduling of vehicles and crews: The state of the art”. Computers and Operations Research, vol. 10, pp. 10. CLARKE, G., WRIGHT, J. W., 1964, “Scheduling of vehicles from a central depot to a number of delivery points”. Operations Research, vol. 12, pp. 568-581. DANTZIG, G. B., RAMSER, J. H., 1959, “The truck dispatching problem”. Management Science, vol.6, n. 1, pp. 80-91. GLOVER, F., 1986, “Future paths for integer programming and links to artificial intelligence”. Computers and Operations Research , vol. 13, pp. 533-549. GLOVER, F., TAILLARD, E., DE WERRA, D., 1993, “Tabu Search”, Annals of Operations Research, vol. 41, pp. 3-28. GLOVER, F., 1989b, “Tabu search - Part I”. ORSA Journal on Computing, vol. 1, pp. 190-206. GLOVER, F., 1990a, “Tabu search - Part II”. ORSA Journal on Computing, vol. 2, pp. 4-32. GLOVER, F., 1990b. “Tabu search: A tutorial”. Interfaces vol. 20, pp 74-94. HANSEN, P., 1986, “The steepest ascent mildest descent heuristic for combinatorial programming”. Congress on Numerical Methods in Combinatorial Optimization, Capri, Itália. HERTZ, ALAIN, 1992, “Finding a Feasible course schedule using Tabu search”. Discrete Applied Mathematics, vol 35, pp. 255-270. LAPORTE, G., 1992, “The vehicle routing problem: An overview of exact and approximate algorithms”. European Journal of Operations Research, vol. 59, n. 3, pp. 345-358. OSMAN, I.H., SALHI, S., 1996, Local search strategies for the vehicle fleet mix problem. Modern Heuristics Search Methods, 1 ed., Chichester, John Wiley & Sons. INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULOMOREIRA BIOACÚSTICA SUBMARINA (CATÁLOGO DE SONS BIOLÓGICOS) Com o respaldo da experiência da Seção de Recursos Vivos do Departamento de Oceanografia do IEAPM, na captura e identificação das espécies que habitam a costa brasileira, surgiu o projeto, denominado “CATÁLOGO DE SONS DE ESPÉCIMES MARINHOS DA COSTA BRASILEIRA” que visa a gravação, análise e disponibilização dos sons gerados pelos espécimes marinhos através de meios adequados ao treinamento de operadores de sonares e de sistemas de escuta submarina. Este projeto permitirá a criação de um banco de dados de sons característicos dos animais marinhos de nossa costa, de valioso conteúdo científico e de grande utilidade prática para a Marinha do Brasil, que ainda hoje se vale de um catálogo de sons estranho à nossa realidade. O efeito da atividade biológica se faz sentir mais intensamente em águas rasas costeiras do que em mar profundo, e mais nas zonas tropicais e temperadas do que nas águas geladas. O conhecimento das áreas insonificadas ao longo de uma costa longa e diversificada como a do Brasil e suas variações sazonais, deve ser precedido do conhecimento da grande variedade de espécies marinhas que as habitam e dos sons que cada uma produz. IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira Departamento de Oceanografia Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ E-mail: [email protected] Telefone: 24-2622-9010 XVIII Capítulo MODELAGEM MATEMÁTICA PARA HIDROACÚSTICA EM ÁGUAS RASAS USANDO O MÉTODO DOS ELEMENTOS FINITOS Sônia Maria Constantino Ferreira MSc Engenharia Oceânica Fundação Universidade Federal do Rio Grande – FURG Departamento de Matemática Volnei Andersson DSc Engenharia Mecânica Fundação Universidade Federal do Rio Grande – FURG Departamento de Materiais e Construção Humberto Camargo Piccoli DSc Engenharia Mecânica Fundação Universidade Federal do Rio Grande – FURG Departamento de Materiais e Construção Resumo Neste artigo apresenta-se uma aplicação de elementos finitos para a simulação da propagação hidroacústica em um determinado perfil do canal de acesso ao Porto do Rio Grande. Na formulação desenvolvida para o perfil sob investigação, foram usados elementos isoparamétricos triangulares e o programa foi aplicado ao domínio considerando freqüências emissoras de 25 Hz e 100 Hz, tendo sido determinados os tempos mínimos de estabilização do sinal de saída (pressão acústica) e, nesta condição, os gráficos das frentes de onda, obtidos com as pressões calculadas, confirmaram o comportamento esperado e que normalmente se obtém em trabalhos experimentais. Palavras-Chave – Águas rasas, elementos finitos, simulação hidroacústica. 242 Pesquisa Naval Nº 15, Setembro de 2002 Abstract This work presents a finite elements method application in order to simulate the wave acoustic propagation in a determinate profile of the Rio Grande Port access canal. In the developed formulation were used triangular isoparametric elements and the program was applied to a domain for transmitted frequencies of 25 Hz and 100 Hz. The minimum times of stabilization of the output signal (acoustic pressure) was determined and, in this condition, front waves graphics with calculated pressures were obtained and confirmed the expected behavior that usually is achieved in experimental works. 1. Introdução O estudo da hidroacústica tem encontrado aplicações práticas tais como em geofísica marinha, navegação marítima, exploração de petróleo no mar, pesca oceânica, localização de obstáculos fixos ou móveis e medição da profundidade da água (ecobatimetria). Os resultados de medições de parâmetros físicos e químicos, envolvidos em tais aplicações, são usados na formulação de modelos matemáticos que constituem tentativas ou aperfeiçoamentos de previsões do comportamento hidroacústico. Um parâmetro muito importante, considerado nestas previsões, é a pressão hidroacústica. Assim, baseando-se em princípios físicos, deduz-se a equação diferencial da onda acústica, onde a variável dependente a determinar é a pressão hidroacústica (Robinson e Lee, 1994). Os problemas matemáticos a serem resolvidos na hidroacústica envolvem o conhecimento do domínio onde se busca determinar a função solução, a adequação da equação diferencial aplicável ao domínio e o estabelecimento das apropriadas condições iniciais e de contorno. As soluções de tais problemas invariavelmente são numéricas, exigindo um razoável aporte computacional. Dependendo do tamanho e forma do domínio sob investigação e das condições iniciais e de contorno, os métodos numéricos aplicáveis podem apresentar correspondentes resultados com menores erros de simulação e tempo de computação. O método denominado de Teoria de Raio apresenta bons resultados para águas profundas e altas freqüências (Urick, 1975). Os métodos denominados Modos Normais e Integração Numérica Direta são melhores para fundos oceânicos planos e propriedades físicas e químicas invariáveis com a distância (Clay e Madwin, 1977). Com o rápido avanço dos computadores, principalmente no que tange ao aumento de memória e diminuição do tempo de processamento, implementaram-se outros métodos mais laboriosos como Diferenças Finitas e Elementos Finitos (Robinson e Lee, 1994). Segundo Murphy e Chin-Bing (1988), a aplicação do método dos elementos Pesquisa Naval Nº 15, Setembro de 2002 243 finitos na propagação hidroacústica iniciou em 1979 e evoluiu esparsamente até 1988, devido à necessidade de muitos nós na malha, implicando em alto custo operacional. Por isso, modelos de propagação hidroacústica, baseados nesse método, são usualmente restritos a pequenas distâncias e baixas freqüências. Neste artigo, o método dos elementos finitos é empregado em um domínio plano de águas rasas, constituído por um perfil do canal de acesso ao Porto do Rio Grande, de modo a simular a propagação hidroacústica de sons emitidos de uma fonte localizada em diferentes profundidades do perfil. Na simulação, foram adotadas as freqüências emissoras de 25 Hz e 100 Hz. A freqüência de 25 Hz foi usada nos trabalhos de Stephen (1990), Jensen e Ferla (1990) e Ferreira (2000), para corpo de água rasa. A freqüência de 100 Hz foi usada em simulações conforme os trabalhos de Clay e Medwin (1977) e Rego e Parente (1998). Valores próximos de 100 Hz também foram usados em experimentos por Tolstoy e Clay (1966) e Alves (1997). O objetivo principal deste artigo é mostrar a utilidade do método dos elementos finitos na determinação de valores numéricos da pressão hidroacústica, em pontos do domínio discretizado, com a representação das frentes de onda. Mediante tal aplicação, também se mostra a determinação do melhor valor do intervalo de tempo de integração, para utilização no programa desenvolvido e do tempo mínimo necessário para a estabilização do sinal de saída, variando a posição da fonte emissora do sinal de excitação. 2. Problema Particular a Resolver O problema particular a resolver é constituído pela seguinte equação diferencial: ∂ 2 P (r, t ) ∂x 2 + ∂ 2 P (r, t ) ∂z 2 − ∂ 2 P(r, t ) ∂ P(r , t ) +β = − 4 π F(r, t ) 2 2 ∂t c (r ) ∂t 1 (1) onde P(r,t) é a pressão acústica em função do tempo, F (r , t ) = f (r, t ) e −iωt sendo f (r, t) a fonte unitária, (Clay e Medwin, 1977 e Alves, 1997). Neste trabalho se usou a fonte pontual da forma F(r, t ) = 1 sen ( ω t ) onde a unidade (1) representa 1 Pa/m2. As condições iniciais são deslocamentos e velocidades nulos em todos os pontos do domínio e as condições de contorno consideradas são as seguintes: a) na superfície da água, P=0; b) no fundo rígido, de reflexão total, ∂P/∂z = 0. A velocidade do som na água, c(r), para o perfil em estudo, foi calculada usando a expressão de Wilson (1960). No perfil sob estudo, têm-se as seguintes grandezas que influem no cálculo de c: aceleração da gravidade (9,81 m/s2), massa específica da água (995 kg/m3), salinidade da água (0 0/00), temperatura da água (100 C). A velocidade do som calculada é de 1451 m/s. 244 Pesquisa Naval Nº 15, Setembro de 2002 3. Formulação de Elementos Finitos Para desenvolver a formulação de elementos finitos, foram assumidas as seguintes hipóteses: inexistência de bolhas de ar; água como um meio homogêneo; velocidade do som constante; salinidade da água constante; massa específica da água constante; inexistência de obstáculos no domínio; superfície livre, com pressão nula; fundo rígido de reflexão total, tendo variação nula da pressão acústica com a profundidade. A aplicação do método dos elementos finitos é feita sobre a Equação ( 1 ), usando um domínio bidimensional discretizado em elementos finitos isoparamétricos triangulares de três nós (Ferreira et al., 1999) e chega-se à equação: E* Pi +1 = Fi +1* * onde, E = 1 α ∆t 2 E+ (2) δ G + H α ∆t 2 1 1 ∂ Pi 1 ∂ Pi * − 1 + + Fi +1 = Fi +1 + Pi E + 2 2 α ∆t ∂ t α ∆t 2α ∂ t ( 2a ) (2b) δ ∆t ∂2 P δ δ ∂P + − ∆t + − 1 + Pi G 2 α ∂ t α ∆t ∂t 2α sendo P o vetor de pressão acústica nos nós da malha de elementos finitos, E e H, respectivamente, as matrizes de massa e rigidez da pressão acústica, G é a matriz de massa multiplicada pelo coeficiente de amortecimento e F é o vetor contendo o termo fonte e as condições de contorno no nível do mar. E* uma matriz quadrada simétrica e F* é um vetor. A Equação ( 2 ) fornece os valores das pressões acústicas nodais relativas,aofinaldeum intervalodetem podeintegração.Com Pi+1 calculado, parte-se para o próximo instante e repete-se o processo de forma que o vetor Fi+1* é obtido com Pi no instante anterior. Ao final de cada incremento de tempo é necessário atualizar-se ∂ P ∂2 P , calcular Fi+1* , que será usado no instante seguinte, para obter-se o vetor ∂ t e ∂ t2 Pi+1 na Equação ( 2 ). Pesquisa Naval Nº 15, Setembro de 2002 245 Algoritmo desenvolvido para resolver o sistema de equações diferenciais (2) de segunda ordem: Passo 1. Construir a malha (discretização do domínio sob estudo). Passo 2. Determinar a matriz de rigidez e a matriz de massa para cada elemento. Passo 3. Calcular o vetor fonte (segundo termo da Equação (1)). Passo 4. Ler as condições de contorno na superfície (ler de arquivo o número dos nós localizados na superfície, considerando P=0 nos mesmos). Passo 5. Montar a matrizes globais (matrizes E, G e H). Passo 6. Construir a matriz final do sistema para integração no tempo (Equação (2a), matriz E*). Passo 7. Calcular o vetor total de entrada de dados nos nós (vetor F). REPITA Passo 8. Resolver o sistema linear que fornece o valor da pressão acústica nodal. Passo 9. Atualizar os valores das derivadas da pressão acústica. Passo 10. Calcular o novo vetor de entrada de dados nos nós. Passo 11. Restabelecer as condições de contorno no vetor de entrada de dados nos nós. ATÉ tempo de simulação > tempo máximo previsto Passo 12. Armazenar o vetor final da pressão acústica (vetor P, Equação (2)). Passo 13. Fim do algoritmo. 246 Pesquisa Naval Nº 15, Setembro de 2002 4. Domínio sob Investigação Laguna dos Patos Perfil de estudo Oceano Atlântico Figura 1 – Localização do perfil de estudo (figura cedida pelo LEG, Laboratório de Expressão Gráfica do Departamento de Matemática da FURG). Objetivando avaliar o desempenho do modelo implementado, foi selecionado como domínio de investigação o perfil localizado em uma zona do canal de acesso ao Porto do Rio Grande com uma das menores larguras e maior profundidade próxima à margem oeste, junto à orla portuária, evitando lâminas d’água de pouca profundidade e muito espraiadas. O perfil do canal foi construído com valores reais de profundidades, baseados em plantas batimétricas fornecidas pela Superintendência do Porto do Rio Pesquisa Naval Nº 15, Setembro de 2002 247 Grande, parte integrante do Relatório Conclusivo do levantamento batimétrico realizado no período de 23/01/97 a 30/01/97, após dragagem executada no canal. Na Figura 1 apresenta-se a localização do perfil de estudo e na Figura 2 a sua correspondente caracterização geométrica. O domínio foi discretizado com uma malha não estruturada de elementos finitos, empregando-se o método de Avanço de Fronte (Alquati, 1994). A malha, composta por elementos triangulares de três nós, contém 2709 nós e 4536 elementos e foi escolhida após testar-se outras, inclusive uma contendo 4624 nós e 8099 elementos, e obter-se resultados idênticos. Localizou-se a fonte pontual de excitação no ponto P com abscissa 250,37 m e profundidade 8,43 m, por ser um dos pontos do trecho de maior profundidade no perfil em estudo e, aproximadamente, na metade desta profundidade. z (m) Orla portuária 0 São José do Norte -4 -8 -12 -16 0 200 400 600 800 (m) x Fig. 2 – Perfil do canal de acesso ao Porto do Rio Grande. Visando pesquisar o valor ideal do intervalo de tempo de integração, para o método de Newmark, e analisar o tempo mínimo necessário para estabilização do sinal de saída, foram escolhidos seis pontos, coincidentes com nós da malha de elementos finitos, usando para cada um os seguintes critérios: distante da fonte à esquerda do domínio; mais próximo da superfície do que a fonte; com profundidade semelhante a fonte; sob vertical próxima ao ponto anterior porém mais à superfície; dois pontos com abscissas idênticas sendo um próximo do fundo do perfil em estudo e ambos posicionados à direita do perfil. 5. Intervalo de Tempo de Integração Estudou-se a influência do intervalo de tempo de integração e adotou-se o valor mais adequado, ∆t=10-4s. Na Figura 3 representam-se gráficos pressão x tempo para freqüência 100 Hz, de onde se conclui que o tempo mínimo de estabilização do sinal de saída ocorre a partir de 5 s. 248 Pesquisa Naval Nº 15, Setembro de 2002 tempo (s) Fig. 3 – Gráficos da pressão acústica no domínio do tempo em seis nós, ∆t = 10-4s e freqüência 100 Hz. 6. Tempo Mínimo de Estabilização do Sinal de Saída A análise temporal não é suficientemente precisa para determinar o tempo de estabilização do sinal obtido com o modelo proposto. É então, indicada a análise espectral, aplicando-se a Transformada Discreta de Fourier, para investigar o sinal no domínio da freqüência (Newland, 1995). Dividiu-se então o sinal temporal em intervalos de tempo sucessivos: i) 7 a 8 s; ii) 8 a 9 s e iii) 9 a 10 s. O objetivo desta divisão é verificar quando as transformadas se estabilizarão. Calculando as transformadas nos três intervalos, identifica-se o regime permanente quando as mesmas forem iguais. A Figura 4 apresenta os espectros do sinal obtido no nó 193 nos intervalos relacionados acima. Como, ao atingir o regime permanente, o único pico presente no expectro é o correspondente à freqüência da fonte emissora, podese observar que os transientes desaparecem completamente no intervalo 8 a 9 s. Estabelece-se então o tempo mínimo de estabilização do sinal em 9 s, para o sinal calculado no nó 193. As transformadas foram calculadas utilizando-se o programa MATLAB. Para os demais nós, obtiveram-se tempos mínimos maiores que 5 s e menores ou iguais a 9 s. Conclui-se então que o tempo mínimo de estabilização do __ 7 a 8 s __ 8 a 9 s __ 9 a 10 s Fig. 4 – Espectro do sinal de saída no nó 193, freqüência 100 Hz, intervalos de tempo 7 a 8 s, 8 a 9 s e 9 a 10 s. Pesquisa Naval Nº 15, Setembro de 2002 249 7. Resultados Obtidos de Pressão Acústica Objetivando analisar as alterações do sinal de saída nas frentes de onda acústica, foram adotadas as seguintes considerações: • fonte emissora localizada consecutivamente nas três posições representadas pelos pontos P (250,37; 8,43), já analisado nos itens anteriores, Q(251,22; 2,06) e R(251,07; 14,81); • intervalo de tempo de integração do método de Newmark de 10-4 s; • tempo mínimo de estabilização do sinal de saída de 10 s; • freqüências emissoras de 25 Hz e 100 Hz. Nesta aplicação do modelo implementado ao domínio discretizado sob investigação, são mostradas quatro soluções: as duas primeiras mantendo a fonte emissora do sinal acústico na posição P com freqüência do sinal emitido em 25 Hz e depois 100 Hz; as duas últimas, mantendo a freqüência em 25 Hz e posicionando a fonte em Q e depois em R. É importante observar que os resultados obtidos de pressão acústica correspondem ao sinal de saída estabilizado (estacionário) após 10s. Nas Figuras 5 e 6 são representadas as diferentes frentes de ondas das pressões acústicas obtidas com o modelo de elementos finitos implementado e sob as considerações apresentadas no parágrafo anterior, para freqüências de 25 Hz e 100 Hz. z (dm) x (m) Fig. 5 – Campo de pressão acústica para fonte pontual em P(250,37;8,43), freqüência 25 Hz, pressão acústica em µ Pa. z (dm) x (m) Fig. 6 – Campo de pressão acústica para fonte pontual em P(250,37;8,43), freqüência 100 Hz, pressão acústica em µ Pa. 250 Pesquisa Naval Nº 15, Setembro de 2002 Em função dos resultados gráficos (para freqüências de 25 Hz e 100 Hz), as seguintes observações podem ser destacadas: • Para a freqüência emissora de 25 Hz, o número de frentes de onda é bem menor e a atenuação do sinal de saída estacionário é acentuada nas regiões menos profundas. • Para a freqüência emissora de 100 Hz o número de frentes de onda é grande e o sinal de saída estacionário está presente em todas as regiões, ou seja, sem atenuação em grandes áreas do domínio. • Na superfície livre tem-se o valor da pressão acústica nula e próximo da superfície, valores muito pequenos. Estes resultados são coerentes com a condição de contorno imposta para propagação acústica em um corpo d’água raso, P=0 na superfície. • Para a freqüência emissora de 25 Hz, valores de pressão acústica nula e valores muito pequenos também ocorrem nas zonas laterais à direita e à esquerda da representação gráfica. Na zona central observam-se pressões acústicas mais elevadas do que nas laterais. • O formato da representação das frentes de onda sofre decisiva influência do fundo tanto no aspecto teórico, condição de contorno no fundo que simula condição de radiação sendo considerado reflexão total: ∂P/∂z = 0, quanto na forma do domínio e, sendo um perfil de dimensões irregulares, isto faz com que se obtenha posições assimétricas. Estes resultados são coerentes com o suposto comportamento dinâmico da simulação proposta que sofre influência da profundidade e, como conseqüência, da inclinação do fundo. • O número de frentes de onda varia assim como a atenuação, ao variar a freqüência da fonte emissora do sinal. • O que se observou é coerente com a bibliografia quando a posição da fonte foi variada, enquanto a freqüência foi mantida. Ao compararem-se os resultados obtidos conclui-se que a fonte sendo posicionada mais próxima do fundo obtêm-se valores mais elevados de pressão acústica. 8. Conclusões Neste trabalho aplicou-se o método dos elementos finitos para resolver a equação diferencial parcial da onda acústica. As conclusões mais importantes a destacar são: • O modelo implementado foi aplicado a um perfil real do canal de acesso ao Porto do Rio Grande e foi capaz de calcular o valor numérico da pressão acústica em pontos (nós) do domínio discretizado. • Pesquisou-se o melhor valor do intervalo de tempo para a aplicação do programa desenvolvido, sendo obtido ∆t=10-4 s. Pesquisa Naval Nº 15, Setembro de 2002 251 • Analisou-se o tempo mínimo necessário para a estabilização do sinal, que representa a pressão acústica, sendo obtido t=10 s, evitando desperdício de tempo de processamento. • O valor da pressão acústica depende da posição da fonte emissora do sinal, dentro do domínio em estudo. • A freqüência do sinal emitido influencia no valor da pressão acústica de forma marcante. Finalmente, pode-se concluir que é possível simular a propagação acústica em um perfil de um corpo d’água raso, através de um modelo numérico, tendo uma formulação de elementos finitos e reproduzir importantes aspectos da propagação acústica. Agradecimentos Os autores agradecem ao Prof. Dr. José Milton Araújo pelo auxílio e valioso empréstimo de material utilizado na formulação de elementos finitos para a equação da onda acústica em águas rasas, e ao Prof. Dr. Carlos Eduardo Parente Ribeiro pelos conhecimentos transmitidos e inestimável apoio prestado. Referências Bibliográficas ALQUATI, E. L. e GROEHS, A. G., Geração automática de malhas não estruturadas de elementos triangulares, In: XV CONGRESSO IBERO LATINO AMERICANO SOBRE MÉTODOS COMPUTACIONAIS PARA ENGENHEIROS. Belo Horizonte, Anais: v. 1, p. 483-492, 1994. ALVES, A. M. V., Investigações sobre a propagação da onda sonora por modos normais em águas rasas, Dissertação de mestrado, COPPE/UFRJ, Rio de Janeiro, 1997. CLAY, C. S. e MEDWIN, H., Acoustical oceanography: principles and aplications. New York, John Wiley & Sons, 1977. FERREIRA, S. M. C., ARAÜJO, J. M. e PICCOLI, H. C., Modelagem matemática de propagação acústica em águas rasas, In: IV ENCONTRO DE TECNOLOGIA EM ACÚSTICA SUBMARINA. Rio de Janeiro, 1999. FERREIRA, S. M. C., Uma formulação de elementos finitos para a simulação da propagação acústica em águas rasas, Dissertação de mestrado, FURG, Rio Grande, 2000. JENSEN, F. B. e FERLA C. M., Numerical solutions of range-dependent benchmark problems in ocean acoustics, The Journal of the Acoustical Society of America, v. 87 (4), p. 1499-1510, 1990. MURPY, J. E. e CHIN-BING, S. A., A finite-element model for ocean acoustic propagation, Mathl Computer Modelling 11, 70-74, 1988. NEWLAND, D. E., An introduction to random vibrations, spectral & wavelet analysis, Singapore, Longman Singapore Publishers Pte Ltd , 1995. REGO, V. S. e PARENTE, C. E., Implementação numérica da aproximação parabólica da equação da onda em acústica oceânica, Pesquisa Naval. Suplemento Especial da Revista Marítima Brasileira v. 11, p. 191-205, 1998. ROBINSON, A. R. e LEE, D., Oceanography and acoustics, prediction and propagation models, New York, American Institute of Physics, 1994. STEPHEN, R. A., Solutions to range-dependent benchmark problems by the finite-diference method, The Journal of the Acoustical Society of America v. 87 (4), p. 1527-1534, 1990. TOLSTOY, I. e CLAY, C. S., Ocean acoustics: theory and experiments in underwater sound, New York, McGraw-Hill, 1966. URICK, R. J., Principles of underwater sound. New York, McGraw-Hill, 1975. WILSON, W. D., Equation for the Speed of Sound in Sea Water, The Journal of the Acoustical Society of America, v. 32 (10), p. 1357 1960. XIX Capítulo LOGÍSTICA MILITAR: EFICIÊNCIA NA PAZ E EFICÁCIA NA GUERRA Eng. Civil João Antônio Junqueira Teixeira Mestrando do Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal do Rio Grande do Sul [email protected] 2º Ten Int Emílio Kerber Filho Mestrando do Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal do Rio Grande do Sul [email protected] Resumo A logística militar é, muitas vezes, apresentada em contraposição à logística empresarial, não guardando com esta nem objetivos comuns nem termos de comparação de desempenho. Neste documento, os autores sugerem que as “duas” logísticas podem diferir apenas quanto às funções objetivo com que devem lidar e propõem a utilização de índices com que se possa comparar o desempenho das mesmas. Abstract Military logistics many times is put against business logistics. It’s said they have neither common objectives nor common performance indexes. In this paper is suggested that their diferences are rather in the objective functions they must deal with and the authors propose the use of some indexes to compare their performance. Palavras-chave: logística; logística militar. Keywords: logistics; military logistics. 254 Pesquisa Naval Nº 15, Setembro de 2002 Introdução O conceito original de logística está intimamente ligado às atividades militares. Tanto é verdade que a primeira tentativa conhecida de definir logística foi feita pelo Barão Antoine Henri de Jomini (1996), general de Napoleão, que afirmava ser a arte prática de movimentar exércitos, ou seja, tudo ou quase tudo, no campo das atividades militares, exceto o combate. Portanto, poderíamos dizer que a logística militar, ao lado da estratégia e da tática, é, stricto sensu, a parte da administração militar que trata do suprimento e transporte de tropas em operação. Após a Segunda Guerra Mundial, como tantas outras técnicas desenvolvidas durante o esforço de guerra, a logística passou a ser incorporada pelas empresas como ferramenta agregadora de competitividade. No enfoque empresarial, a logística passa a ser concebida sob um prisma diferenciado do de guerra: o “combate” entre as empresas. O Council of Logistics Management - CLM, com sede em Oak Brook, Illinois, USA, adota, presentemente, a seguinte definição para logística empresarial: “Logística é aquela parte do processo da cadeia de fornecimento que planeja, implementa e controla o eficaz e eficiente, fluxo e armazenagem de bens, serviços e informação relacionada desde o ponto de origem até o ponto de consumo, com a finalidade de atender os requisitos dos clientes.” No presente documento, os autores procuram, à luz dos conceitos de eficácia e eficiência, estabelecer pontos comuns entre a logística militar e a empresarial para propor termos de comparação entre as mesmas. Eficácia/eficiência Diz-se que um dispositivo, ou sistema, é eficaz se for capaz de cumprir plenamente certa função, ou atingir determinado objetivo. Por outro lado, diz-se que um dispositivo é eficiente se for capaz de cumprir determinada função com o menor custo operacional, isto é, com a maior economia de meios. Deste modo, eficácia/eficiência estão relacionadas com capacidade de realização (alcance de objetivos) / custos envolvidos nesta realização. Se levarmos em consideração o binômio eficácia/eficiência, poderíamos dizer que a logística militar preocupa-se com a eficácia de suas atividades, em detrimento de sua eficiência, enquanto a logística empresarial dá ênfase à eficiência, ao lado da indispensável eficácia de suas atividades. Os atributos eficácia e eficiência, obviamente, não são mutuamente excludentes. Assim, se representarmos num gráfico bidimensional, em variáveis booleanas, os atributos eficácia e eficiência teríamos, como regiões de atuação da logística militar e da logística empresarial, as assinaladas pelas seguintes convenções. Pesquisa Naval Nº 15, Setembro de 2002 255 Fig. 1 À luz dos conceitos acima apresentados é que deve ser entendida a afirmação, contida na doutrina da USAF: “A logística deve ser dimensionada para ser eficaz na guerra e não para ser eficiente na paz” (DEPARTMENT OF THE AIR FORCE, 1992). Entretanto, os autores entendem que a referida expressão deve ser mais adequadamente formulada como: a logística deve ser dimensionada para ser eficaz na guerra e, também, para ser eficiente na paz, especialmente em países emergentes, onde os recursos, quer para as atividades militares, quer para as atividades civis de seus governos são, por definição, escassos. Assim é, que propõem o seguinte exemplo ilustrativo. Uma Exemplificação de Transportes: Caso Simples Para a Pesquisa Operacional Suponha-se o problema objetivo de abastecer a Base Aérea de Manaus (BAMN) com 800 t de suprimentos, necessários para sua plena operacionalidade como base principal na defesa do espaço aéreo junto à fronteira com a Colômbia. Suponha-se, também, que os pontos de origem desses suprimentos, as Bases Aéreas de Boa Vista (BABV), Porto Velho (BAPV), Brasília (BABR), Guarulhos (BAGR), Galeão (BAGL) e Canoas (BACO), disponham-nos na proporção mostrada no quadro abaixo: 256 Pesquisa Naval Nº 15, Setembro de 2002 QUADRO 1 Bases BABV BAPV BABR BAGR BAGL BACO Dist. a Manaus Carga Mom. de transporte km t t x km 669 80 53.520 754 80 60.320 1.926 120 231.120 2.663 160 426.080 2.809 240 674.160 3.089 120 370.680 Totais: 800 1.815.880 Admita-se, agora, que para o transporte dos suprimentos até Manaus estejam disponíveis as seguintes aeronaves para cargas: um Avro (C-91) de fabricação Hawker Siddely, um Bandeirante (C-95) de fabricação Embraer, um Buffalo (C-115) de fabricação De Havilland Aircraft of Canada, um Hercules (C-130) de fabricação Lockheed e um Boeing 707 (KC-137), cujas características principais, segundo Guston (1977) e Green e Swanborough (1978), encontram-se no seguinte quadro: QUADRO 2 Aeronaves Alcance Veloc. Cap.carga Pot. transp. 1 / pot.transp. Custo h-v km km/h t t x km / h h / ( t x km ) R$/h C-91 2.600 452 5,35 2.418,2 0,0004135 2.080,00 C-95 1.900 341 1,20 409,2 0,0024438 1.040,00 C-115 1.150 420 8,00 3.360,0 0,0002976 2.770,00 C-130 3.800 560 45,00 25.200,0 0,0000397 5.200,00 KC-137 11.000 966 36,00 34.776,0 0,0000288 13.860,00 O potencial de transporte de cada aeronave, constante na quinta coluna, foi definido como o produto de sua capacidade de carga por sua velocidade de cruzeiro. O custo da hora de vôo, constante na última coluna do quadro, foi estimado com base no consumo de combustível horário de cada aeronave. Circunstâncias Normais: Modelo Orientado à Logística Empresarial No dia a dia nas organizações militares, um problema de suprimento, como o apresentado acima deve ser encarado como um problema comum de logística empresarial, constituindo-se sua solução na alocação dos meios de transportes (as aeronaves, no caso) em rotas que levem à minimização do custo total envolvido. Esta aplicação compreende o melhor aproveitamento do transporte de carga, através da escolha Pesquisa Naval Nº 15, Setembro de 2002 257 adequada do tipo de aeronave em cada rota. Adotada esta solução de custo total minimizado, pode-se, em seguida, calcular o tempo de atendimento decorrente desta solução. Para o problema específico, adotou-se, segundo sugestão de Winston (1993), um modelo de programação linear, em que as variáveis de decisão são o número de horas voadas por cada aeronave nas rotas apresentadas e a função objetivo a ser minimizada é a soma do custo de cada aeronave, produto do custo de hora de vôo pelo número de horas voadas. Na matriz de custo das horas de vôo, as rotas superiores ao alcance de determinadas aeronaves foram inviabilizadas pela imputação de um valor muito alto, o mesmo tendo ocorrido em rotas curtas onde a alocação do Hercules (C130) e do B707 (KC-137) conduziria a índices indesejáveis de produtividade. As restrições, expressas como o produto das horas voadas pelo potencial de transporte de cada aeronave, foram fixadas tendo-se em vista o momento de transporte da carga disponível em cada Base Aérea.O modelo de programação linear foi formulado em planilha Excel e sua resolução feita através do software What’sBest!, da LINDO Systems, Inc., cujo resultado consta na seguinte tela do Windows. Fig. 2 O custo total minimizado, apurado pelo software, foi de c* = R$ 445.065,00 258 Pesquisa Naval Nº 15, Setembro de 2002 As horas de vôo alocadas às rotas específicas são as constantes do seguinte quadro: QUADRO 3 C-91 BABV BAPV BABR BAGR BAGL BACO C-95 0 0 0 0 0 0 C-115 0 0 0 0 0 0 C-130 16 18 0 0 0 0 KC-137 0 0 9 17 27 15 0 0 0 0 0 0 Observe-se que apenas as aeronaves C-115 e C-130 foram programadas. As demais não foram alocadas a rota alguma, apesar de disponíveis. Como as aeronaves podem operar simultâneamente, o número de horas de vôo necessárias para o cumprimento da missão de suprimento é o da aeronave mais utilizada. Assim , t = 9 + 17 + 27 + 15 = 68 horas de vôo Ressalta-se, aqui, que o valor de R$ 445.065,00 refere-se apenas ao custo das horas de vôo com carga, isto é, de cada Base Aérea de origem até Manaus. Os percursos de retorno, feitos “em lastro”, corresponderiam aproximadamente ao mesmo valor. Entretanto, deixa-se de considerá-lo por aparecer, também, no custo apurado na próxima formulação com o qual o presente valor será comparado. Semelhantemente, o tempo de 68 horas de vôo corresponde apenas ao transporte de carga de cada Base Aérea de origem até Manaus. Os tempos relativos aos percursos de retorno, às operações de carga e descarga, à manutenção e ao abastecimento das aeronaves em terra deixaram de ser considerados por aparecerem, na mesma proporção, na próxima formulação com a qual o tempo atual será comparado. Circunstâncias Emergenciais: Modelo Orientado à Logística Militar Imagine-se, agora, o mesmo problema de suprimento encarado sob circunstâncias emergenciais, quer sejam de uma mobilização geral por beligerância, quer sejam de apoio aeroespacial ao TO ou de atendimento a catástrofes. Neste tipo de cenário, faz-se necessário o emprego de uma pronta resposta operacional. A minimização dos custos cede espaço à minimização do tempo, como fator determinante para uma tomada de decisão. Sob tais circunstâncias, o imperativo de eficácia determina que os recursos (as aeronaves, no caso) sejam alocados em rotas que levem a uma minimização do tempo total de atendimento. Adotada a solução de tempo total de atendimento minimizado, pode-se, em seguida, computar o custo decorrente envolvido. Pesquisa Naval Nº 15, Setembro de 2002 259 Adotou-se, então, o modelo de programação linear em que as variáveis de decisão são o momento de transporte a ser veiculado por cada aeronave nas rotas apresentadas e a função objetivo a ser minimizada é a soma dos produtos das variáveis de decisão pelo inverso do potencial de transporte de cada aeronave nas rotas em questão. As rotas superiores ao alcance de determinadas aeronaves foram inviabilizadas pela imputação de um valor muito baixo em seu potencial de transporte, o mesmo tendo ocorrido em rotas curtas onde a alocação do Hercules (C-130) e do B707 (KC-137) conduziria a índices indesejáveis de produtividade. As restrições, expressas como a soma dos momentos de transporte veiculados pelas aeronaves alocadas em cada rota, foram fixadas tendo-se em vista o momento de transporte da carga disponível em cada Base Aérea. Este modelo de programação linear também foi formulado em planilha Excel e sua resolução igualmente feita através do software What’sBest!, da LINDO Systems, Inc., cujo resultado consta na seguinte tela do Windows. Fig. 3 Os momentos de transporte alocados pelo software à cada aeronave nas rotas específicas são os constantes no seguinte quadro: 260 Pesquisa Naval Nº 15, Setembro de 2002 QUADRO 4 C-91 BABV BAPV BABR BAGR BAGL BACO C-95 0 0 0 0 0 0 0 0 0 0 0 0 C-115 C-130 53.520 60.320 0 0 0 0 KC-137 0 0 0 0 0 0 0 0 231.120 426.080 674.160 370.680 Observe-se que apenas as aeronaves C-115 e KC-137 foram programadas. As demais não foram alocadas a rota alguma, apesar de disponíveis. Como as aeronaves podem operar simultaneamente, o número de horas de vôo minimizado para o cumprimento da missão de suprimento é o da aeronave mais utilizada. Assim , t*emg = (231.120 + 426.080 + 674.160 + 370.680) txkm / 34.776 txkm/h = = 48,94horas de vôo O custo decorrente desta alocação é composto de duas parcelas, correspondentes às aeronaves programadas. c115 = (53.520 + 60.320) txkm / 3.360 txkm/h X 2.770 R$/h = R$ 93.850,00 c137 = 48,94 h X 13.860 R$/h = R$ 678 344,00 Assim, o custo total foi de: cemg = R$ 772.199,00 Recorda-se as observações feitas com relação ao custo e tempo apurados na utilização do modelo anterior. Índices Comparativos Da comparação dos resultados da otimização dos dois modelos podemos estabelecer dois índices com a seguinte conceituação: Índice de eficácia emergencial = t / t*emg = 68 horas de vôo / 48,94 horas de vôo = 1,39 O índice de eficácia emergencial, com valores normalmente superiores à unidade, mede quanto o esforço de mobilização foi exitoso em atingir seu objetivo: prover os Pesquisa Naval Nº 15, Setembro de 2002 261 suprimentos no menor tempo possível comparado com fornecimentos em condições normais. Índice de eficiência emergencial = c* / cemg =R$ 445.065,00 / R$ 772.199,00 = 0,58 O índice de eficiência emergencial, com valores comumente inferiores à unidade, mede quanto custaria o cumprimento da mesma missão em condições normais comparada com o custo associado ao esforço de mobilização. Conclusões Assim, tal como propuseram no início, os autores acreditam ter estabelecido índices que permitam comparar procedimentos da logística militar com os correspondentes da logística empresarial. Tais índices podem servir como ferramentas de tomada de decisão no estabelecimento ou não de procedimentos emergenciais uma vez que podem precisar o aumento de eficácia e a correspondente perda de eficiência financeira na adoção de tais procedimentos por autoridades civis e/ou militares. Há, também, a possibilidade de constituir-se um data warehouse com históricos de situações concretas de escolha entre otimização de custos “versus” otimização de tempos e os índices de eficácia e eficiência a elas associadas. Tal sistema de informações poderia servir como apoio à tomada de decisão. Em que pese a simplicidade dos exemplos, propositalmente procurada para não dificultar a compreensão dos conceitos em que se baseiam os índices propostos, os autores acreditam que os mesmos possam ser aplicados a situações logísticas mais complexas, envolvendo operações de armazenagem e transportes multimodais comumente associados na realidade. Referências Bibliográficas DEPARTMENT OF THE AIR FORCE. Basic Aerospace Doctrine of the United States Air Force; (AFM 1-1). Washington DC: Government Printing Office – 319-219/60157, March 1992. GREEN, W., SWANBOROUGH, G. The Illustrated Encyclopedia of the World’s Commercial Aircraft. London: Salamander Books, 1978. GUSTON, B. The Illustrated Enciclopedia of the World’s Modern Military Aircraft. London: Salamander Books, 1977. JOMINI, A.H. The Art of War. London: Greenhill Books, 1996. WINSTON, W.L. Operations Research; applications and algorithms. 3rd ed. Belmont CA: Duxbury Press, 1993. Instituto de Pesquisas da Marinha GERADOR DE RUÍDO DE 33 KHZ E UM SIMULADOR DE RUÍDO DE NAVIO COM FREQÜÊNCIA CENTRAL DE 3,5 KHZ Foram desenvolvidos e montados dois geradores de ruído. O primeiro, de 33 kHz consta de um circuito impresso, que gera os 33 kHz e um transdutor para altas freqüências. Todo conjunto é alimentado por baterias. Sua finalidade é a de sensibilizar o torpedo em sua corrida final para o alvo, garantindo que o mesmo o atingirá. O segundo de 3,5 kHz, que simulou o ruído de um navio de um eixo navegando a 120 rpm, utilizou dois transdutores para transmitir esta freqüência. Eles foram montados em um suporte especialmente desenhado para permitir uma perfeita omnidirecionalidade na transmissão. O sinal, simulando o ruído de um navio, foi gerado no MATLAB e gravado em CD, sendo enviado para os transdutores a partir de um sistema de som composto por um CD-player e amplificadores, montados em um rack. Todo o sistema é alimentado por um gerador de tensão de 5 kVA, com uma autonomia de 10 horas. A finalidade deste simulador foi a de permitir que o submarino atacante, detectasse o navio-alvo a uma distância de aproximadamente 12 kjds. A detecção a esta distância permite que o submarino faça a análise do contato obtido, caracterizando-o como alvo. Posteriormente, esses dados foram enviados ao sistema de direção de tiro e, em seguida, realizado o disparo do torpedo e a guiagem até que o torpedo assumisse, por si só, a corrida para o impacto final (é sensibilizado pelo gerador de 33 khz). Instituto de Pesquisas da Marinha Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador CEP 21931-090 – Rio de Janeiro – RJ – Brasil Fone: (021)3396-2004 – Fax: (021)3 396-2240 Telex: (021) 53113/4/5 XX Capítulo ASPECTOS DE CONTROLABILIDADE DE REATORES CC(EN) Michel Kireeff Covo, M.Sc. Comissão Naval Brasileira em Washington University of California at Berkeley Department of Nuclear Engineering 4126 Etcheverry Hall Berkeley – CA 94720 – 1730 – USA [email protected] Resumo Este trabalho expõe aspectos fundamentais para o controle de reatores, tais como a necessidade de utilizar neutrons atrasados na modelagem e a produção de elementos extremamente absorvedores, que influenciarão a população de neutrons e as características de operação de um reator. Para correta compreensão são introduzidos conceitos básicos de física nuclear e neutrônica, sendo apresentada a equação de continuidade para balanço de neutrons e modelagem de um reator. Abstract This work shows basic aspects for reactor control, such as the need of using delayed neutrons in the modeling and production of extremely absorbing elements, which will influence the neutron population and the features of the reactor operation. For the right comprehension, basic concepts of nuclear physics and neutronics will be introduced, as the continuity equation for neutrons balance and reactor modeling. 264 Pesquisa Naval Nº 15, Setembro de 2002 1. Introdução Com o objetivo de apresentar alguns aspectos pertinentes ao controle de reatores serão introduzidos conceitos básicos de física nuclear para compreensão do funcionamento de um reator térmico de fissão, usando como combustível 235U. 2. Física Nuclear 2.1. Binding Energy A energia necessária para quebrar o núcleo em seus constituintes (nucleons) é conhecida como Binding Energy, ou energia de ligação, e está representada na figura 1. Quanto maior a energia de ligação, mais estável é o núcleo. Em contrapartida quanto menor a energia de ligação, mais físsil é o material1. Fig. 1 – Binding Energy por nucleon como função da massa atômica1 1 PRUSSIN, Stanley G. Nuclear Physics for Applications (Draft). s./l., s./e., 1999, p. IV.2-3 Pesquisa Naval Nº 15, Setembro de 2002 265 Na natureza, o único material físsil existente é o 235U, que ocorre com a abundância isotópica de 0.71%2. Existem alguns reatores, moderados a água pesada, que usam o urânio natural como combustível, mas os reatores mais modernos requerem urânio enriquecido, que pode ser obtido através da difusão gasosa, centrifugação, separação a laser, etc. 2.2. Interação de Neutrons Como o neutron é uma partícula sem carga elétrica, ele não é afetado pelos eletrons do átomo ou pela carga positiva do núcleo, conseqüentemente o neutron passa pela nuvem elétrica e interage diretamente com o núcleo. Nessa interação podem ocorrer uma colisão, elástica ou inelástica; ou uma absorção, sendo que esta última pode consistir em captura radioativa, produção de partículas ou fissão, entre outras. Na fissão, o núcleo se divide e libera uma certa quantidade de energia. Assim é que dada a reação de fissão genérica do 235U em dois produtos B e C: n + 235U → B + C a energia liberada (Q) vale: Q = [ M ( n) + M ( 235U )] − [ M ( B) − M ( C )] onde M(x) é a massa do elemento x Esta energia é quase toda recuperável (cerca de 215 MeV por fissão3 para o U). A recuperação em última instância se dá através da conversão dessa energia em energia térmica, através da interação dos produtos da fissão com a matéria. Como ilustração pode-se dizer que a energia liberada na fissão de 1g de 235U corresponde a 8.64x1010 J, que é a mesma energia liberada por 3,17 toneladas de carvão ou 2 toneladas de óleo diesel. A despeito da concepção de que os resíduos da reação nuclear são mais nocivos à saúde, a quantidade liberada é muitíssimo inferior se comparada a outros meios de energia. Além disso, esses resíduos podem ser confinados, não agredindo o meio ambiente. Infelizmente o mesmo não pode ser aplicado para os meios convencionais de produção de energia e seus efeitos colaterais indesejáveis, entre eles, o efeito estufa, o alagamento de imensas áreas com destruição da fauna e flora regionais, entre outros. 235 3. Neutrônica Com a finalidade de diminuir a perda de neutrons do reator e assim economizar combustível, o core do reator é envolto pelo refletor, constituído de uma camada de moderador. Moderador é um material não físsil, que tem o objetivo de diminuir a energia dos neutrons até a faixa térmica e, no caso do refletor, enviar de volta os neutrons que iriam se perder. 266 Pesquisa Naval Nº 15, Setembro de 2002 3.1. Fator de Multiplicação Efetivo (keff) A razão do número de fissões de uma geração sobre o número de fissões da geração anterior chama-se fator de multiplicação efetivo. Este fator é expresso pela “fórmula de seis fatores”4 dada abaixo: Keff = ε ⋅ L f ⋅ P ⋅ Lth ⋅ f ⋅ η onde: ε (fast fission factor) – é a fração do número total de fissões sobre aquelas fissões produzidas por neutrons térmicos; Lf (fast nonleakage factor) – é a fração de neutrons rápidos que não fogem do core, i.e., centro do reator; P (resonance escape probability) – é a fração de neutrons que não são absorvidos em resonâncias; Lth (thermal nonleakage probability) – é a fração de neutrons térmicos que não saem do core do reator; f (thermal utilization factor) – é a fração de neutrons térmicos que são absorvidos no combustível; e η (fission yield) – é o número médio de neutrons produzidos por cada neutron térmico capturado no combustível. Assim, para que uma reação em cadeia possa manter um valor fixo de potência é necessário que o keff seja igual a 1 (reator crítico). Caso keff seja menor do que 1, a reação em cadeia irá decrescer com o tempo (reator subcrítico). Já no caso em que keff seja maior do que 1 a reação irá aumentar com o tempo (reator supercrítico). 1 http://www.chem.uidaho.edu/~honors/nucbind.html http://www.eia.doe.gov/cneaf/nuclear/page/intro.html 3 http://hyperphysics.phy-astr.gsu.edu/hbase/nucene/u235chn.html 4 http://www.physics.isu.edu/radinf/oklo.htm 2 Pesquisa Naval Nº 15, Setembro de 2002 267 Fig. 2 – Gerações de neutrons produzidos1 3.2. Seção Cruzada Macroscópica Total ( ∑) t A probabilidade, por unidade de comprimento, de que um neutron sofra algum tipo de interação com a matéria chama-se seção cruzada macroscópica total. Assim sendo, o caminho médio percorrido por um neutron sem uma colisão é definido como o inverso deste valor ( λ = 1 / ∑) t 3.3. Primeira Lei de Fick2 “Se o fluxo de neutrons é maior em uma parte do reator do que em outra, então haverá um fluxo de neutrons para a região de menor densidade”, obedecendo à relação: 268 Pesquisa Naval Nº 15, Setembro de 2002 Jx = −D dφ dx Onde: Jx é o número de neutrons que passam por unidade de tempo através da unidade de área perpendicular à direção x; Φ é o fluxo de neutrons; e D é o coeficiente de difusão. 3.4. Equação de Continuidade3 Para um dado volume V o balanço de neutrons é regido pela equação de continuidade: Variação no número de neutrons em V = Produção de neutrons Absorção de neutrons - - Fuga de neutrons ou ∂n ∫ ∂t dV = ∫ sdV − ∫ ∑ V V V a ΦdV − ∫ div ( J )dV V onde para o volume V: n é o número de neutrons; s é a taxa em que os neutrons são produzidos; ∑ a Φ é a taxa de absorção de neutrons; e div(J) é a taxa de fuga de neutrons. Usando a lei de Fick podemos reescrever a equação de continuidade como: D∇2 Φ − ∑ a Φ + s = ∂n ∂t A equação de continuidade se divide em várias equações na modelagem de um reator, cada uma para um grupo energético de neutrons (método da difusão por grupos). Quanto maior for o número de grupos, tanto maior será a precisão do cálculo numérico e conseqüentemente maior será o tempo de processamento. Obviamente, o cálculo passa a ser complexo e se torna necessário o uso de softwares dedicados, tais como: MCNP4a, MAGGENTA, SCALE 4.3, SIMULATE-E e Pesquisa Naval Nº 15, Setembro de 2002 269 MAGG-SCALE, entre outros. Estes softwares normalmente utilizam o método de Monte Carlo4 e permitem a simulação, análise de transientes e licenciamento de reatores. 4. Controle O controle do reator é efetuado através de barras de controle e variação da concentração de alguns componentes químicos, usualmente o ácido bórico (H3BO3). O fator de multiplicação efetivo deve ser mantido igual a 1 durante a operação do reator, com exceção dos momentos de variação de potência em função da necessidade de demanda de energia. Este processo é extremamente complexo, pois o fator de multiplicação do reator sem as barras de controle e os componentes químicos é significantemente maior do que 1 no início da vida útil do reator. No início de operação de um reator as barras de controle estão imersas, absorvendo os neutrons e mantendo keff menor do que 1. Para se elevar a potência a um determinado nível, remove-se lentamente a barra de controle, fazendo keff ficar maior do que 1, e ao atingir a potência desejada, insere-se a barra de controle até keff ficar igual a 1. Este controle através das barras é delicado, pois a demanda de energia é flutuante e, além disso, o fator de multiplicação é função do consumo de combustível, da temperatura, da diminuição da concentração de H3BO3 e da acumulação de produtos, em particular do 135Xe e 149Sm, cujas seções cruzadas macroscópicas de absorção ( ∑a ) são absurdamente grandes. 4.1. Neutrons Atrasados X Controle do Reator No estudo do comportamento da população de neutrons em um reator não crítico (cinética do reator), distinguem-se duas classes de neutrons: prontos e atrasados. Os neutrons prontos são aqueles que surgem no mesmo instante da reação de fissão, já os neutrons atrasados são aqueles que surgem após o decaimento dos produtos de fissão. Após a fissão, os neutrons são emitidos com alta energia (neutrons rápidos), em média 2 MeV. Estes neutrons têm de perder energia até a faixa térmica, abaixo de 0.0253 MeV, para então serem absorvidos em reatores térmicos e assim continuar a reação em cadeia1. 1 http://www.usdpi.org/nuclear_fundamentals.htm#1.16 OLANDER, Donald R. Nuclear Materials (Reading). Berkeley, s./e., 2001, p. 4.2. 3 LAMARSH, John R. Introduction to Nuclear Engineering. Massachusetts, Addison-Wesley, 1983, p. 196. 4 http://www.npac.syr.edu/users/paulc/lectures/montecarlo/p_montecarlo.html 2 270 Pesquisa Naval Nº 15, Setembro de 2002 O tempo em que o neutron permanece como neutron rápido (tf) é muito curto comparado com o tempo em que o neutron térmico demora para ser absorvido (td). Em um reator crítico infinito, consistindo de uma mistura homogênea de 235U e H2O à temperatura ambiente, o tempo médio de vida de um neutron pronto é de 108 µ s. Definindo reatividade2 (ρ ) como: ρ= k −1 k assim, demorará aproximadamente 0.1s para o reator acima, modelado sem neutrons atrasados, aumentar a reatividade em 0.001, conseqüentemente a potência, que é proporcional ao fluxo, aumentará pelo fator de e10t, portanto em um segundo a potência será multiplicada por 22026!!! Agora se for modelado o mesmo reator levando-se em consideração os neutrons atrasados e se for utilizada a equação geral de reatividade para um grupo de neutrons atrasados3: ρ= onde: ωl p 1 + ωl p + ω β ⋅ 1 + ωl p ω + λ ρ – reatividade; lp – tempo de vida médio do neutron antes de ser absorvido ( lp = tf + td); λ – constante de decaimento do precursor de maior vida; β – fração de neutrons atrasados; e ω – freqüência a ser determinada. será encontrado para o mesmo reator (utilizando ρ =0.001, lp 0.0001, β =0.0065 para 235U e λ 0.1) o valor de ω1 = 0.018143 e ω 2= -55.11814, onde o fluxo obedece: φ = A1 ⋅ eω1t + A2 ⋅ e ω 2t Obviamente o fluxo segue o primeiro termo com correspondente período de 55s, uma vez que o segundo cai a zero rapidamente. Assim é que, levando-se em consideração os neutrons atrasados, a potência aumentará pelo fator de e0.018143t, portanto em um segundo a potência será multiplicada por 1.0183, tornando possível o controle do reator. Na prática, por motivos de segurança, a potência é aumentada em períodos não menores que 2 minutos e correspondentes a =0.0006. No caso de uma reatividade negativa, em conseqüência da inserção das barras de controle, podem ser introduzidos grandes valores, sendo que o valor deω1 1 se aproxima deλ , i.e., do precursor de maior vida, cujo valor é de 80s. A potência cairá Pesquisa Naval Nº 15, Setembro de 2002 271 repentinamente seguindo a fórmula4: e continuará decrescendo seguindo a relação: Na prática, o valor de Pf2 é de 7% de Pf1 para t=0+, assim não se pode interromper instantaneamente a potência do reator pela simples inserção de barras de controle. 4.2. Xenon X Controle do Reator Como foi dito anteriormente a produção de 135Xe tem um papel fundamental no controle do reator. Quando desligamos o reator mantemos a produção de 135Xe através do consumo do 135I, seguindo a fórmula: onde: λ respectivamente; e λ Xe são as constantes de decaimento do 135 Ie 135 Xe, Χe∞ e Ι ∞ é quantidade de 135Xe e 135I existentes quando desligamos o reator; e t é o tempo decorrido após o desligamento do reator. KRANE, Kenneth S. Introductory Nuclear Physics. New York, John Wiley & Sons, 1988, p. 450 2 http://helios.ecn.purdue.ed u/~tatjanaj/NUCL310_2002/CNotes16.pdf 3 GREENSPAN, Ehud, VUJIC, Jasmina, KASTENBERG, William E. Modern Reactor Physics and Analysis (Draft). s./l., s./e., 1999, p. XII.13 4 LAMARSH, John R., ob. cit., p. 288-289 Pode–se perceber que existirá um máximo de 135Xe após o desligamento do reator . Isto é devido ao fato de não existir mais o decaimento radioativo do 135Xe, pois não existem mais neutrons para serem absorvidos após o desligamento, conjugado ao fato de que a constante de decaimento do 135I ( λ I) é um pouco superior à do 135Xe (Xe). Após o desligamento do reator é necessário aguardar o equilíbrio dos produtos antes de ser reiniciado, ou poderá ocorrer uma realimentação positiva superior ao sistema de controle, tornando-o instável. 1 5. Conclusões Foram demonstrados alguns aspectos importantes no controle e operação de um reator, tais como a impossibilidade de zerar instantaneamente a potência de um reator, a impossibilidade de reiniciar um reator enquanto seus produtos de reação não estiverem em equilíbrio e a necessidade de levar-se em consideração a existência de neutrons atrasados na modelagem. Observa-se assim que o controle seguro de um reator necessita do entendimento da cinética do reator baseada em códigos de neutrônica. Para modelagem do reator e sua análise em regime permanente e transitório é fundamental a utilização de um maior número de produtos de fissão e grupos de neutrons, além da solução simultânea de equações integro-diferenciais, as quais somente são possíveis através de softwares dedicados. Modelagem esta que seria inserida em uma malha fechada, proporcionando a realimentação necessária para validar um sistema de controle desenvolvido. 6. Referências Bibliográficas 1 FOSTER, Arthur R., WRIGHT, Robert L. Basic Nuclear Engineering. Boston, Allyn and Bacon, 1968, p. 245-247. 1 PRUSSIN, Stanley G. Nuclear Physics for Applications (Draft). s./l., s./e., 1999, p. IV.2-3 2 http://www.chem.uidaho.edu/~honors/nucbind.html 3 http://www.eia.doe.gov/cneaf/nuclear/page/intro.html 4 http://hyperphysics.phy-astr.gsu.edu/hbase/nucene/u235chn.html 5 http://www.physics.isu.edu/radinf/oklo.htm 6 http://www.usdpi.org/nuclear_fundamentals.htm#1.16 7 OLANDER, Donald R. Nuclear Materials (Reading). Berkeley, s./e., 2001, p. 4.2. 8 LAMARSH, John R. Introduction to Nuclear Engineering. Massachusetts, Addison-Wesley, 1983, p. 196. 9 http://www.npac.syr.edu/users/paulc/lectures/montecarlo/p_montecarlo.html 10 KRANE, Kenneth S. Introductory Nuclear Physics. New York, John Wiley & Sons, 1988, p. 450 11 http://helios.ecn.purdue.edu/~tatjanaj/NUCL310_2002/CNotes16.pdf 12 GREENSPAN, Ehud, VUJIC, Jasmina, KASTENBERG, William E. Modern Reactor Physics and Analysis (Draft). s./l., s./e., 1999, p. XII.13 13 LAMARSH, John R., ob. cit., p. 288-289 14 FOSTER, Arthur R., WRIGHT, Robert L. Basic Nuclear Engineering. Boston, Allyn and Bacon, 1968, p. 245-247. XXI Capítulo ANÁLISE PARA ESCOLHA DE MATERIAL DE EMPREGO MILITAR: UM ENFOQUE MULTICRITÉRIO Aderson Campos Passos Indústria de Material Bélico do Brasil – Fábrica da Estrela, Praça Mal. Ângelo Mendes de Moraes S/N, Vila Inhomirim, Magé – RJ, CEP: 25935-000, [email protected] Luiz Flávio Autran Monteiro Gomes Faculdades Ibmec, Av. Rio Branco no 108, 5o andar, Centro, Rio de Janeiro – RJ, CEP:20040-001, [email protected] Resumo: Este trabalho compara dois métodos analíticos de apoio multicritério à tomada de decisão para escolha de material de emprego militar, dentro do âmbito do CAEx – Centro de Avaliações do Exército, uma unidade do Exército Brasileiro. No processo decisório em questão foi utilizado o Método de Análise Hierárquica – AHP. O outro método utilizado foi o TODIM (Tomada de Decisão Interativa Multicritério) que traz em sua estrutura diferentes características, sendo a principal a inclusão da Teoria da Perspectiva, e por isso permite levar em conta o risco na modelagem dos problemas. Embora os métodos se baseiem em diferentes paradigmas, o resultado dos estudos mostrou que ambos os métodos podem ser aplicados em avaliações militares de mesma natureza. Palavras-chave: TODIM, AHP, Teoria da Perspectiva. 274 Pesquisa Naval Nº 15, Setembro de 2002 Abstract: This paper compares the use of two multicriteria decision analytical methods used for military material selection. In the decision analysis the Analytic Hierarchy Process – AHP was used first in order to rank the alternatives in the presence of multiple criteria. This work was done in CAEx – Army Evaluation Center, a unit of the Brazilian Army. The other decision analysis method employed was TODIM, which is based on Prospect Theory, thus allowing to take risks into account in the modelling stage. Although the two multicriteria methods rely on different decision paradigms, this application study showed that results were quite similar to justify the use of either method in the practice of similar military decision making processes. Keywords: 1. TODIM, AHP, Prospect Theory. Introdução Este trabalho compara dois métodos analíticos de apoio multicritério à tomada de decisão para escolha de material de emprego militar, dentro do âmbito do CAEx – Centro de Avaliações do Exército, uma unidade do Exército Brasileiro. No processo decisório em questão foi utilizado o Método de Análise Hierárquica – AHP. O outro método utilizado foi o TODIM (Tomada de Decisão Interativa Multicritério) que traz em sua estrutura diferentes características, sendo a principal a inclusão da Teoria da Perspectiva, e por isso permite levar em conta o risco na modelagem dos problemas. Embora os métodos se baseiem em diferentes paradigmas, o resultado dos estudos mostrou que ambos os métodos podem ser aplicados em avaliações militares de mesma natureza. As informações para o modelo foram fornecidas pelo CAEx e vieram da avaliação do material de emprego militar, que foi feita utilizando o AHP. Baseando-se nos dados obtidos para o AHP foi montado um modelo baseado no TODIM. Em seguida, os resultados foram comparados e estudados com o objetivo de analisar características dos dois métodos. 2. O Método de Análise Hierárquica [1] O método foi desenvolvido na década de setenta pelo pesquisador americano Thomas Saaty e possui esse nome devido às suas características de estruturação onde os critérios são agrupados segundo uma hierarquia [2]. Assim como o TODIM, o MAH também possui características próprias para análise de critérios subjetivos junto a critérios quantitativos. Dessa forma, torna-se um método adequado para esse trabalho de avaliação. Pesquisa Naval Nº 15, Setembro de 2002 275 A principal característica do MAH é, de fato, a estruturação dos seus critérios condicionantes sob a forma de uma hierarquia. Nela, o seu nível mais elevado é representado pelo objetivo do problema que é meta desejável a ser atingida. O objetivo do problema seria, portanto, a decisão a ser tomada. Quando se pretende tomar decisões complexas trabalhando com o AHP, selecionam-se alguns critérios assumidos como relevantes para a análise de decisão. E dentro desses critérios, outros subcritérios também são escolhidos para a valoração desse critério e assim por diante. Para ilustrar essas idéias é possível desenhar o diagrama a seguir. OBJETIVO DO PROBLEMA CRITÉRIO 1 CRITÉRIO 2 … SUBCRITÉRIO 1 CRITÉRIO i … … CRITÉRIO n SUBCRITÉRIO n Figura 1: Modelo de estrutura hierárquica do AHP Dentro de cada critério específico é atribuída a um especialista a missão de opinar para cada alternativa, atribuindo valores aos critérios. É necessário também que sejam dados pesos aos critérios. Assim, será atribuída a eles a devida importância para a determinação do objetivo do problema. Após estruturados os critérios e as alternativas, os especialistas irão opinar sobre as alternativas dentro de cada subcritério específico. Serão feitas comparações paritárias com as alternativas que vão determinar quanto cada alternativa possui a mais que a outra. Para isso serão construídas matrizes quadradas cuja ordem será igual ao número de alternativas. Após feito isso para cada critério ou subcritério, será feito também para os subcritérios e critérios entre si, subindo na hierarquia. Essas comparações paritárias irão fornecer pesos para cada alternativa dentro de cada critério ou subcritério e para os critérios e subcritérios, quando comparados entre si. Esses pesos, ao final do processo, irão compor uma função aditiva onde para cada alternativa específica será atribuído um valor final que possibilitará a ordenação dessas alternativas. 276 3. Pesquisa Naval Nº 15, Setembro de 2002 A Teoria da Perspectiva A Teoria da Perspectiva foi desenvolvida na década de setenta por dois pesquisadores israelenses Amos Tversky e Daniel Kahneman. Ela procura modelar o comportamento do ser humano em face ao risco no que tange a tomada de decisões. O método TODIM a utiliza incorporando a curva determinada experimentalmente por Kahneman e Tversky ao modelo matemático do método. Os comportamentos observados pelos pesquisadores mostram que nas situações envolvendo ganhos o ser humano tende a ser mais conservador em relação ao risco e em situações envolvendo perdas, as pessoas se mostram mais propensas ao risco. Em outras palavras, quando se estabelece uma situação onde se pode ganhar, prefere-se um ganho menor, porém certo a se arriscar por ganhos maiores e incertos. Em situações envolvendo perdas as pessoas preferem se arriscar a perder mais, porém com a possibilidade de nada perderem, do que ter uma perda menor, porém certa. Este comportamento do ser humano foi verificado através de experimentos onde foram montados questionários passados a uma quantidade de pessoas considerada adequada para o experimento. Abaixo, estão as perguntas do questionário feitas por Kahneman e Tversky [3] que esclarecem as idéias expostas acima. a) − − Imagine que os E.U.A. esteja se preparando para a eclosão de uma doença asiática pouco comum, que espera matar 600 pessoas. Foram propostos dois programas alternativos para combater a doença. Assuma que a exata estimativa científica das consequências do programa seja como a seguir: Se o programa A for adotado, 200 pessoas serão salvas [72% dos votos] Se o programa B for adotado, existirá 1/3 de probabilidade das 600 pessoas se salvarem e 2/3 de probabilidade das pessoas não se salvarem. [28% dos votos] Em qual programa você votaria? A maioria das pessoas se mostrou avessa ao risco. A perspectiva de salvar 200 vidas se mostrou mais atraente do que a incerteza de ninguém se salvar. Na primeira pergunta 152 pessoas foram entrevistadas. Dentro da mesma pesquisa, outra pergunta foi feita para um outro grupo de 155 pessoas. b) Mesmo enunciado da pergunta anterior − Se o programa C for adotado 400 pessoas iriam morrer. [22 % dos votos] − Se o programa D for adotado haverá 1/3 de probabilidade de ninguém morrer, e 2/3 de probabilidade de 600 pessoas morrerem. [78 % dos votos] A maioria das pessoas se mostrou propensa ao risco na situação de perda de vidas humanas. As pessoas aceitam menos a certeza da perda de 400 vidas do que a incerteza de ter as 600 pessoas salvas mesmo com probabilidade de 1/3. Pesquisa Naval Nº 15, Setembro de 2002 277 Baseando-se nos resultados obtidos foi possível montar o gráfico a seguir que mostra o grau de satisfação das pessoas no domínio das perdas e dos ganhos. Valor Perdas Ganhos Fig. 2: Curva da função de valor da Teoria da Perspectiva A função de valor procura dar valor quantitativo à satisfação das pessoas, inserindo essa característica de aversão e propensão ao risco, natural da maioria dos seres humanos. Supondo um investidor que possui um determinado patrimônio. A sua satisfação em ganhar mais é crescente, porém com o aumento dos ganhos o nível de satisfação aumenta em taxas decrescentes. Na prática, a diferença de satisfação entre um indivíduo que possui $100.000 e ganha mais $100.000, é muito maior que a de um indivíduo que possui $ 1.000.000 e ganha $ 100.000. Em contrapartida, a insatisfação em perder é muito maior. A diferença de satisfação entre um indivíduo que perde $100.000 e depois perde mais $100.000, é muito maior que a de um indivíduo que perde $ 1.000.000 e depois perde mais $ 100.000. Isso pode ser observado no gráfico. 4. O Método TODIM [4] O TODIM é um método de análise de decisão multicritério que fornece como resultado as alternativas em ordem de preferência. A sigla vem do nome Tomada de Decisão Interativa Multicritério. A formulação atual do método incorpora em seu modelo a Teoria da Perspectiva (“Prospect Theory”) de Kahneman e Tversky, onde se descreve graficamente o comportamento do ser humano em face ao risco. Antes de iniciar a construção do modelo é necessário que os critérios sejam bem selecionados e que atendam ao pré-requisito de separabilidade. A independência é necessária para que os critérios não sejam contabilizados mais de uma vez dentro do mesmo modelo. O método TODIM se baseia na Teoria da Utilidade Aditiva e nela, para 278 Pesquisa Naval Nº 15, Setembro de 2002 que haja separabilidade de um critério em relação ao outro é necessário que os critérios sejam mutuamente preferencialmente independentes.[5] Após a seleção dos critérios e alternativas, serão montadas duas matrizes. A primeira é a Matriz de Desejabilidades Parciais que possui n (número de alternativas) linhas e m (número de critérios) colunas. Para cada critério serão escutadas pessoas capazes de opinar sobre as diversas alternativas. Valores quantitativos são facilmente inseridos nas colunas. Julgamentos subjetivos serão inseridos através da leitura de uma tabela que relaciona escala numérica com os valores subjetivos. Posteriormente é feita a normalização através da divisão de cada coluna pelo seu maior valor. A segunda matriz é a de comparação entre pares de critérios. Nessa matriz os critérios são comparados entre si da mesma forma como é feito com o Método de Análise Hierárquica [1]. Essa matriz será normalizada da mesma forma que a anterior. Poderão ser encontradas inconsistências na montagem dessa matriz de comparação por pares de critérios. A inconsistência ocorre devido a erros nos julgamentos de valor. Dados três critérios A, B, C, como exemplo. Para que não haja inconsistência deve ocorrer que se A é preferível a B e B é preferível a C, então A deve ser preferível a C. Outro problema que ocorre está relacionado com a intensidade com a qual um critério é preferível em relação a outro. A inconsistência é comum nos julgamentos humanos. Dependendo do grau de inconsistência poderá ocorrer a reavaliação dos pesos atribuídos entre os critérios. Caso os decisores estejam seguros dos valores então atribuídos, a matriz será então remodelada de forma a retirar a sua inconsistência [6] Para que se ordene as alternativas de forma a efetuar a análise de decisão, o método fornecerá como resultado final o Valor Total das Alternativas. Para que seja feito esse cálculo, é necessário que, antes, sejam determinadas as dominâncias de cada alternativa em relação a cada uma das outras. O método TODIM incorpora a função de valor da Teoria da Perspectiva. Essa incorporação foi feita introduzindo essa função de valor nas medidas de dominância de uma alternativa sobre a outra. Para o contexto multicritério as perdas e os ganhos são definidos como diferenças entre os valores wic estabelecidos na Matriz de Desejabilidades Parciais, para todas as alternativas dentro de um critério c em particular. As equações passam a ser. δ (i, j) = m ∑ c =1 Onde Φ c ( i , j ), ∀ (i, j) (1) Pesquisa Naval Nº 15, Setembro de 2002 279 arc (w ic − w jc ) se wic − w jc > 0 ∑c arc se wic − w jc = 0 Φ c ( i , j ) = 0 ( arc )(w jc − w ic ) 1 ∑ c se wic − w jc < 0 − arc θ (2) (3) e δ(i,j) = medida de dominância da alternativa i sobre a alternativa j; m = número de critérios c = critério genérico variando de 1 a m; arc = taxa de substituição do critério c pelo critério r (elemento da matriz de comparação por pares de critérios); wic, wjc = pesos das alternativas i e j, respectivamente, em relação ao critério c; θ = fator de atenuação de perdas Na prática a função de valor incorporada ao TODIM se torna proporcional à raiz quadrada da diferença entre os valores wic. Isso significa que dado o aumento da diferença maior será o valor da função Φ-c(i,j) porém isso ocorrerá em taxas decrescentes, já que está modelada por uma raiz, que por isso possui derivada negativa. Isso também é o que ocorre quando se interpreta o conceito da função de valor da Teoria da Perspectiva e isso indica a aversão ao risco no domínio dos ganhos e propensão ao risco no domínio das perdas. Após feitos os cálculos anteriores será montada a matriz quadrada de ordem n δ(i,j), onde n é o número de alternativas. Esta matriz é denominada Matriz de Dominâncias Relativas das Alternativas. Os Valores Totais das Alternativas são determinados através do seguinte cálculo. n î ξi = n ∑ δ (i, j ) − Min ∑ δ (i, j ) j =1 j =1 i n n Max ∑ δ (i , j ) − Min ∑ δ (i , j ) i j =1 i j =1 280 Pesquisa Naval Nº 15, Setembro de 2002 O valor ξi são somas de linhas normalizadas da matriz de dominâncias. Após calculados os valores, estes são ordenados e assim determinam as alternativas a serem escolhidas. 5. O Problema em Questão O problema resolvido no âmbito do CAEx possui 6 alternativas e 4 critérios. Partindo desse princípio serão expostos os resultados do problema de forma que estes dados possam ser utilizados mais adiante, para a modelagem com o método TODIM. Com o intuito de manter o sigilo quanto ao trabalho realizado foram utilizados nomes genéricos para as alternativas e critérios. 5.1. Comparação entre os Critérios A comparação paritária entre os critérios fornece o peso de cada critério para a resolução do problema. Dessa maneira, determina-se qual critério é mais representativo para a seleção das alternativas e se estabelecem valores fundamentais para a ordenação dessas alternativas. A seguir, no gráfico, estão determinados os pesos de cada critério. 0,556 0,202 0,184 0,058 Critério 1 Critério 2 Critério 3 Critério 4 Fig 3 : Pesos dos Critérios 5.2. Valores das Alternativas dentro dos Critérios Na formulação de um modelo com o Método de Análise Hierárquica existe um momento onde especialistas irão atribuir valores para as alternativas tendo em vista um critério específico. Nessa seção será mostrado quais valores foram estabelecidos para as 6 alternativas tendo em vista cada critério específico. A seguir serão mostrados gráficos que ilustram os valores atribuídos para as alternativas dentro de cada critério. Dentro dos critérios cada uma das seis barras representa uma das alternativas, em ordem. 281 critério 1 critério 3 0,151 0,183 0,151 0,183 0,167 0,167 0,19 0,115 0,16 0,242 0,129 0,16 critério 2 0,075 0,075 0,054 0,054 0,1323 0,1323 0,1063 0,1063 0,21 0,1883 0,2663 0,531 Pesquisa Naval Nº 15, Setembro de 2002 critério 4 Fig. 4: Valores das alternativas dentro dos critérios 5.3. Resultado Final O resultado final virá da soma dos valores das alternativas ponderada pelo peso dos critérios. Dessa maneira, os valores do resultado final estarão representados pelo gráfico a seguir. Resultado Final 0,394 0,195 0,093 0,094 0,103 0,147 Alt 1 Alt 2 Alt 3 Alt 4 Alt 5 Alt 6 Fig. 5: Resultado Final 282 Pesquisa Naval Nº 15, Setembro de 2002 6. Resolução do Problema Utilizando o TODIM Utilizando os dados fornecidos pelo CAEx será possível resolver o problema utilizando o método TODIM. Com estes dados é possível montar a matriz de desejabilidades parciais e obter o vetor de pesos dos critérios. Isso é suficiente para a resolução do problema. O modelo foi desenvolvido utilizando o fator de atenuação (θ) igual a 1. 6.1. Matriz de Desejabilidades Parciais e Vetor de Pesos dos Critérios A matriz de desejabilidades parciais possuirá a seguinte composição: Alt 1 Alt 2 Alt 3 Alt 4 Alt 5 Alt 6 Critério 1 0,1883 0,2663 0,1063 0,1063 0,1323 0,1323 Critério 2 0,21 0,531 0,054 0,054 0,075 0,075 Critério 3 0,160 0,242 0,129 0,160 0,115 0,190 Critério 4 0,167 0,167 0,183 0,183 0,151 0,151 Tabela 1: Dados do modelo do CAEx Estes dados foram obtidos dos gráficos de barras anteriormente citados e foram arranjados de forma a compor a matriz. Entretanto, é necessário aplicar a normalização de Belton e Gear [7] onde se divide cada coluna pelo maior número da coluna. O resultado da normalização é o seguinte. Alt 1 Alt 2 Alt 3 Alt 4 Alt 5 Alt 6 Critério 1 0,707 1,000 0,399 0,399 0,497 0,497 Tabela 2: Critério 2 0,395 1,000 0,102 0,102 0,141 0,141 Critério 3 0,661 1,000 0,533 0,661 0,475 0,785 Matriz de Desejabilidades Parciais Critério 4 0,913 0,913 1,000 1,000 0,825 0,825 Pesquisa Naval Nº 15, Setembro de 2002 283 O vetor de pesos dos critérios possui a mesma procedência: Pesos 0,202 0,556 0,058 0,184 Critério 1 Critério 2 Critério 3 Critério 4 Tabela 3: Pesos dos Critérios O problema será resolvido partindo-se dos dados anteriores. 6.2. Resolução Da matriz de desejabilidades parciais serão calculadas as diferenças entre os valores wic – wjc que são os julgamentos dos especialistas dentro de cada critério específico. Essa diferença representa a dominância da alternativa i sobre a j e entrará na equação para fornecer um valor que representará o julgamento modelado pela Teoria da Perspectiva, o valor final da função acompanhará um formato parecido com a curva a seguir. Com essa diferença se calculam as dominâncias parciais para cada critério específico. valor Φ1 (wi1 – wj1) Fig. 6: Função de valor do método TODIM O critério de referência para o cálculo das dominâncias parciais será o critério 2, pois ele possui o maior peso. Com ele será possível calcular a taxa de substituição que será utilizada nas equações de Φc(i,j). Essa taxa de substituição será o quociente entre o peso do critério de referência e o peso do critério a ser utilizado para o cálculo da matriz Φc específica. Matematicamente, arc = (peso do critério)/(peso do critério de referência). A tabela a seguir possui as taxas de substituição dos critérios e foi exposta como auxilio para os cálculos. 284 Pesquisa Naval Nº 15, Setembro de 2002 Critério 1 Critério 2 Critério 3 Critério 4 Taxas de Substituição 0,330935 0,363309 1 0,104317 Tabela 4: Taxas de substituição As equações do método TODIM representam matematicamente o gráfico empírico da Teoria da Perspectiva. Através dessas equações é possível montar as matrizes Φ(i,j) para cada critério específico. Essas matrizes Φc(i,j) foram calculadas em planilha Excel. Nessa planilha são coletados os dados da Matriz de Desejabilidades Parciais e das taxas de substituição de cada critério pelo critério de referência. Cada célula processa essas informações seguindo as equações do método. A função utilizada é bastante simples e utilizará uma das equações anteriormente citadas, de acordo com o valor da diferença wic – wjc. Partindo das 4 matrizes Φc(i,j) calculadas será montada a matriz de dominâncias δ(i,j), de mesma ordem, cujos elementos serão a soma de cada aij das 4 matrizes. Com essa matriz de dominâncias é possível calcular os Valores Totais das Alternativas e dessa forma ordená-las de acordo com as preferências do modelo. O resultado final é fornecido normalizando os valores das somas de cada linha da matriz de dominância colocando-os entre zero e um. Ao final as alternativas são ordenadas da seguinte maneira. Resultado Alternativa 2 Alternativa 1 Alternativa 6 Alternativa 4 Alternativa 5 Alternativa 3 Tabela 5: Resultado do modelo Ao comparar as ordenações calculadas pelo método TODIM e pelo AHP são obtidos resultados muito parecidos entre si. O problema também foi resolvido utilizando θ = 5 e 10 e os resultados da ordenação foram exatamente os mesmos. Isso é um resultado positivo, pois faz com que seja desnecessário o uso de testes estatísticos Pesquisa Naval Nº 15, Setembro de 2002 285 para determinação de qual valor de θ seria mais adequado para a resolução do problema em questão. Estes testes seriam feitos através da interpolação de resultados obtidos utilizando diferentes valores de θ. Em Gomes e Lima (1992) existe um exemplo onde isso foi feito. Os valores das diferenças entre os valores wic – wjc e os resultados nas Matrizes de Dominâncias Parciais gerariam nuvens de pontos. Sobre essas nuvens de pontos seria feita a interpolação dos valores e com eles se acharia o melhor valor de θ para a resolução do problema. 7. Análise Comparativa dos Resultados Os resultados obtidos da comparação dos resultados entre o método TODIM e o AHP são bastante semelhantes. O quadro a seguir mostra os resultados obtidos da execução de cada um dos modelos. ORDENAÇÃO MÉTODO TODIM 1 Alternativa 2 MÉTODO DE ANÁLISE HIERÁRQUICA Alternativa 2 2 Alternativa 1 Alternativa 1 3 Alternativa 6 Alternativa 6 4 Alternativa 4 Alternativa 5 5 Alternativa 3 Alternativa 4 6 Alternativa 5 Alternativa 3 Tabela 6: Comparação dos resultados dos métodos Observando a tabela anterior é possível perceber que as três primeiras colocações foram coincidentes. Nas três últimas colocações a ordenação se manteve com exceção da alternativa 5 que no método TODIM é a última colocada e no AHP é a quarta colocada. Não estavam disponíveis as matrizes de comparações paritárias do AHP. Isso possibilitaria outros tipos de análise. Desenvolvendo o método TODIM partindo de informações mais básicas, talvez fossem encontradas diferenças mais expressivas nos resultados. Foram testados valores de θ = 1, 5 e 10 e para todos os valores não houve nenhuma mudança na seqüência dos resultados. Assim, foi utilizado θ = 1 por simplicidade [6]. 286 8. Pesquisa Naval Nº 15, Setembro de 2002 Análise Comparativa dos Métodos O Método de Análise Hierárquica é um método antigo e bastante difundido. Porém, também é alvo de fortes críticas, sendo motivo para pesquisa em todo o mundo. O método TODIM é um método mais recente e sua principal característica é incorporar a Teoria da Perspectiva em seu modelo. Em sua construção procurou-se evitar as deficiências dos outros métodos. Apesar disso recebe algumas críticas. Nessa seção serão levantados pontos positivos e negativos de ambos os métodos procurando-se estabelecer uma visão mais crítica sobre eles. 8.1. Pontos Positivos Inicialmente será mencionado o AHP [8]. Um primeiro ponto a ser citado é a Estruturação Formal do Problema: o problema a ser resolvido pode ser decomposto em forma de hierarquia. Assim é possível compreender bem a questão em pauta. Simplicidade das comparações Paritárias: dessa forma o decisor tem a chance de focar em vários pequenos pedaços do problema trazendo simplificações dos julgamentos. Redundância permite que seja avaliada a Inconsistência: se uma alternativa A é três vezes mais importante que a alternativa B e B duas vezes mais importante que a alternativa C, era de se esperar que a alternativa A fosse oito vezes mais importante que a alternativa C. O método solicita ao decisor que avalie mais de uma vez as comparações paritárias e em um caso como esse a importância relativa da alternativa A em relação a C pode ser diferente de oito. Inconsistência permite que seja avaliada a Redundância: quando se calcula o índice de inconsistência de Saaty é estabelecido um parâmetro onde as pessoas responsáveis pela avaliação podem repensar se realmente estão atribuindo valores corretos para a resolução do problema. Assim, é possível voltar e analisar os dados que estão sendo colocados no modelo, contribuindo para um resultado mais acertado e unânime. Versatilidade: o AHP é um método que possui aplicações em várias áreas e isso está explícito em vários artigos exemplos, teses, dissertações e trabalhos por todo o mundo. Agora serão mencionados alguns pontos positivos do método TODIM [6]. Utilização da Teoria da Perspectiva em sua estrutura: essa é sua principal característica. O que se procura fazer é transformar os julgamentos humanos em valores de utilidade compatíveis com a idéia de aversão ao risco no domínio dos ganhos e propensão ao risco no domínio das perdas, fato esse que ocorre para a maioria dos seres humanos. Dessa forma, um comportamento inconsciente é modelado de maneira quantitativa e colocado no método. Minimização da ocorrência de Reversão de Ordem: no método é utilizada a normalização de Belton e Gear [7] que evita a ocorrência da reversão de ordem. Cálculo do vetor de pesos com a Matriz de Comparações Paritárias: no Método da Análise Hierárquica o cálculo do autovetor principal da matriz de comparações paritárias pode ocasionar graves inversões nos julgamentos dos decisores. O método TODIM calcula o seu vetor de pesos de maneira distinta evitando esse recurso Pesquisa Naval Nº 15, Setembro de 2002 287 matemático. Tratamento de alternativas interdependentes: apesar de ser pouco usual a presença de alternativas interdependentes, o método possui esse importante recurso para a modelagem desse tipo de problema. Estruturação Hierárquica do Problema: o método possui, assim como o AHP, uma metodologia para estruturação hierárquica do problema. Dessa maneira, evita-se que se façam difíceis comparações entre os critérios, facilitando a análise do problema em partes afins. Simplicidade Matemática: a matemática presente no método é de fácil entendimento simplificando a sua utilização por pessoas pouco familiarizadas com os métodos de Apoio Multicritério à Decisão. Resolução de problemas que envolvam múltiplos agentes de Decisão: problemas complexos, muitas vezes, requerem a presença de especialistas em aspectos específicos do problema em questão. O método possibilita que julgamentos desses especialistas sejam agregados dando caráter mais amplo à resolução do problema e trazendo maior credibilidade a estes resultados. 8.2. Pontos Negativos Existem sérias críticas feitas ao AHP. Utilização do método do Autovetor para a determinação dos pesos dos critérios: em [9] são mostrados alguns exemplos onde são gravemente distorcidos os julgamentos expostos pelos decisores após o cálculo dos autovetores principais da Matriz de Comparação por Pares. Quando se determina essa matriz estão explícitas as relações de dominâncias entre critérios ou alternativas, dependendo do que esteja sendo comparado. O que se verifica é que após a determinação dos pesos dos critérios são destorcidas, e algumas vezes invertidas, as relações de dominância. Isso é um erro bastante grave. O método TODIM contorna esse problema determinando esse vetor de uma forma alternativa onde não é calculado esse autovetor. Reversão de ordem devida a inclusão de outra alternativa: esse problema foi mostrado por Belton e Gear e foi solucionado mudando o tipo de normalização do vetor de pesos calculados pelas matrizes. A normalização sugerida pelo método é a que divide todos os elementos pela soma de todos. Para resolver o problema causado por esse tipo de normalização é sugerido um tipo de normalização que divide os elementos pelo maior elemento do conjunto. Foi mostrado que dessa forma não haverá a reversão de ordem. O primeiro artigo de Belton e Gear [7] foi contestado por Saaty [10], que não aceitou as críticas. Posteriormente Belton e Gear deram a resposta à contestação [11]. No método TODIM esse tipo de normalização já está incluída no modelo. Possibilidade de grande número de comparações: as comparações redundantes podem ser uma vantagem, mas fazem com que seja necessário um grande número de comparações. Isso pode tornar o método cansativo e provocar erros por fadiga. Imposições de inconsistências pela escala de 1 a 9: essa escala pode gerar inconsistências. Supondo um critério A três vezes mais importante que B e este quatro vezes mais importante que C. Isso implicaria em A doze vezes mais importante que C, o que não é possível devido à escala imposta pelo método. Conversão da Escala Verbal para a Escala Numérica: alguns autores discutem se a correspondência entre as escalas numérica e verbal expressam os julgamentos reais dos decisores. 288 Pesquisa Naval Nº 15, Setembro de 2002 O método TODIM foi elaborado utilizando as observações do meio acadêmico quanto a defeitos de outros métodos existentes. Isso reduz a quantidade de problemas encontrados, bastando algumas observações quanto a pontos específicos. Imposições de inconsistências pela escala de 1 a 9: assim como no AHP o método TODIM utiliza uma escala de zero a nove para a comparação entre critérios trazendo a possibilidade de ocorrência dos mesmos problemas. Possibilidade de grande número de comparações: caso sejam utilizados muitos critérios para a modelagem do problema, serão necessárias muitas comparações. Conversão da Escala Verbal para a Escala Numérica: a escala utilizada para o TODIM é semelhante a utilizada para o AHP e alguns autores discutem a correção da correspondência entre as escalas. 9. Conclusão Após a análise comparativa dos resultados e dos métodos foi possível observar pontos importantes de ambos os métodos de análise de decisão. O AHP é alvo de graves críticas que devem ser consideradas no momento da sua utilização. Dentro do software Expert Choice (software de análise de decisão que incorpora o modelo do AHP) existe um recurso, fundamentado nas críticas de Belton e Gear, que evita a reversão de ordem. A grave crítica feita por Bana e Costa e Vansnick pode ser contornada com a utilização do método alternativo sugerido por Saaty (e que é utilizado no método TODIM), em substituição ao cálculo do autovetor principal para a determinação dos pesos dos critérios. O método TODIM traz características representativas em sua formulação. Devido a este conjunto de características torna-se uma alternativa fortemente aplicável para problemas de avaliação de material de emprego militar. 10. Referências Bibliográficas SAATY, THOMAS L. “Método de Análise Hierárquica”. tradução de Wainer da Silveira e Silva. São Paulo: Mc Graw - Hill, 1991. COVA, C.J.G. “Decisão Orçamentária Pública: uma proposta de metodologia de tomada de decisão e avaliação dos resultados”. Tese de doutorado, Departamento de Engenharia de Produção, Universidade Federal do Rio de Janeiro, 2000. TVERSKY, A.; KAHNEMAN, D. “The Framing of decisions and the psychology of choice”, Science, vol 211, no 30, Janeiro, pp. 453-458, 1981. GOMES, L.F.A.M.; LIMA, M.M.P.P. “From Modelling individual preferences to Multicriteria Ranking of Discrete Alternatives: A Look at Prospect Theory and the Additive Difference Model”, Foundations of Computing and Decision Science, Vol. 17, No. 3, p.171-184, 1992. CLEMEN, R.T. “Making Hard Decisions: An Introduction to Decision Analysis”, Duxbury Press, 1996. Pesquisa Naval Nº 15, Setembro de 2002 289 MORAES, L.F.R. “Avaliação Multicritério de Projetos de Produção da Indústria de Petróleo no Brasil”. Dissertação de mestrado, Departamento de Engenharia de Produção, Universidade Federal Fluminense, 1999. BELTON, V.; GEAR, T. “On a Short-coming of Saaty’s Method of Analytic Hierarchies”, Omega, , Vol. 11, No. 3, p.227-230, 1983. GOODWIN, P.; WRIGHT, G. “Decision Analysis for Management Judgment”, John Wiley & Sons Ltd., 1998. BANA E COSTA, C.A.; VANSNICK, J. “ A fundamental criticism to Saaty’s use of the eingenvalue procedure to derive priorities”. Working Paper Series LSEOR, 2001. SAATY, T.L.; VARGAS, L.G. “The Legitimacy of Rank Reversal”, Omega, , Vol. 12, No. 5, p.513-516, 1984. BELTON, V.; GEAR, T. “FEEDBACK - The Legitimacy of Rank Reversal – A Comment”, Omega, Vol. 13, No. 3, p.143-144, 1985. Instituto de Pesquisas da Marinha MINA DE FUNDEIO A INFLUÊNCIA A MFI é uma Mina de Fundeio de Influência Acústico-Magnética, que tem como diferença básica da MFC 01/100, um cabeçote que contém uma eletrônica associada aos sensores acústicos e magnéticos e que processa as informações fornecidas por estes sensores, promovendo, de acordo com um algoritmo pré-determinado, a detonação da mina. Pode atuar em fundos de até 100 metros, fundeando entre as profundidades de 10 e 50 metros. Tem um peso total aproximado de 700 Kg sendo 160 Kg de explosivo. A MFI é uma continuação natural do desenvolvimento da Mina de Fundeio de Contato MFC 01/100, realizado no início da década de 90. Após uma série de estudos preliminares durante os anos 1994 e 1995, inclusive com o desenvolvimento de um sistema protótipo de aquisição de dados acústicos e magnéticos e com uma série de levantamentos experimentais com este protótipo, foi possível determinar-se os requisitos técnicos preliminares para a MFI. Em 1996, o IPqM, foi contratado pela Diretoria de Sistemas de Armas da Marinha para o desenvolvimento desta mina, cujo término ocorreu em junho de 1998. Instituto de Pesquisas da Marinha Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador CEP 21931-090 – Rio de Janeiro – RJ – Brasil Fone: (021) 3396-2004 – Fax: (021) 3396-2240 Telex: (021) 53113/4/5 XXII Capítulo QUANTIFYING TRADE-OFFS BETWEEN MULTIPLE CRITERIA IN THE FORMATION OF PREFERENCES* Annibal Parracho Sant’Anna Universidade Federal Fluminense Rua Passo da Pátria, 156 24210-240 Niterói-RJ Brasil fax 5521-2748731 - e-mail: [email protected] Luiz Flavio Autran Monteiro Gomes Faculdades Ibmec Av. Rio Branco, 108, 5th floor,20040-001 Rio de Janeiro Brasil - e-mail: [email protected] Abstract Our basic assumption here is that tradeoff between different criteria in the formation of preferences is determined by constant weights. We credit inconsistencies in the combination of criteria when comparing different options to the variability in the forms of measurement applied to each criterion. Then we discuss ways to measure the value given to each option according to each criterion that will allow for the real tradeoff weights to be elicited. The technique we propose to estimate these weights is to measure global preferences and partial preferences for a reasonably large set of options and to fit a linear model relating global preferences to explanatory variables generated through transformations of the vector of ranks of the options according to each criterion. Keywords: multicriteria decision analysis - regression analysis - probability of choice * Este artigo foi apresentado pelo segundo autor em ssessão técnica da IFORS 2002, que se realizou em Edimburgh, Escócia, de 8 a 12 de julho de 2002. 292 1. Pesquisa Naval Nº 15, Setembro de 2002 Introduction We model here the composition of preferences derived from ranking according to multiple criteria. The basic model starts with a linear equation explaining the final probabilities of choice in terms of the preferences elicited when judgement is based isolatedly on each criterion. Alternatives are developed to represent, through transformations of the explanatory variables, the influence of factors that systematically distort the relation between the objective partial ranks and the final preferences. Among such factors, prominence of one criterion over another and magnitude effects conducting to concentration in the alternatives most advantageous and overestimation of alternatives Pesquisa Naval Nº 15, Setembro de 2002 293 We consider here one source of distortion: the need to simplify things. Different effects of the human desire to deal on simpler representations can be systematically incorporated into the modeling strategy: a) prominence effects, that lead to disregard criteria judged less important; we consider this aspect especially in the case of great divergence between the criteria, risk aversion inducing a reduction of the chance of being chosen options for which different criteria present contradictory indications; b) certainty effects, leading to amplify the probability of choice of the most probable options; c) magnitude effects, leading to equalize the probability of choice of options of very low probability. We make these effects appear in the model through changes in the values of each option initially derived from the isolated application of each criterion. But there are other modeling alternatives, besides transforming variables, to take into account these aspects. We may introduce additional explanatory variables in the model to represent the affective factors. For instance, a measure of dispersion in the vector of partial preferences can be added to convey the effect of risk aversion. The coefficients of the preference building equation may also be modeled, in second level equations, as function of certainty or magnitude measuring variables. If we try to model also the evolution of these parameters through time, we would finally have a dynamic hierarchical model (Gamerman and Migon, 1993). By treating the initial coefficients as second level dependent random variables, what we do, essentially, is to add an explained component to the variance of the first level equation disturbance. If we are not able to collect data on variables that might explain the coefficients evolution through time or among the options, we may just model them as normal random variables, with unknown expected value and dispersion. This is equivalent to model the variance disturbance of the first level equation as a sum of different components, some of them proportional to the same equation explanatory variables. When fitting such a model, we are accessing the influence of each criterion on the variability of the final preferences. We do not follow this approach here because it involves adding new parameters to the model. Since we are not able to deal with a large number of alternatives jointly when building preferences, we would in practice run into an excessively large number of parameters relatively to the number of observations and it would be difficult to produce statistically significant estimates. Another approach would be to add explanatory variables representing iterations between the criteria. Once more, the problem would be the lack of statistical significance that we ought to expect due to the increase in the number of parameters to estimate and the correlation between the explanatory variables. 294 Pesquisa Naval Nº 15, Setembro de 2002 3. Model Building We present, in the following, step by step, the transformations of variables that we apply in order to derive a final linear representation of the preferences in terms of partial evaluations according to each particular criterion. First, we have to choose a starting point, an initial manner of presenting the results of the application of each isolated criteria. Variables transformation consists in modifying these initial measurements to reflect the affective influences through which the final preferences are built. We take as initial information a full set of coherent preference indications according to well-defined criteria. By a coherent set of preference indications we mean an anti-symmetric and transitive mapping onto the set of alternatives under evaluation. Indifference is admitted, in the sense that ties are allowed: two or more options may receive the same rank. Empty spaces between successively ranked options, possibly corresponding to alternatives that are not among those compared, may also be left. Ties and empty spaces allow for a compromise between purely ordinal and cardinal classifications. Setting our evaluations always in terms of ranks, instead of measurements in varying scales, allows for easier numerical determination of breakpoints for the transformations. This makes them easier to be followed and results easier to interpret. We may obtain the needed coherent preference indications by attributing to each option a value in a previously defined scale where each point corresponds to a position that is easy to determine according to the criterion that is being applied. We may also start by comparing pairs of alternatives, according to such criterion, as in Saaty (1980) or Lootsma (1993), carefully preserving transitivity. Transformations designed to model the effect of risk aversion must result in attributing greater importance in the model fit to the observations presenting vectors of classifications according to the various criteria presenting greater agreement between the coordinates. In the analysis of investments, traditionally (see, for example, Sharpe, 1964 or Engle, 1993), the risk is measured by the dispersion in the portfolio. We may incorporate risk aversion into our model, through the inclusion of an explanatory variable measuring, for each alternative, the dispersion in the vector of original evaluations of the alternative. For the same parsimony considerations above explicited, we prefer to work in the transformation of the initial measurements. This is done here, taking simultaneously into account the prominence effect. We start by ordering the criteria and modify the values corresponding to the less important criteria whenever they present values that we identify as very far from the values derived from those that we have classified as more important. 1) A concrete formulation for this transformation consists of: calculate, for each option and each criterion, the distance from the rank of the option according to the criterion to the average rank of the same option according to the criteria classified as more important than it, Pesquisa Naval Nº 15, Setembro de 2002 295 2) after that, calculate, for each criterion, a measure of the dispersion, for instance, the standard deviation, of this vector of distances, and, finally, 3) establish a limit in terms of this dispersion measurement, for instance the 3 sigma or 0.001 probability limit of Shewhart control charts, and shift each evaluation that is found out of bounds by an amount enough to reduce to such limit its distance to the average rank referred in step 1. A simpler alternative consists on only shifting values that are away, from the nearest among the values supplied by the criteria relatively more important, more than a previously fixed bound. Some kind of prominence principle can also be applied within the range of application of an isolated criterion, to amplify distances between the preferred options and to eliminate differences between low probabilities. If we replace ranks by probabilities of choice as the best ones, the options ranked first will be much far away from those following them than the others. Another way to transform the variables in the direction of expanding distances between the preferred options is to change from the arithmetic to the geometric scale. This can be done by treating the ranks as exponents on a given basis. We do that, by fixing the basis in such a way as to replace ranks by probabilities belonging to a truncated geometric distribution. The result is very close to the idea of measuring preferences in powers of two. This form of measurement of preferences as probabilities of choice that add to 1 may bring difficulties to the inference on the parameters of the linear model. The hypothesis of independence is violated, as much as the hypothesis of normality. To circumvent this problem, we change a second time the distances, by applying the inverse standard normal transformation. Since our highest value, according to the truncated geometric probability distribution was around one half, this second transformation has a smoothing effect on the largest and smallest distances. Our last change consists in slightly raising, to a uniform threshold, all small probabilities. This final transformation pays attention to the principle of loss aversion, present in the Prospect Theory (see Kahnemann and Tversky (1979) and Gomes and Lima (1992)). We associate it to the idea of simplifying reasoning, that may answer for the attitude of disregarding numerical values when dealing with small probabilities and huge gains. The transformation we use here to take into account this aspect consists in equalizing all probabilities in the set of the smallest probabilities responsible, altogether, for 1/1,000 of the total after all other changes have been made, to the larger among them. A simpler alternative to this last transformation would consist in just raising to a threshold, possibly given by the highest among them, the probabilities of all options in the last quarter or any other fraction previously chosen of worst ranked options. 296 Pesquisa Naval Nº 15, Setembro de 2002 4. Model Adjustment The linear regression model for the formation of the preferences starting from ranks derived from different criteria and subsequently modified can be formally represented by: E (Y | R) = a + ΣbiXi(R) (3.1) with the following specifications. 1) Dependent variable: Y. Yj denotes the final preference for the j-th alternative. 2) Initial explanatory variables: Ri, for i varying from 1 to k, k denoting the number of criteria. Rji denotes the rank of the j-th alternative, being these ordered from the most advantageous to the less advantageous according to the i-th criterion. 3) Explanatory variables transformed due to the effect of prominence among criteria: Pi(R), i varying from 1 to k. P1(R) = R1 (3.2) and, for i >1, Pji(R) = Pji (3.3) if Dji < 3*sigma(i), (3.4) where Dji = Rji - Average(Rjq: q<i), (3.5) the difference between the rank of the j-th alternative according to the i-th criterion and the arithmetic mean of its ranks according to the criteria that precede the i-th criterion, and sigma(i) is the standard deviation of the vector = (D1i..., Dni), n denoting the number of alternatives. Otherwise Pji(R) = Average(Rjl: l<i) + 3*sigma(i). (3.6) 1) Explanatory variables transformed by the effect of prominence among alternatives: Vi, i varying from 1 to k. Vji denotes the value of the power of basis Bi and exponent Pji, where Bi is determined by the constraint that be 1 the sum of the Bis, for s varying from 1 the n. 2) Explanatory variables transformed due to the reward magnitude equalization effect: Xi, i varying from 1 to k. Pesquisa Naval Nº 15, Setembro de 2002 Xji = φ(Vji), 297 (3.7) if the sum of the Vmi for Vmi<Vji is greater than 0.001 that means, if the value given by the i-th criterion to the j-th alternative is above the percentile p=0.001. Here φ denotes the standard normal inverse accumulated distribution function. Otherwise, Xji = φ (Vpi), p denoting the 0.001percentile. (3.8) Specified the model, we must decide about the procedures for inference on its parameters. The transformations that we apply to the initial ranks involve changes, basically, on extreme values. For this reason, it is important to detect outliers and eventually correct mistakes in the evaluation of options with discrepant values. An automatic mechanism to generate information about extreme values is to simultaneously fit the linear model by least squares and by minimization of the sum of absolute residuals. As the change of the optimization rule does not involve variables transformations, the comparison of the results of the adjustments produced by the two algorithms can help to identify the options where contradictory evaluations, as well as extreme evaluations according to some isolated criterion, have greater power of affecting the final ranking. 5. An Example Here we apply the modeling strategy above developed to the formation of preferences of bettors in horse races. In this case, we know precisely the final preferences distribution, given by the amount of money bet on each animal. Thaler and Ziemba (1988), extending results of Ali (1977), have demonstrated that, under general conditions, longshots are overbet, so that favorites are underbet. But we do not know which factors combine to produce such preferences. We consider here two criteria: previous ranking of the animals, provided by the official track handicapper, and ranking of the jockeys, derived from the number of riding compromises signed throughout the season. We have chosen to analyze the Rio de Janeiro’s 2000 Selective Proof of the Latin American Association of Jockey Clubs, one of the few prooves in Rio de Janeiro races midyear calendar counting with an official previous rank of the competitors. We applied all the transformations above described to the ranks and fitted the model by classical least squares and by minimization of the sum of absolute residuals. Table 1 presents, for each animal and jockey, the final preferences, the initial ranks according to both criteria and the transformed ranks. We assumed the first criterion (animal previous rank) prominent with respect to the second (previous preferences for the jockey). With a standard deviation of 3.15 298 Pesquisa Naval Nº 15, Setembro de 2002 for the vector of deviations of ranks, the shift in the second criterion classification for highly discrepant evaluations produced a slight improvement in the positions of the options ranked 14th and 15th according to this second criterion. This was enough to produce a final reduction of the number of options in the inferior 1/1,000 percentile from 8 to 7. Table 2 shows the results of the least squares adjustment, first for the model without variables transformations and, in the second line, for the model with transformed variables. We can see that, in this example, all adjustment indicators are larger for the second model. The effect of the second criterion, that was not statistically significant before the transformations of the data, becomes statistically significant after the transformations. TABLE 1. INITIAL DATA AND TRANSFORMATIONS Animal Jockey Absolute Ruler J Ricardo Preferen Criterion Criterion Transfor Transform II ce I II mI 27.51 1 1 0.00 0.00 Boudin C Lavor 16.63 2 3 -0.67 -1.15 Omnium Leader Sunshine Way C G Netto 4.77 3 14 -1.15 -3.30 J Leme 7.37 4 7 -1.53 -2.42 Teeran J M Silva 5.59 5 15 -1.86 -3.30 Icelander G F Almeida 15.89 6 9 -2.15 -2.89 Smoky Salmon A Mota 2.96 7 6 -2.42 -2.15 Jarrinho M Cardoso 4.83 8 2 -2.66 -0.67 Stratum J Poleti 1.66 9 11 -2.89 -3.30 Insuperável G Guimarães 6.33 10 4 -3.10 -1.53 ES Rodrigues Official Report F Chaves 0.35 11 17 -3.10 -3.30 1.63 12 5 -3.10 -1.86 Tropeiro J James 0.74 13 12 -3.10 -3.30 Ravaro M Almeida 0.59 14 8 -3.10 -2.66 Justus Magnus T J Pereira 2.04 15 10 -3.10 -3.10 Corredor Negro A Fernandes 0.32 16 13 -3.10 -3.30 Teddy World 0.80 17 16 -3.10 -3.30 Hot Birthday J Queiroz Pesquisa Naval Nº 15, Setembro de 2002 299 TABLE 2. MODELS COMPARISON Model Simple ranks Transformed Variables t beta0 6,36 8,93 t beta1 3,36 4,74 t beta2 1,73 2,32 F 11,62 26,05 R2 0,62 0,79 6. Final Comments We sketch in this work some alternatives for the handling of different factors affecting the formation of preferences. We demonstrate that statistical models based on the transformation of explanatory variable are able to incorporate the effect of behaviors suggested by different theories about sources of departures from rational behavior. The present ideas can be used to advantage in other contexts. The good adjustment of the statistical model always depends on the existence of a large enough volume of data. When this is available, however, it provides a path to understand effects so far little investigated quantitatively. 7. References ALI, M. 1977. Probability and Utility Estimates for Racetrack Bettors. Journal of Political Economy 85: 803-815. ENGLE, R 1993. Statistical Models for Financial Volatility, Financial Analysis Journal, 49, 23-28. GAMERMAN, D. E MIGON, H. S. 1993. Dynamic Hierarchical Models. JRSS, B 55: 629-642. GOMES, L. F. A. M. AND LIMA, M. M. P. M. 1992. From Modeling Individual Prefer-ences to Multicriteria ranking of Discrete Alternatives: a Look at Prospect Theory and the Ad-ditive Difference Model. Foundations of Computing and Decision Sciences 17: 172-184. KAHNEMANN, D. AND TVERSKY, A. 1979. Prospect Theory: an Analysis of Decision under Risk, Econometrica 47: 263-291. LOOTSMA, F. A. 1993. Scale Sensitivity in the Multiplicative AHP and SMART. Journal of Multicriteria Decision Analysis 2: 87-110. SAATY, T. L. 1980. The Analytic Hierarchy Process, Planning, Priority Setting and Resource Allocation. Mc. Graw Hill: New York. SHARPE, W. F. 1964. Capital Asset Prices, a Theory of Market Equilibrium under Con-ditions of Risk. Journal of Finance 19: 425-442. THALER, R. AND ZIEMBA, W. T. 1997. Parimutual Betting Markets: Racetracks and Lotteries. Journal of Economic Perspectives. 2: 161-174. 300 Pesquisa Naval Nº 15, Setembro de 2002 Centro Tecnológico da Marinha em São Paulo CTMSP – TECNOLOGIA PRÓPRIA É INDEPENDÊNCIA O Programa Nuclear da Marinha (PNM), iniciado em 1979, foi concebido com o propósito de gerar capacitação tecnológica no País, para projetar e construir um submarino nacional de propulsão nuclear, no início do século XXI. É importante ressaltar que esse programa faz parte de um contexto mais amplo do Programa Autônomo de Tecnologia Nuclear, o chamado Programa Nuclear Brasileiro, que foi impulsionado, tendo como metas o domínio completo do ciclo do combustível nuclear e a utilização pacífica da energia nuclear, de modo a suprir as necessidades do País na área nuclear não atendidas pelo Acordo Brasil-Alemanha. O Centro Tecnológico da Marinha em São Paulo (CTMSP) foi criado pelo decreto nº 93.439, de 17 de outubro de 1986, sob o nome de Coordenadoria para Projetos Especiais (COPESP), tendo sua denominação alterada para CTMSP em 1995. É uma OM que trabalha em pesquisa e desenvolvimento, com o propósito de promover sistemas nucleares e energéticos para propulsão naval. As atividades realizadas pelo CTMSP visam contribuir para o projeto e a construção de um submarino de propulsão nuclear nacional, necessário à preservação dos interesses marítimos do País. INSTALAÇÕES A sede do CTMSP está instalada no campus da Universidade de São Paulo (USP), onde se encontram outros importantes centros de pesquisas nacionais. Em Iperó, na região de Sorocaba, está o Centro Experimental Aramar (CEA), que abriga instalações de testes, laboratórios de validação experimental e diversas oficinas especializadas. CICLO DO COMBUSTÍVEL NUCLEAR A figura abaixo apresenta as fases necessárias para a fabricação do combustível nuclear, desde a prospecção do minério de urânio até a utilização do combustível na planta de produção de energia. O CTMSP recebe o concentrado de urânio (yellow cake), obtido no beneficiamento do mineral, e produz o elemento combustível que será empregado no núcleo do reator nuclear, utilizando-se uma técnica completamente desenvolvida no país. As fases executadas incluem: conversão do concentrado no gás hexafluoreto de urânio; seu enriquecimento, utilizando-se a técnica de ultracentrifugação, por meio da qual aumenta-se a concentração do isótopo físsil 235U; reconversão do gás para a forma de pastilhas de dióxido de urânio; e montagem destas pastilhas em elementos combustíveis. Pesquisa Naval Nº 15, Setembro de 2002 301 O PROJETO DA INSTALAÇÃO DE PROPULSÃO NUCLEAR Para projetar e desenvolver a instalação propulsora do submarino nacional de propulsão nuclear, a MB, através do CTMSP, necessitava vencer etapas bem definidas de desenvolvimento tecnológico: o enriquecimento isotópico de urânio (de modo a garantir o domínio tecnológico de todo o ciclo de combustível nuclear); e o projeto, desenvolvimento e construção, em terra, de uma instalação protótipo de propulsão nuclear, denominada Instalação Nuclear a Água Pressurizada (INAP). O Projeto de Enriquecimento de Urânio tinha como metas a pesquisa e o desenvolvimento de ultracentrífugas, para atender à capacitação plena no ciclo do combustível nuclear, no que tange às necessidades da Marinha. Após vencida a barreira do enriquecimento, a Marinha passou a enfrentar outras dificuldades. Apesar de todos os tratados assinados e ratificados pelo País, a venda do hexafluoreto de urânio natural (UF6) para o CTMSP continuou a ser negada por outros países. Essa dependência impôs à Marinha programar o projeto e a construção de uma unidade de produção de UF6, com capacidade de 40 ton/ano. Essa instalação, prevista para ser concluída em 2002, permitirá que a Marinha domine, também, a única fase do ciclo do combustível ainda não desenvolvida no País. O PNM previu o desenvolvimento de uma instalação protótipo de propulsão nuclear, com um reator a água pressurizada (PWR) de 11 megawatts-elétricos, a INAP, a ser construída no CEA, e que é a primeira instalação nuclear de potência projetada no País. 302 Pesquisa Naval Nº 15, Setembro de 2002 Em uma primeira fase do Projeto da INAP, estão sendo fabricados o reator e seus internos, além de testados os equipamentos propulsores, turbinas e geradores. Por ser a tecnologia utilizada nessa instalação essencialmente a mesma que é empregada em instalações de maior porte, destinadas à geração elétrica (centrais núcleoelétricas como Angra I e Angra II), pode-se prever que, tal como ocorreu em outros países, a capacitação adquirida no projeto de construção do reator de propulsão naval possa ser utilizada no projeto e construção de centrais núcleo-elétricas, que viriam complementar, no futuro, a nossa matriz energética. Cumpre ressaltar que o tipo de reator nuclear utilizado na propulsão naval, o PWR, é o que, em termos mundiais, tem maior aceitação e uso na produção de energia elétrica, tendência esta que tem sido gradativamente ampliada com a incorporação de novos sistemas intrínsecos de segurança, também integrados à INAP. CENTRO TECNOLÓGICO DA MARINHA EM SÃO PAULO PARTICIPAÇÃO DA INDÚSTRIA NACIONAL Desde o seu início, o programa do CTMSP tem contado com a participação ativa da indústria brasileira. O entrosamento com empresas de engenharia e fabricantes nacionais tem propiciado índices crescentes de nacionalização das oficinas, laboratórios, usinas e protótipos desenvolvidos. Por exemplo, a tecnologia de ultracentrifugação utilizada para o enriquecimento do urânio é 100% nacional. Pesquisa Naval Nº 15, Setembro de 2002 303 Como cliente, o CTMSP conta com a parceria de cerca de 150 indústrias nacionais, junto às quais encomenda a maioria dos produtos utilizados nos seus projetos. No entanto, alguns desses itens, devido à pequena quantidade ou a sua sofisticação, são fabricados internamente. Para suprir tais necessidades, o CTMSP montou uma infraestrutura própria de fabricação que, também, pode atender a eventuais necessidades do setor industrial. A aplicação dos produtos desenvolvidos pelo CTMSP tem atraído empresas nacionais para participar do processo de migração tecnológica. TECNOLOGIA NACIONAL DE ENRIQUECIMENTO DE URÂNIO A tecnologia de ultracentrífugas, desenvolvida pela Marinha para enriquecimento isotópico de urânio, também será utilizada pelas Indústrias Nucleares do Brasil (INB) para fabricação do combustível das usinas Angra 1 e Angra 2. Em julho de 2000, foi assinado um contrato com as Indústrias Nucleares do Brasil (INB), para o fornecimento de cascatas de enriquecimento de urânio por ultracentrifugação, a serem instaladas naquela empresa, em Resende. Com a duração prevista de 8 anos e investimentos da ordem de R$ 250 milhões, esse fornecimento, gradualmente, capacitará a INB para atender à demanda da Usina de Angra 1 e parte da demanda de Angra 2. Com o enriquecimento realizado no País, serão economizados cerca de U$ 15 milhões ao ano e cerca de U$ 300 milhões ao longo da vida útil das centrífugas. Representa, também, a transferência, para a indústria, de uma tecnologia desenvolvida por pesquisadores da Marinha do Brasil, mostrando que o trabalho dos nossos especialistas é de extremo valor prático. Nesse ponto, cabe destacar que o Programa Nuclear da Marinha, há muito, deixou de ser um Programa da Marinha, desenvolvido pela Marinha e para a Marinha. EQUIPAMENTOS DE ÚLTIMA GERAÇÃO Como subprodutos decorrentes do PNM, pode-se, ainda, mencionar sua aplicação em diversos setores do País: agricultura, medicina, biologia e indústria. Na preservação do meio ambiente são empregados processos e equipamentos nucleares, visando à reciclagem de produtos. Além disso, a Marinha tem fornecido urânio enriquecido para o Instituto de Pesquisas Energéticas e Nucleares (IPEN), para a operação do seu reator de pesquisa, na produção de radioisótopos, com a aplicação em diversas áreas. Sem sombra de dúvida, todo esse imenso patrimônio apresenta inestimável valor estratégico e tecnológico que vem sendo obtido ao longo de todos estes anos, quase que na totalidade, com grande esforço da Marinha na alocação de recursos humanos, materiais e financeiros 304 Pesquisa Naval Nº 15, Setembro de 2002 REQUISITOS PARA PUBLICAÇÃO DE TRABALHOS 123- 4- 5678- Qualquer pessoa, pertencente ou não à Marinha, poderá submeter trabalhos para publicação. Não há limite para o número de artigos por autor. Os trabalhos deverão ser de interesse científico, e não podendo já ter sido publicados em quaisquer revistas ou periódicos (exceção feita a anais de congressos). Os artigos deverão ser endereçados ao Comitê Editorial do Suplemento “Pesquisa Naval”, até 31 de julho de 2003, acompanhados de carta ao EditorChefe, declarando não terem sido publicados em nenhuma revista ou periódico, autorizando sua veiculação no Suplemento, e fornecendo endereço para correspondência. Os trabalhos enviados serão apreciados pelo Comitê Editorial e, em última instância, pelo Editor-Chefe, sendo rejeitados aqueles que, de acordo com esse julgamento, não possuírem interesse científico e não obedecerem aos padrões de apresentação especificados adiante (em 09). Se a discrepância for pequena e houver tempo hábil, poderá ser solicitado ao autor que efetue modificações. No caso de haver maior número de trabalhos que um único exemplar do Suplemento possa comportar, os artigos aceitos serão distribuídos por diversos números. Os trabalhos, mesmo se rejeitados, não serão devolvidos, exceto para demanda de alterações, se for o caso. Os trabalhos, mesmo publicados, não serão remunerados. A apresentação dos originais deverá obedecer às seguintes regras: a) O trabalho deverá ser enviado através de texto escrito e por meio magnético, podendo ser utilizado o meio eletrônico; deverá ser digitado em PageMaker 6.5 ou Word 97, em espaço simples, e apresentado em 02(duas) vias, em folhas tamanho A4, num só lado, com margem esquerda não inferior a 03(três) centímetros e uma mancha de 18cmX12 cm (configurar a página : marg. sup. 6,3 cm, marg. inf. 5,5 cm, marg. esq. e dir. 4,5 cm, cabeçalho 4,6 cm e rodapé 1,25, tamanho de fonte 10, formato Times New Roman), incluindo quadros, fotografias, etc, inclusos no texto, acompanhados dos respectivos disquetes; b) Os originais não deverão exceder 12 páginas A4, incluindo anexos; c) O nome do autor deverá vir seguido do título profissional e do nome da instituição onde exerce atividade científica; d) Figuras e gráficos deverão ser encaminhados em disquete à parte com indicação de localização no texto e respectivas legendas; e) Os trabalhos deverão conter as Seguintes seções: (1) Resumo (Português) e “Abstract” (Inglês) com no máximo 150 palavras cada; (2) Introdução; (3) Metodologia; (4) Resultados; (5) Discussão; (6) Conclusões e (7) Referências Bibliográficas. Permite-se a omissão da Seção 3 e a fusão das Seções 4 e 5, quando a natureza do trabalho assim o recomendar; e Pesquisa Naval Nº 15, Setembro de 2002 305 f) Para aspectos gerais de apresentação, referências bibliográficas, notas e demais detalhes, Seguir as Normas da ABNT sobre Documentação; especificamente as Normas NB-62, NB-66 e NB-88. 9- Para quaisquer informações adicionais, escrever para o Comitê Editorial (vide endereço no item 10). 10- O Corpo Editorial do Suplemento tem a seguinte constituição: Editor-Chefe : Editores Adjuntos: Comitê Editorial: V Alte Mário Jorge Ferreira Braga V Alte Lúcio Franco de Sá Fernandes C Alte (EN) Olavo Amorim de Andrade C Alte Pedro Fava C Alte (EN) Alan Paes Leme Arthou Antonio Freitas, PhD Carlos Rodrigues Pereira Belchior, PhD Eliane Gonzalez Rodriguez, DSc Flavio da Costa Fernandes, PhD Jorge Muniz Barreto, PhD José Carlos Albano do Amarante, PhD Luiz Flavio Autran Monteiro Gomes, PhD Marcos Cesar Goldbarg, PhD Maria Augusta Soares Machado, DSc Reinaldo Castro de Souza, PhD Coordenação: Maria Helena Severo de Souza Editoração: 2o SG Leila dos Santos Riente Endereço: Estado-Maior da Armada – Rio Praça Barão de Ladário, S/Nº, 2º andar, Centro CEP: 20010-000 Fax: (0XX21) 3870-5162 Tel: (0XX21) 3870-5113 e-mail: [email protected] [email protected]