PESQUISA NAVAL
ISSN 1414-8595
Suplemento Especial
da
REVISTA MARÍTIMA BRASILEIRA
NÚMERO 15 - SETEMBRO DE 2002
Serviço de Documentação da Marinha
ISSN 1414-8595
PESQUISA NAVAL
SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA
PATROCÍNIO
ESTADO-MAIOR DA ARMADA
EDITOR-CHEFE
V ALTE MARIO JORGE FERREIRA BRAGA
SECRETARIA-EXECUTIVA DO CONSELHO DE CIÊNCIA E TECNOLOGIA DA
MARINHA (SECONCITEM)
EDITORES ADJUNTOS
V ALTE LÚCIO FRANCO DE SÁ FERNANDES
CENTRO DE ANÁLISES DE SISTEMAS NAVAIS – CASNAV
C ALTE (EN) OLAVO AMORIM DE ANDRADE
INSTITUTO DE PESQUISAS DA MARINHA – IPqM
C ALTE PEDRO FAVA
INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULO MOREIRA - IEAPM
C ALTE (EN) ALAN PAES LEME ARTHOU
CENTRO TECNOLÓGICO DA MARINHA EM SÃO PAULO - CTMSP
COMITÊ EDITORIAL
ANTONIO FREITAS, PhD - PO/Finanças - UERJ/IBMEC
CARLOS RODRIGUES PEREIRA BELCHIOR, PhD - Engenharia Naval – UFRJ
ELIANE GONZALEZ RODRIGUEZ, DSc – Oceanografia Biológica - IEAPM
FLAVIO DA COSTA FERNANDES, PhD - Oceanografia - IEAPM
JORGE MUNIZ BARRETO, PhD - Informática/Estatística - UFSC
JOSÉ CARLOS ALBANO DO AMARANTE, PhD - Química - IME
LUIZ FERREIRA CALOBA, PhD - Engenharia Elétrica - COPPE/UFRJ
LUIZ FLÁVIO AUTRAN MONTEIRO GOMES, PhD - PO/Decisão - UFF/IBMEC
MARCOS CESAR GOLDBARG, PhD - Informática – UFRN
MARIA AUGUSTA SOARES MACHADO, DSc – PO/Estatística -IBMEC
MAURICIO PAZINI BRANDÃO, PhD - Engenharia Aeronáutica e Astronáutica - CTA
REINALDO CASTRO DE SOUZA, PhD - PO - PUC
COORDENAÇÃO
MARIA HELENA SEVERO DE SOUZA
SUPERVISÃO
ROSANA BARBOSA BUCHAUL
EDIÇÃO
SERVIÇO DE
DOCUMENTAÇÃO
DA MARINHA
PESQUISA NAVAL
ISSN 1414-8595
Suplemento Especial
da
REVISTA MARÍTIMA BRASILEIRA
NÚMERO 15 - SETEMBRO DE 2002
Serviço de Documentação da Marinha
A Pesquisa Naval, suplemento da tradicional Revista Marítima Brasileira, se
destina a divulgar os resultados científicos e tecnológicos obtidos sob a égide da
Marinha do Brasil, bem como servir de veículo para intercâmbio com instituições de
pesquisa.
Os artigos aqui publicados não refletem a posição ou a doutrina da Marinha e
são de responsabilidade de seus autores.
Pesquisa Naval / Serviço de Documentação da Marinha
- v. 1, n. 1, 1988 - Rio de Janeiro - RJ - Brasil - Ministério da Marinha
Anual
Título Abreviado: Pesq. Nav.
ISSN 1414-8595
1. Marinha - Periódico - Pesquisa Científica. Serviço de Documentação da
Marinha
CDU 001.891:623.8/.9
CDD 623.807.2
SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA
SUMÁRIO
Palavras Iniciais
Marcos Augusto Leal de Azevedo
Almirante-de-Esquadra
Chefe do Estado-Maior da Armada ........................................................................................ VIII
Apresentação
Mário Jorge Ferreira Braga
Vice-Almirante
Secretário-Executivo do Conselho de Ciência e Tecnologia da Marinha ......................................IX
Capítulo I
Sobre Sistemas de Apoio a Decisão
V Alte Mário Jorge Ferreira Braga, DSc
Secretaria-Executiva do Conselho de Ciência e Tecnologia da Marinha
Maria Augusta Soares Machado, DSc - Faculdades IBMECRJ
Luiza Maria Oliveira da Silva, MSc - Faculdades IBMECRJ
André Machado Caldeira - Escola Nacional de Ciências Estatísticas............................................13
Capítulo II
Modelo de Programação Linear Binível para Alocação Dinâmica de Veículos
CC(EN) Júlio César Silva Neves - Instituto Militar de Engenharia
Raad Yahya Qassim - Departamento de Engenharia Mecânica da EE e COPPE da Universidade
Federal do Rio de Janeiro
Gisele Campos Neves - Centro Federal de Educação Tecnológica Celso Suckow da
Fonseca ....................................................................................................................................31
Capítulo III
Sistema Fuzzy com Aprendizado Aplicado ao Controle de Um Navio Cargueiro
S. A. Valente, MSc. - Centro Universitário Positivo - UNICENP
L. V. R. Arruda, PhD - Centro Federal de Educação Tecnológica do Paraná ............................41
Capítulo IV
Método Multicritério para Seleção de Variáveis em modelos DEA
João Carlos Correia Baptista Soares de Mello - Universidade Federal Fluminense
Eliane Gonçalves Gomes – COPPE/ Universidade Federal do Rio de Janeiro
Maria Helena Campos Soares de Mello - Universidade Federal Fluminense
Marcos Pereira Estellita Lins COPPE - Universidade Federal do Riode Janeiro ..........................55
Capítulo V
Aplicação da Técnica de Kernel na Detecção Sonar
Cleide Vital da Silva Rodrigues - Instituto de Pesquisas da Marinha – IPqM - Universidade
Federal do Rio de Janeiro - PEP/COPPE
Basílio de Bragança Pereira - Universidade Federal do Rio de Janeiro - FM, NESC e PEP/COPPE
Antonio Petraglia - Universidade Federal do Rio de Janeiro - PEE/COPPE .................................67
Capítulo VI
Modelagem Numérica Hidrodinâmica Tridimensional da Região Costeira e Estuarina de São
Vicente e Santos (SP)
Joseph Harari - Instituto Oceanográfico da USP
Ricardo de Camargo - Instituto Astronômico, Geofísico e de Ciências Atmosféricas da USP
Luiz Bruner de Miranda - Instituto Oceanográfico da USP ..........................................................79
Capítulo VII
Previsão De Energia Elétrica Usando Redes Neurais Nebulosas
Maria Augusta Soares Machado, DSc. -IBMECRJ
Reinaldo Castro Souza, PhD. - DEE-PUC-RJ
André Machado Caldeira - Escola Nacional de Ciências Estatísticas
V Alte Mário Jorge Ferreira Braga, DSc. - Secretaria-Executiva do Conselho de Ciência e
Tecnologia da Marinha – SECONCITEM ..................................................................................99
Capítulo VIII
Mapeamento do índice de vulnerabilidade ambiental ao impacto por óleo da zona costeira
entre Ceará e Rio Grande do Norte, usando imagens orbitais e sistema de informações geográficas
Gherardi, D.F.M. - Programa HIDRO-DSR/OBT -INPE
Cabral, A.P.- Oceansat - Tecnologia Espacial para Monitoramento Ambiental S/C Ltda,
Braga, C.Z.F.- Programa HIDRO-DSR/OBT – INPE
Eichenberger, C.- Programa HIDRO-DSR/OBT – INPE ............................................................109
Capítulo IX
Margens de Incertezas Sobre a Potência Total de uma Instalação Propulsora Nuclear para
Submarinos
CF(EN) Leonam dos Santos Guimarães - Centro Tecnológico da Marinha em São Paulo (CTMSP)
Paulo César Leone,Dr. - Centro Tecnológico da Marinha em São Paulo (CTMSP) .....................117
Capítulo X
Modelo de Avaliação de Riscos Sócio-Tecnológicos
CF(EN) Leonam dos Santos Guimarães -Centro Tecnológico da Marinha em São Paulo ............131
Capítulo XI
Emprego de Ferritas de Ni-Zn como Absorvedores de Microondas
CC(EN) Maria Luisa Gregori - Instituto de Pesquisas da Marinha (IPqM)
CC(EN) Emilson Gonçalves Paulo - Instituto de Pesquisas da Marinha (IPqM)
1T(T) Tadeu Henrique dos Santos - Instituto de Pesquisas da Marinha (IPqM)
Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM)
Roberto da Costa Lima - Instituto de Pesquisas da Marinha (IPqM)
Júlio César dos Santos Leandro - Instituto de Pesquisas da Marinha (IPqM) .............................143
Capítulo XII
Avaliação do Desempenho de Materiais Absorvedores de Microondas por Guia de Ondas Através
dos Fatores de Dissipação Dielétrica e Magnética
Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM)
CC(En) Maria Luisa Gregori - Instituto de Pesquisas da Marinha (IPqM)
Regina Célia Reis Nunes - Instituto de Macromoléculas (IMA) da Universidade Federal do Rio
De Janeiro (UFRJ)
Bluma Guenther Soares - Instituto de Macromoléculas (IMA) da Universidade Federal do Rio De
Janeiro (UFRJ) .......................................................................................................................149
Capítulo XIII
Nova Metodologia para a Estimativa da Cobertura de Nuvens
S. L. Mantelli Neto MSc. - Laboratório de Energia Solar, Departamento de Engenharia Mecânica,
Universidade Federal de Santa Catarina
A.V. Wangenhein Dr. Rer. Nat. - Laboratório de Integração Software-Hardware, Departamento
de Informática e Estatística, Universidade Federal de Santa Catarina
E. B. Pereira PhD. - Departamento de Geofísica Espacial, Instituto Nacional de Pesquisas
Espaciais .................................................................................................................................159
Capítulo XIV
Estudo do Campo de Vento de Superfície Sobre o Atlântico Sul Usando Dados do Escaterômetro
do ERS
Marlos C. Baptista - Oceansat Tecnologia Espacial para Monitoramento Ambiental S/C Ltda
José L. Stech - Instituto Nacional de Pesquisas Espaciais (INPE)
João A. Lorenzzetti - Instituto Nacional de Pesquisas Espaciais (INPE) ....................................169
Capítulo XV
Sobre a Reprodução Fiel em Cores
Teodoro Oniga, PhD - Ex-Analista Sênior do CASNAV ...............................................................183
Capítulo XVI
JAVAMIX: Sistema de Apoio a Decisão para Avaliação de Planos de Varredura de Minas
CC José Corrêa Paes Filho, MSc. - Centro de Análises de Sistemas Navais
Alan Washburn, PhD. - Professor Titular do Departamento de Pesquisa Operacional. - Naval
Postgraduate School – Monterey, CA .......................................................................................211
Capítulo XVII
Sistema de Apoio à Decisão Espacial para Roteamento de Veículos: Aplicação na Marinha
CC Rogério Pesse - Centro de Análises de Sistemas Navais
Roberto Diéguez Galvão - Programa de Engenharia de Produção, COPPE/UFRJ
Júlio Francisco Barros Neto - Universidade Federal do Ceará ...................................................225
Capítulo XVIII
Modelagem Matemática para Hidroacústica em Águas Rasas Usando o Método dos Elementos
Finitos
Sônia Maria Constantino Ferreira, - Fundação Universidade Federal do Rio Grande – FURG
Volnei Andersson,- Fundação Universidade Federal do Rio Grande – FURG
Humberto Camargo Piccoli, -Fundação Universidade Federal do Rio Grande – FURG ............241
Capítulo XIX
Logística Militar: Eficiência na Paz e Eficácia na Guerra
Eng. Civil João Antônio Junqueira Teixeira - Universidade Federal do Rio Grande do Sul
2º Ten Int Emílio Kerber Filho - Universidade Federal do Rio Grande do Sul .............................253
Capítulo XX
Aspectos de Controlabilidade de Reatores
CC(EN) Michel Kireeff Covo, MSc.Comissão Naval Brasileira em Washington/University of
California at Berkeley .........................................................................................................263
Capítulo XXI
Análise para Escolha de Material de Emprego Militar: Um Enfoque Multicritério
Aderson Campos Passos - Indústria de Material Bélico do Brasil – Fábrica da Estrela
Luiz Flávio Autran Monteiro Gomes - Faculdades IBMEC ........................................................273
Capítulo XXII
Quantifying Trade-Offs Between Multiple Criteria in The Formation of Preferences
Annibal Parracho Sant’Anna - Universidade Federal Fluminense
Luiz Flávio Autran Monteiro Gomes - Faculdades IBMEC ........................................................291
PALAVRAS INICIAIS
Esta revista é o exemplo de que espíritos empreendedores e altruístas, apesar
de ainda cercados de dificuldades de toda ordem, podem conduzir projetos a espelharem
conhecimento e desenvolvimento para o País.
Há quinze anos, por entender que uma nação não se constrói sem independência tecnológica e, ainda, por entender a importância de os pesquisadores disporem de
um canal de troca de informações científicas, o Almirante Mário Jorge Ferreira Braga
fundou a revista “Pesquisa Naval”.
Mais uma vez, circulando entre a comunidade científica, nacional e internacional, a “Pesquisa Naval” traz ao público diversas contribuições com a finalidade de
difundir novas idéias e incentivar a divulgação de trabalhos científico-tecnológicos da
nossa Marinha.
Brasília, 30 de setembro de 2002
Almirante-de-Esquadra
Chefe do Estado-Maior da Armada
APRESENTAÇÃO
É com grande satisfação, e com sentimento do dever cumprido, que apresentamos a 15ª Edição da Revista Pesquisa Naval.
Neste número, 48% dos artigos são relacionados às pesquisas desenvolvidas
nos Institutos e Centros de Pesquisas da Marinha, 46% são oriundos do Exército e
instituições civis do Brasil e 6% de articulistas estrangeiros.
Estamos certos de que a Revista Pesquisa Naval, nesses 15 anos transcorridos, constituiu importante instrumento, motivador e disseminador, da pesquisa de interesse naval no País.
Vice-Almirante
Secretário-Executivo do Conselho
de Ciência e Tecnologia da Marinha
I
Capítulo
SOBRE SISTEMAS DE APOIO A DECISÃO
V Alte Mário Jorge Ferreira Braga,DSc
Secretaria-Executiva de Ciência e Tecnologia da Marinha - SECONCITEM
Maria Augusta Soares Machado,DSc
Faculdades IBMECRJ
[email protected]
Luiza Maria Oliveira da Silva,MSc
Faculdades IBMECRJ
[email protected]
André Machado Caldeira
Escola Nacional de Ciências Estatísticas
Resumo
O propósito deste trabalho é definir conceitos de sistemas de Apoio a Decisâo
de forma ordenada, sem abusar do rigor matemático para situar administradores e
gerentes que necessitem usar os serviços de especialistas e, muitas vezes, decidir,
calçados nos subsídios que eles produzem.
Abstract
The purpose of this paper is to define some concepts for Decision Systems to
be used for decision makers.
Palavras-chave: sistema de apoio a decisâo.
Key words: decision systems.
14
Pesquisa Naval Nº 15, Setembro de 2002
1 – Introdução
A grosso modo é possível conceituar a decisão como a atividade (meio arte,
meio ciência) que consiste em escolher, entre alternativas, a mais adequada (OU
conveniente...) segundo algum critério de adequabilidade (de lucratividade, de
conveniência, etc.).
Em algumas circunstâncias, quando todas as alternativas, e seu valor segundo
o critério relevante, estão explícitas, decidir é a coisa mais fácil do mundo.
Infelizmente, entretanto, estas circunstâncias são raras, pelo menos quando se
trata de negócios, de trabalho; o usual, é haver áreas obscuras, ou em torno das
alternativas, ou dos critérios, ou de ambos.
Muito se tem estudado sobre teoria da decisão, ou sobre assuntos correlatos e
afins .O propósito de todo este estudo é lançar luz, em alguns casos mais, em outros
menos, sobre as mencionadas áreas de escuridão.
O propósito deste trabalho, é fazer desfilar este conhecimento, de forma
ordenada, sem abusar do rigor matemático pois a finalidade é situar administradores e
gerentes que terão que usar os serviços de especialistas e, muitas vezes, decidir,
calçados nos subsídios que eles produzem.
Trata-se portanto de uma tentativa de fornecer a informação suficiente à
organização mental diante do problema e não de ensinar técnicos que resolvem este ou
aquele tipo de problema.
O primeiro passo para a colocação dos assuntos atinentes a decisão, seria
descrever com mais precisão o seu contexto.
Podemos pensar que estamos diante de um certo número (que pode ser finito,
ou infinito discreto, ou infinito contínuo) de alternativas, as quais nem sempre sabemos
identificar, e que a nós pertence escolher entre elas (isto é, são variáveis sob nosso
controle, ao menos parcial), mas sobre as quais pesa a ação de outras variáveis, fora de
nosso controle (que também “ a priori” nem sempre conseguimos identificar) e que, da
interação entre as duas resulta, para nós, um lucro ou um prejuízo; decidir, corretamente,
seria escolher a alternativa de maior lucro, ou menor prejuízo, devendo-se ainda notar,
que a determinação do “lucro” (que realmente, de um modo mais geral, é uma
conseqüência) nem sempre é óbvia.
Temos em mãos uma situação em que todos os aspectos relevantes, as variáveis
de controle (ou políticas...), as variáveis independentes (ou grau de controle) e a
interação entre elas (lucro, prejuízo, conseqüência...) podem estar sujeitas a obscuridade
e/ou incerteza.
Vejamos um pequeno e simples exemplo:
O Sr. Fulano vai sair e quer decidir se leva o Guarda-Chuva; andar de GuardaChuva a tôa é desagradável, por outro lado ficar todo molhado também é.Entretanto, a
primeira circunstância só se verificará se não chover, e a segunda se chover.
Pesquisa Naval Nº 15, Setembro de 2002
15
As variáveis de controle (linhas de ação, alternativas, políticas) do Sr. Fulano,
estão perfeitamente identificadas:
A1 - Levar Guarda-Chuva
A2 – Não levar Guarda-Chuva
As variáveis independentes (no caso em pauta, se chamam “Futuras”) também
estão:
F1 - vai chover
F2 – não vai chover
Então, temos dois conjuntos:
A = [A1; A2]
E se tivermos uma função L, cujo domínio seja o produto:
A X F = [ (A1,F1); (A1,F2); (A2;F1); (A2;F2)]
E o contra domínio sejam números reais, poderemos, a cada par alternativa/
futuro, associar um número que meça o prejuízo (se for negativo é lucro) que ocorrerá;
ou seja, para (A1,F1), por exemplo:
L (A1,F1) = L
Isto fica mais claro, se visto em forma de matriz, como na tabela 1 a seguir, onde
os prejuízos não estão ainda quantificados.
Tabela 1 – decisão sobre levar ou não um guarda-chuva
A
L
T
E
R
N
A
T
I
V
A
S
F1
CHOVER
F2
NÃO CHOVER
A1
LEVAR GUARDA
CHUVA
NENHUM
ALGUM
A2
NÃO
LEVAR
GUARDA
CHUVA
ALGUM
NENHUM
Vemos que a interação A1F1 não conduz a prejuízo, o mesmo ocorrendo com
A2F2; entretanto, A1F2 e A2F1 acarretam alguma espécie de perda.
Claro, se pudéssemos (ou o Sr. Fulano) saber com certeza se vai chover ou não,
seria simples decidir, como também se tivéssemos um número para os prejuízos, isto
também ajudaria; vejam ainda que só montar o esquema pode ajudar muito (não no
caso do exemplo, que é óbvio); por exemplo, em uma grande matriz , uma série de
alternativas podem ser eliminadas por inspeção.
16
Pesquisa Naval Nº 15, Setembro de 2002
Continuando o exame do problema, vemos que se o futuro for certo, decidir não
seria mais que olhar a matriz. Não sendo, todavia, o futuro certo, teremos que lidar com
probabilidades de ocorrência para se chegar a alguma conclusão; ainda se os prejuízos
fossem quantificados,
Um modelo é uma abstração da realidade, ou seja, uma representação
simplificada, que se destina a permitir que entendamos, consequentemente, possamos
manipular, um fenômeno complexo.
Um bom exemplo é um mapa rodoviário; devido à limitações de nossos sensores
e da nossa capacidade de processamento, não conseguimos abarcar toda a complexidade
da geografia que nos cerca e, facilmente, ficarermos perdidos.
O mapa, abstraindo de toda aquela multidão de detalhes apenas o que interessa
à nossa orientação, permite que nos localizemos, que possamos escolher atalhos, que
possamos prever hora de chegada, etc.
O mapa é, portanto, uma representação simplificada da realidade, que não
conseguimos entender pelo excesso de detalhes.
Vejam bem que milhões de coisas que estão na geografia não estão no mapa; se
estivessem, ele acabaria deixando de ser modelo e não nos servir de nada; portanto,
um modelo não pode (ou não deve...) nunca ser criticado pela ausência deste ou
daquele detalhe, mas apenas pela ausência dos detalhes relevantes ao propósito que
se tem em mente.
2 – Origens e Tipos do Risco
As origens do risco correspondem a dois aspectos complementares: gestão
da energia e natureza das partes envolvidas. Dado um sistema S, para que sua missão
seja assegurada, necessariamente ele deve:
a) possuir energia, no sentido mais geral do termo (elétrica, mecânica, química,
magnética);
b) ser capaz de adquirir energia; e
c) poder filtrar ou eliminar todo excedente de energia introduzido por um conjunto
de agressões internas ou externas de diferentes naturezas.
Um projeto, construção, integração ou operação inadequados deste sistema
implica inevitavelmente a uma elevação do nível de incerteza, podendo ultrapassar um
limite admissível correspondente a um conjunto de medidas e meios previstos, o que
em seguida pode conduzir à ocorrência de um acidente. Esta incerteza tem três causas
genéricas:
a) possibilidade de ocorrência de eventos aleatórios conhecidos porém cujos
instantes de ocorrência são imprevistos, tais como falhas, erros humanos,
agressões externas ou ameaças no sentido geral do termos;
b) desconhecimento parcial ou total dos modos de falha das partes do sistema; e
Pesquisa Naval Nº 15, Setembro de 2002
17
c) desconhecimento parcial ou total do modo de funcionamento do sistema em
circunstâncias particulares, por exemplo um ambiente natural imprevisto ou
desconhecido.
A própria natureza das partes do sistema S ou dos elementos que nele entram
ou que ele produz, ou do ambiente dentro do qual ele evolui, pode ser uma fonte de
perigo e portanto conduzir a uma situação arriscada em configurações de funcionamento
normal ou anormal. Por conseguinte, a análise de segurança do sistema têm por objetivo:
a) analisar o conjunto de cenários de eventos conduzindo à ocorrência de um
acidente cujo evento inicializador (ou origem) é uma das causas citadas;
b) quantificar eventualmente a verossimilhança destes cenários em termos
probabilísticos; e
c) propor ações para redução do risco, concretizadas por proposições de “barreiras
de segurança” tendo por objetivo controlar ou limitar a evolução de um cenário
perigoso;
Visando sua completeza, as análises de risco devem sistematicamente explorar
os dois estados de funcionamento do sistema S:
a) normal (especificado), para identificar os elementos intrinsecamente perigosos,
internos e externos ao sistema (ambiente);
b) anormal, para identificar as falhas internas que podem conduzir a um acidente,
todas as causas confundidas.
Como foi definido, o risco relativo de ocorrência de um evento indesejado
durante uma atividade perigosa é determinado por dois parâmetros:
a) probabilidade de ocorrência do evento indesejado (probabilidade das causas); e
b) gravidade das conseqüências que finalmente correspondem a insucesso da
missão, mortes, ferimentos graves, destruição de propriedades, degradação do
meio-ambiente.
Pode-se dizer que o risco relativo a um evento indesejado, evento que é
considerado no presente, é definido simultaneamente:
a) por um parâmetro descrevendo de modo sintético uma seqüência de eventos
pertencentes ao passado (probabilidade de ocorrência do conjunto das causas);
b) por um parâmetro descrevendo um conjunto de eventos potencialmente
observáveis no futuro (gravidade das conseqüências).
Dois tipos de riscos podem então ser considerados:
a) risco médio durante uma atividade dada, definido como o risco acumulado que
existe durante a execução da atividade considerada, para o qual a unidade de
tempo não é explicitada pois ela corresponde à duração da atividade;
b) risco instantâneo, definido como o risco permanente que existe durante a
atividade considerada.
Por exemplo, se r(t) é o risco instantâneo relativo à atividade considerada,
cuja duração é T, pode-se considerar R como risco médio desta atividade:
R = ∫T r(t) dt = rm . T
18
Pesquisa Naval Nº 15, Setembro de 2002
Pode-se também definir da mesma forma o risco médio ao qual está exposta
uma população dada durante uma atividade, a partir do número de seus elementos que
podem sofrer injúrias. No caso de uma população humana, pode ser ainda considerado
o risco pessoal, que se refere a um único indivíduo.
3 – Conseqüências dos Eventos Indesejados seus Efeitos e Gravidades
As conseqüências associadas a um evento indesejado incidem sobre as
pessoas, o meio-ambiente, e os bens e propriedades.
Pode-se identificar pelo menos seis grupos humanos sobre os quais incidiriam,
de modo crescente, as potenciais conseqüências da operação normal, anormal e
acidental de uma instalação industrial:
a) trabalhadores da instalação diretamente afetos às atividades perigosas;
b) trabalhadores da instalação não diretamente afetos às atividades perigosas;
c) moradores das comunidades vizinhas à instalação;
d) moradores da região sócio-econômica na qual está localizada a instalação;
e) moradores da macro-região administrativa na qual está localizada a instalação;
f) público em geral que apesar de residir a grande distância da instalação poderá
vir a sofrer conseqüências através de efeitos sobre o meio-ambiente.
Pode-se identificar pelo menos seis áreas geográficas (ou eco-sistemas) sobre
os quais incidiriam, de modo crescente, as potenciais conseqüências da operação
normal, anormal e acidental de uma instalação industrial. Note-se que estas regiões
estão intimamente relacionadas aos grupos humanos supra-citados:
a) área física da instalação onde são realizadas atividades perigosas;
b) limites físicos da instalação;
c) eco-sistema local;
d) eco-sistema regional;
e) eco-sistema macro-regional;
f) eco-sistema global.
Os efeitos das conseqüências decorrentes de um evento indesejado podem
manifestar-se com relação ao tempo decorrido após o evento em:
a) efeitos imediatos;
b) efeitos retardados;
c) efeitos a longo prazo.
Além da defasagem no tempo, os efeitos podem manifestar-se dos modos:
a) determinista, ou seja, dado a ocorrência do evento, existe certeza da ocorrência
dos efeitos, em geral imediatos; e
Pesquisa Naval Nº 15, Setembro de 2002
19
b) estocástico, ou seja, dado a ocorrência do evento, existe uma determinada
probabilidade ou um aumento na probabilidade previamente existente, de
ocorrência dos efeitos, em geral retardados ou a longo prazo.
Exemplos típicos de efeitos estocásticos constituem os efeitos biológicos
das radiações ionizantes [1,2] e os efeitos biológicos das substâncias químicas tóxicas
e/ou cancerígenas, ambos a doses reduzidas (abaixo de um limiar determinista).
Destes efeitos o câncer talvez seja o mais representativo: existe um risco
individual natural elevado, independente de qualquer atividade industrial humana, de
uma determinada pessoa contrair um câncer ao longo de sua vida. A exposição às
radiações ionizantes ou a determinadas substâncias químicas em doses moderadas
aumenta a probabilidade de ocorrência deste efeito, que entretanto mantém seu caráter
estocástico.
Considerando a elevada probabilidade natural de ocorrência de um câncer ao
longo da vida de um indivíduo normal, da ordem de 25%, torna-se impossível
demonstrar-se de uma forma determinista a relação causa efeito para um caso de câncer
específico. Uma tal demonstração somente pode ser feita de forma estatística e para
um grande número de casos ocorridos em indivíduos de um determinada população
exposta, através de métodos epidemiológicos.
Conclui-se portanto que os riscos associados ao efeito de ocorrência de
câncer são duplamente probabilísticos [3], ou seja, existem:
a) uma probabilidade de que um um grupo humano seja exposto; e
b) uma probabilidade de que, decorrido um tempo t após a exposição surjam n
casos suplementares de câncer (além daqueles devido às causas naturais) dentre
os indivíduos do grupo.
Independentemente da probabilidade, pode-se classificar qualitativamente
os riscos em quatro categorias relativas à sua gravidade:
a) Risco Catastrófico, que corresponde a conseqüências tais como danos
irreversíveis ao homem (morte, invalidez permanente) e destruição total do
sistema e/ou de seu ambiente; em princípio, considerando-se a amplitude do
fenômeno ou o tempo disponível, nenhuma ação de segurança pode ser prevista
ou mesmo ‘a priori’ realmente eficaz; conseqüentemente, a identificação de um
risco catastrófico deve implicar sistematicamente a busca e validação de ações
de prevenção. Para estas ações, um evento catastrófico deve ser tornado raro,
isto é, de probabilidade muito pequena, além disto, é imperativo identificar o(s)
evento(s) inicializador(es), chamado(s) “precursor(es)” cuja ocorrência é
associada de modo quase determinista ao evento catastrófico;
b) Risco Crítico, que corresponde a conseqüências tais como danos reversíveis ao
homem (ferimentos graves mas não permanentes), ao sistema (destruição parcial)
e ao ambiente; um procedimento de emergência (ou de salvaguarda) deve impedir
a ocorrência destas conseqüências; isto implica que a identificação de um risco
crítico deve conduzir à busca e validação de ações de prevenção e de proteção;
20
Pesquisa Naval Nº 15, Setembro de 2002
c) Risco Significativo, que corresponde a conseqüências tais como ferimentos leves,
insucesso da missão sem destruição do sistema, ou longa indisponibilidade;
d) Risco Menor, que corresponde a falha de elementos do sistema sem conseqüências
sobre o sucesso da missão nem sobre a segurança
As duas primeiras classes de risco são relativas à segurança. As duas últimas
são geralmente relativas ao sucesso da missão.
4- Determinação de Objetivos de Segurança
Denomina-se risco aceitável (ou admissível ou limite) o risco resultante de
uma decisão explícita estabelecida de modo objetivo por comparação a riscos
conhecidos e correntemente admitidos, sejam de causas naturais, sociais, tecnológicas
ou econômicas [4,5].
A aceitabilidade do risco pelos indivíduos e pela sociedade é entretanto
influenciada por numerosos fatores [6]. O mais importante dentre eles foi evidenciado
por Starr [5], e está ligado ao caráter voluntário ou involuntário do risco incorrido:
aceita-se incorrer em riscos voluntários até três ordens de grandeza superiores ao
riscos involuntários. Identifica-se ainda outros fatores [7], tais como os efeitos imediatos
ou retardados das conseqüências, a presença ou ausência de alternativas, o
conhecimento preciso ou impreciso do risco, o perigo comum ou particular a certas
pessoas, a reversibilidade ou irreversibilidade das conseqüências.
Nos países industrializados, o risco de morte devido a doenças é da ordem de
10-2/ano, o que é uma referência para os mais altos níveis de risco involuntariamente
aceitos. O mais baixo nível de risco involuntariamente aceito é aquele que resulta de
fenômenos naturais excepcionalmente severos, que é da ordem de 10-6/ano. Entre
estes dois extremos o público parece aceitar os riscos involuntários em função dos
benefícios obtidos [6,7].
Uma pesquisa americana [8] chegou esquematicamente as seguintes
conclusões sobre os níveis anuais de risco individual de morte:
a) 10-3/ano: este nível de risco é inaceitável, ou seja assim que um risco aproximase deste nível devem ser tomadas medidas imediatas para reduzi-lo;
b) 10-4/ano: o público reclama despesas públicas para controlar e reduzir estes
riscos (rodovias, incêndios);
c) 10-5/ano: os riscos neste nível são identificados pelo público, que entretanto se
satisfaz com certas regras gerais para reduzi-los; e
d) 10-6/ano: os riscos deste nível não inquietam o indivíduo médio; ele reconhece
estes acidentes mas pensa que “isto só pode acontecer aos outros”, mostrandose resignado face a estes riscos.
Os autores desta pesquisa concluem que o risco individual de morte de 10-7/
ano é um limite superior aceitável para o risco de acidentes de centrais nucleares.
Pesquisa Naval Nº 15, Setembro de 2002
21
Existem ainda numeroso fatores que afetam a percepção do risco pelo público.
Uma outra interessante pesquisa britãnica [9] mostrou a relação entre o risco percebido
pelo público e o risco real. Os autores chegaram às seguintes conclusões:
a) as causas de morte do tipo “doença” e “acidentes rodoviários” são consideradas
como equivalentes, quando na realidade as primeiras são dez vezes mais
numerosas;
b) os riscos que contribuem de maneira significativa ao número total de mortes
são subestimados; e
c) os riscos que contribuem pouco ao número de mortes são superestimados; assim,
eventos de caráter excepcional são considerados como muito mais mortíferos
do que são em realidade.
Esta enquete confirma o “senso comum” de que o público julga “menos
perigosa” uma atividade que faz 1 morto todos os dias do que uma outra que faz 365
mortes um único dia do ano. A percepção dos riscos depende de numerosos fatores
morais e psicológicos que são dificilmente quantificáveis ou mesmo explicáveis.
Quando se refere às estatísticas de morte humana, deve-se ainda ter em conta
que elas variam sensivelmente de um época a outra, entre regiões geográficas e por
faixa etária da população considerada.
Definitivamente, pode-se concluir que o risco aceitável, que é a projeção da
percepção coletiva, social ou econômica do perigo associado, não pode ser definido
de modo universal [10].
A busca do valor do risco aceitável passa por um compromisso entre aquilo
que a instância responsável está disposta a pagar caso leve em conta ‘a priori’ a
ocorrência do risco e as medidas de segurança resultantes, e quanto teria de desembolsar
‘a posteriori’, na hipótese em que o risco seja ignorado, devendo ser considerados:
a) os custos de reparações de danos humanos, materiais e ambientais;
b) os custos de indisponibilidade;
c) impacto na mídia
fatores estes que podem levar à parada definitiva da atividade.
Dentro desta ótica, deve ser considerado o custo global da segurança, que
compreende:
a) custo dos estudos e dos dispositivos de segurança, que são custos ‘a priori’;
b) custo dos acidentes, que são custos ‘a posteriori’;
pode-se buscar um ótimo econômico a partir de:
a) custos de investimento associados aos níveis de insegurança (ou riscos) residuais
avaliados ‘a priori’;
b) custos da insegurança (ou riscos) residuais associados aos custos de reparação
que podem ser induzidos ‘a posteriori’.
22
Pesquisa Naval Nº 15, Setembro de 2002
Representando em abcissa os níveis de insegurança residuais correspondente
às probabilidades de acidentes, a determinação do ótimo econômico pode ser visualizada
pela Figura 1.
CUSTO
RISCO
(a posteriori)
CUSTO GLOBAL
INVESTIMENTO
(a priori)
______
RISCO
ACEITÁVEL
(com relação a um ótimo
econômico)
PROBABILIDADE
DE ACIDENTE
Figura 1: Otimização dos Custos da Segurança
A escolha dos Objetivos Gerais de Segurança é uma etapa fundamental da
Segurança de Funcionamento de sistemas, porque ela concretiza a fronteira entre o
domínio do risco aceitável e o domínio do risco inaceitável dos estados de
funcionamento do sistema:
a) a fixação dos objetivos de segurança resulta de uma decisão das instâncias
políticas e econômicas de mais alto nível, e não do especialista em segurança
encarregado de uma atividade ou projeto;
b) objetivo do sistema deve estar fora do alcance da observação ou, mais
precisamente, da experimentação direta para que possa ser considerado como
válido; este aspecto lhe confere uma natureza subjetiva que provoca uma quase
impossibilidade de demonstração de seu atendimento inicial e manutenção ao
longo da vida do sistema.
A independência entre o político (“decisor”) e o técnico ou econômico é
fundamental. Com efeito, por diversas razões, estes últimos podem minimizar os riscos
reais por superestimação do nível tecnológico do sistema, indo até uma crença “quase
religiosa” (ignorando portanto seu domínio de desconhecimento).
A expressão de um objetivo de segurança [12,13,11,14] associado a um evento
indesejado comporta três elementos:
a) definição do ambiente de referência a considerar;
b) definição precisa do evento indesejado;
Pesquisa Naval Nº 15, Setembro de 2002
23
c) definição de uma probabilidade ou verossimilhança aceitável de ocorrência
deste evento.
O ambiente de referência (missão, natural e tecnológico) compreende:
a) definição do perfil de missão, ou seja, as condições de utilização do sistema
(duração, configuração) e as características das condições em que é feita esta
utilização;
b) inventário das condições potencialmente perigosas;
c) ambiente ativo de referência, correspondendo a um conjunto de agressões ou
carregamentos não nominais em projeto definido pelo nível de carregamento n
e a probabilidade de que este carregamento seja excedido Pn=P(N>n).
A definição precisa do evento indesejado é realizada a partir de:
a) definição do sistema e de seus elementos intrínseca e potencialmente perigosos;
b) inventário de eventos indesejados
A descrição do evento indesejado deve ser claramente expressa, seja pela
duração total ou parcial da atividade perigosa, seja por unidade de tempo de exposição
às fontes de perigo, seja pela utilização puntual de um equipamento perigoso.
Devido ao caráter aleatório dos objetivos de segurança, a probabilidade
aceitável de ocorrência do evento indesejado pode ser definida de modo qualitativo
ou quantitativos
Os objetivos qualitativos podem ser expressos por uma escala de
verossimilhança [15] ou a partir de um critério de projeto ligado à fase operacional:
a) Escala de Verossimilhança: estabelecida a partir de níveis arbitrários tais como
−
impossível
−
altamente improvável ou altamente raro
−
improvável ou raro
−
plausível
−
muito plausível
−
quase certo
−
certo
Note-se que os qualitativos de impossível e certo referem-se a eventos
pertencentes ao domínio da certeza, enquanto os outros pertencem ao domínio da
incerteza; a relação entre esta escala e a escala de gravidade anteriormente definida
pode ser estabelecida impondo-se que um evento catastrófico seja altamente improvável
e que a ocorrência de um evento crítico deva ser pelo menos improvável; é evidente
que uma tal escala subjetiva varia de uma atividade a outra, mesmo que os eventos
associados às verossimilhanças extremas sejam em princípio comuns;
b) Critérios de Projeto [16]: tais como “Fail Safe”, para o qual qualquer falha
conduz a um estado de pane seguro; o sistema é dito então “intrinsecamente
seguro” ou
24
Pesquisa Naval Nº 15, Setembro de 2002
que possui “segurança integrada”; “Fail Operational / Fail Safe”, para o qual a
primeira falha permite prosseguir a missão em segurança e a segunda falha
conduz a um estado de pane segura; “No Fail”, para o qual nenhuma falha
relativa à função ou ao equipamento considerado é aceitável.
5- Representação do Risco e dos Objetivos de Segurança
O risco sendo definido a partir de dois componentes, pode ser visualizado
sobre um gráfico cuja abcissa representa a escala das gravidades e a ordenada
representa a escala das probabilidades (freqüência ou verossimilhança admissível).
Este gráfico de criticidade, dito diagrama de Farmer [17] permite uma
visualização dos domínios de riscos aceitáveis e inaceitáveis. O Gráfico 1 apresenta o
estabelecimento de critérios sobre um digrama de Farmer. O limite entre os domínios é
definido pela curva que une os pares (g1, p1), (g2, p2) e (g3, p3). A tendência atual é,
entretanto, de considerar três domínios, incluindo um domínio intermediário dentro do
qual as ações para melhoria da segurança devem ser analisadas sob um prisma de
otimização (procedimento ALARA), levando-se em conta fatores econômicos e sociais.
PROBABILIDADE
1
DOMÍNIO
INACEITÁVEL
P1
P2
P3
DOMÍNIO
ACEITÁVEL
ME
NOR
G1
SIGNI
FICA
TIVO
G2
CRI
TICO
G3
CATAS
TRO
FICO
GRAVI
DADE
Gráfico 1: Diagrama de Farmer
Uma outra representação clássica do risco e dos objetivos de segurança é
feita sob a forma de uma tabela dita tabela de criticidade [18], da qual a tabela 2
constitui um exemplo.
O diagrama de Farmer apresenta a vantagem de visualizar uma função de
distribuição de gravidades, estando portanto mais próximo da definição de risco e
Pesquisa Naval Nº 15, Setembro de 2002
25
por isso é mais rico em informações.
Tabela 2: Tabela de Criticidade Típica
GRAVIDADE
PROBABILIDADE
QUASE-CERTO
MENOR
SIGNIFICATIVA
CRÍTICA
ACEITÁVEL
INACEITÁVEL
INACEITÁVEL
INACEITÁVEL
PROVÁVEL
ACEITÁVEL
ACEITÁVEL
INACEITÁVEL
INACEITÁVEL
POUCO PROVÁVEL
ACEITÁVEL
ACEITÁVEL
ACEITÁVEL
INACEITÁVEL
RARO
ACEITÁVEL
ACEITÁVEL
ACEITÁVEL
ACEITÁVEL
CATASTRÓFICA
Como foi visto, aceita-se para uma atividade (ou sistema) dado:
a) ocorrência de um evento de gravidade insignificante com uma probabilidade
próxima de 1; e
b) ocorrência de um evento de severa gravidade com uma probabilidade não nula,
porém muito inferior a 1.
As análise de segurança e as ações delas decorrentes têm por objetivo eliminar,
reduzir ou controlar um risco identificado e reconhecido como inaceitável após sua
avaliação e sua comparação ao objetivo que lhe foi assinalado.
As ações que permitem ter um risco aceitável são :
a) Prevenção;
b) Proteção; e
c) Resseguro.
Uma medida de prevenção corresponde à uma ação de redução do risco pela
diminuição da probabilidade P de ocorrência do evento indesejado, sem diminuir a
gravidade G de suas conseqüências. Esta definição corresponde ao senso comum
associado à prevenção que consiste em impedir que um evento ocorra, sem
sistematicamente considerar suas conseqüências.
A partir de um risco inaceitável identificado como A num diagrama de Farmer,
a ação de prevenção consiste em passar a um risco aceitável B por deslocamento
paralelo ao eixo das probabilidades. A margem de segurança teórica é então definida
pela entre a probabilidade resultante após a medida de prevenção e o objetivo em
probabilidade que pertence, por definição, à curva de criticidade.
Uma medida de proteção é uma ação de redução do risco baseada na redução
da gravidade das conseqüências G do evento indesejado após sua ocorrência, sem
diminuir sua probabilidade. Esta definição corresponde ao senso comum associado à
proteção que consiste em limitar as conseqüências de um evento, sem considerar ‘a
priori’ sua probabilidade de ocorrência, eventualmente próxima de 1.
A partir de um risco inaceitável identificado como A num diagrama de Farmer,
a ação de proteção consiste em passar a um risco aceitável B por deslocamento paralelo
26
Pesquisa Naval Nº 15, Setembro de 2002
ao eixo das gravidades. A margem de segurança teórica é então definida pela entre a
gravidade resultante após a medida de proteção e o objetivo em gravidade que pertence,
por definição, à curva de criticidade.
O resseguro, contrariamente à prevenção e à proteção, não tem por objetivo
nem reduzir a probabilidade nem a gravidade de um evento indesejado. Seu objetivo é
transferir para um terceiro (o segurador) total ou parcialmente as conseqüências
financeiras do risco.
A partir de um risco inaceitável identificado como A num diagrama de Farmer,
a ação de resseguro consiste em deslocar a curva de criticidade até que o ponto A
encontre-se no domínio aceitável. O deslocamento artificial da curva de criticidade tem
como contrapartida o pagamento de um prêmio ao segurador, cujo valor é uma função
de:
a) número de “clientes” que são assegurados contra este risco;
b) probabilidade de ocorrência do evento indesejado, estimado a partir de
estatísticas;
c) esforços de proteção e prevenção impostos ao cliente para reduzir a gravidade
e/ou probabilidade do risco segurado.
P
A
DOMÍNIO
INACEITÁVEL
MARGEM DE
SEGURANÇA
B
DOMÍNIO ACEITÁVEL
G
Gráfico 3: Ação de Prevenção
Pesquisa Naval Nº 15, Setembro de 2002
27
P
DOMÍNIO
INACEITÁVEL
A
B
MARGEM DE
SEGURANÇA
DOMÍNIO ACEITÁVEL
G
Gráfico 4: Ação de Proteção
P
DOMÍNIO
INACEITÁVEL
A
B
MARGEM DE
SEGURANÇA
DOMÍNIO ACEITÁVEL
G
Gráfico 5: Ação de Resseguro
6 – Limitação da Utilização da Linguagem Probabilística
A utilização da linguagem probabilística sem precauções particulares pode
conduzir entretanto a dois inconvenientes maiores:
a) Uma limitação, ou até mesmo uma diminuição do nível de segurança demonstrado
caso se considere exclusivamente o “valor absoluto” das probabilidades aceitasa
partir da experiência adquirida sobre os sistemas precedentes (limitação parcial
do domínio de conhecimento);
28
Pesquisa Naval Nº 15, Setembro de 2002
b) um aumento desmesurado das despesas experimentais se desejar-se efetuar uma
demonstração estatística, que por sinal é extremamente difícil de ser levada a
cabo na maioria dos casos, do nível de segurança atingido.
Para evitar falsas interpretações, propõe-se que a utilização da linguagem
probabilistica dentro da metodologia de análise de segurança seja baseada em quatro
princípios.
a) Durante o projeto, e em função do objetivo de segurança imposto (expresso em
probabilidade p de ocorrência de um evento indesejado por unidade) deve ser
previsto um número de barreiras de segurança independentes, entendidas como
um artifício material, lógico ou humano, colocado dentro da evolução de um
cenário de eventos para limitar ou interromper sua progressão, e que segundo
sua natureza ou posição pode ter efeitos de prevenção ou de proteção, tais
como:
1>p≥10-2 : ao menos 1
10-2>p≥10-4: ao menos 2
10-4>p≥10-6: ao menos 3
Segue-se que a credibilidade fixada e a eficácia técnica demonstrada
dentro deste exemplo para uma barreira seja ao menos de 10-2 por evento
indesejado ou agressão; conseqüentemente, faz-se a hipótese que 10-4 não é crível
para uma barreira, pois não pode ser demonstrado; evidentemente, a eficácia e
independência das barreiras deve ser devidamente estabelecidas.
b) A estima da eficácia de uma barreira de segurança deve sempre basear-se numa
análise aprofundada dos modos de falha dos elementos do sistema segundo um
método coerente;
c) Os resultados quantitativos fornecidos exprimem a convicção dos especialistas,
que é justificada pela estima da eficácia das barreiras de segurança a partir da
análise aprofundada feita durante o projeto e validada por ensaios adequados
e pela cultura experimental (estudos e ensaios realizados durante o
desenvolvimento do sistema considerado e de sistemas equivalentes anteriores
ou mesmo diferentes) e aplicação de técnicas adaptadas (avaliação teórica,
modelagem, avaliação de confiabilidade, extrapolação das margens de
segurança, simulação);
d) A nível do sistema, a síntese de segurança é tanto mais fácil e exaustiva quanto
os mesmo métodos de análise são utilizados para cada um dos sistemas
elementares e de suas interfaces. Neste caso, com efeito, a síntese mesma não é
geradora de erros e de esquecimentos.
Como já foi visto, a quantificação só é possível dentro do domínio de
conhecimento. Entretanto, em muitas atividades antigas e novas, a engenharia que
lhes é associada pode ter ramificações mais ou menos importantes dentro do domínio
de desconhecimento: isto coloca então com prioridade o problema da validade da
quantificação.
Pesquisa Naval Nº 15, Setembro de 2002
29
Esta dificuldade real não deve porém conduzir a excluir ‘a priori’ por princípio
toda utilização da linguagem probabilista dentro de uma atividade técnica considerada
antes mesmo da busca e da determinação de seu domínio de conhecimento. Com
efeito, mesmo se certos domínios são dificilmente definidos, uma abordagem científica
proveitosa para a segurança, a um custo razoável, deve ser buscada. Esta abordagem,
se deve ser prioritariamente qualitativa, não deve porém excluir sem justificativa científica
e técnica seu complemento quantitativo. Este último pode servir de indicador, sob
certas hipóteses validadas, para hierarquizar riscos relativos a arquiteturas elaboradas
a partir de uma mesma lógica, o que não seria permitido por uma abordagem estritamente
qualitativa.
Finalmente, é importante reter que a procura e a utilização de métodos validados,
quaisquer que sejam, que permitam melhorar o nível demonstrado de segurança de
mantê-lo, deve ser uma das primeiras preocupações do responsável pela segurança de
um sistema.
7 – Referências Bibliográficas
International Commission of Radiation Protection, Recommandations, ICRP Publication
n0 60, Pergamon Press, Oxford, GB, 1991.
Bertin, M., Les Effets Biologiques des Rayonnements Ionizants, Eletricité de France,
Paris, França, 1991.
International Atomic Energy Agency, Extension of the Principles of Radiation Protection
to Sources od Potential Exposures, Safety Series n0104, Viena, Áustria, 1990.
Rowe, N. D., An Anatomy of Risk, John Wiley and Sons, New York, EUA, 1973
Starr, C., Social Benefit versus Technological Risk: What is our Society Willing to Pay for
Safety?, in Science 165-1232, Boston, USA, 1973.
Lowrance, W.W., Of Acceptable Risk, Kaufmann, Los Altos, EUA, 1976
Starr, C. et ali, Philofical Basis for Risk Analisys, in Ann.Rev.Energy 1-629, Washigton,
EUA, 1976.
Otway, H.J. e Cohen, J.J, Reactor Safety and Design from a Risk View Point, in Nuclear
Engineering and Design 13-365, Washington, EUA, 1970.
Slovic, P. et ali, The Assessment and Perception fo Risk, The Royal Society of London 3417, Londres GB, 1980.
Institut de Protection et Sureté Nucléarie, Rapport du Groupe de l´Observatoire sur les
Risques et la Securité, Fontenay aux Roses, França, 1992.
Commission of the European Communities, Summary report on Safety Objectives in Nuclear
Power Plants, Report EUR-12273-EN, Luxemburgo, 1989.
Boll, M., Les Certitudes du Hasard, Presses Universitaires Françaises, Paris, França, 1958
Henley, E.J. e Kumamoto, H., Reliability Engineering and Risk Assessment, Prentice-Hall,
Englewood Cliffs, EUA, 1981.
Farmer, F.R., Reactor Safety and Siting: a Proposed Risk Criterion, in Nuclear Safety n0 8
(6), Londres, GB, 1967.
Lievens, C., Sécurité des Systèmes, CEPADUES, Paris, França, 1976
INSTITUTO DE ESTUDOS DO MAR ALMIRANTE
PAULO MOREIRA
PARCERIAS EM PESQUISAS NO MAR
O Instituto de Estudos do Mar Almirante Paulo Moreira (IEAPM), o Centro de
Gestão e Estudos Estratégicos (CGEE) do MCT e representantes dos Fundos Setoriais
daquele ministério: CT-PETRO (Petróleo), CT-HIDRO (Recursos Hídricos e CT-INFRA
(Infra-estrutura), iniciaram entendimentos com o propósito de estabelecer parcerias
que envolvem, também o Instituto Nacional de Tecnologia (INT) para estabelecer os
pontos de convergência entre os documentos de diretrizes estratégicas dos diversos
fundos de C&T e os projetos de interesse da Marinha a cargo do IEAPM.
Além dessa atividade o IEAPM deu início ao processo de credenciamento junto
ao Instituto Nacional de Metrologia (INMETRO) para ser reconhecido como emissor de
laudos sobre poluição causados por incidentes de derramamento de hidrocarbonetos
em água brasileiras.
Tambem está participando junto com a COPPE/UFRJ na avaliação do potencial
como atratores de peixes, de estruturas metálicas montadas segundo projeto da COPPE
a partir de sucata de material utilizado pela PETROBRAS.
Finalmente o IEAPM está em entendimentos com a EMGEPRON para o estudo
do comportamento de cascos de ex-navios, como atratores de peixes. a serem afundados
ao largo do litoral do Estado do Rio de Janeiro, entre Macaé e Cabo Frio.
No âmbito interno o IEAPM está estruturando a parte física, instalações e
equipamentos de gravação e computadores, do futuro Laboratório de Bioacústica
IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira
Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ
E-mail:[email protected] Telefone: 24-2622-9010
II
Capítulo
MODELO DE PROGRAMAÇÃO LINEAR BINÍVEL
PARA ALOCAÇÃO DINÂMICA DE VEÍCULOS
CC(EN) Júlio César Silva Neves
Instituto Militar de Engenharia, Praça Gal. Tibúrcio no. 80,
Praia Vermelha Rio de Janeiro, Brasil e-mail; [email protected]
Raad Yahya Qassim
Departamento de Engenharia Mecânica da EE e COPPE da
Universidade Federal do Rio de Janeiro, Brasil.
Gisele Campos Neves
Centro Federal de Educação Tecnológica Celso Suckow da Fonseca,
Av. Maracanã,229 – Rio de Janeiro; [email protected]
Resumo
Este trabalho desenvolve um modelo de programação linear binível aplicado
ao problema de alocação de veículos. Neste modelo, o transportador toma as decisões
da alocação dos veículos maximizando seu lucro; o expedidor minimiza cargas
enviadas com atraso. Trata-se de uma análise custo-benefício entre atrasos nas
cargas e lucro do tranportador.
Abstract
The aim of this paper is to apply linear bi-level program in allocation
vehicle problem. In the model development in this work, the carrier makes allocation
vehicle decision maximizes his profit, and the shipper minimizes the load in later. The
model proposes time cost trade-off analysis for allocation vehicle.
32
Pesquisa Naval Nº 15, Setembro de 2002
1 – Introdução
As organizações estão sendo confrontadas com uma dupla evolução: a
globalização dos mercados e da demanda; e as crescentes exigências de reatividade e
de redução dos atrasos. Os modelos tradicionais de gestão não respondem mais aos
desafios de globalização e de reatividade exigidos pelo mercado. Nestes modelos as
decisões são tomadas baseadas na otimização local, sem avaliar o sistema como um
todo. Dessa forma, os recursos materiais e capacidades organizacionais são mal
explorados por falta de sincronização, não conduzindo a uma otimização global.
Visando integrar e otimizar globalmente as funções, os níveis de decisão e os
segmentos das atividades logísticas, a Gestão da Cadeia Logística (Supply Chain
Management –SCM) vem sendo amplamente adotada, estendendo o conceito de
gestão além das fronteiras da organização, incluindo fornecedores, clientes e
transportadores.
É crescente o número de artigos que abordam a importância e os fundamentos
conceituais de cooperação entre as organizações na SCM. Carter & Ferrin (1995)
apresentaram modelos conceituais que demonstram as vantagens das parcerias clientetransportador-fornecedor. Entretanto, pouca atenção tem sido dada aos modelos
quantitativos que suportam o processo de tomada de decisão na SCM.
Thomas & Griffin (1996) e Vidal & Goetschalckx (1997) apresentaram uma
visão geral de modelos de programação matemática para SCM. Beamon (1998)
apresentou uma revisão bibliográfica e uma classificação sobre os diferentes modelos
de SCM. Fumero & Vercellis (1999) criaram um modelo que considera a integração de
decisões logísticas de gerenciamento de capacidades, estoques alocação e roteamento
de veículos.
Em todos modelos apresentados, a tomada de decisão é efetuada por apenas
um agente decisor. Na prática, cada organização toma decisões, buscando atingir seus
próprios objetivos. As decisões tomadas em cada organização causam impactos nas
demais organizações da cadeia. Ou seja, a tomada de decisão em uma organização
influencia o processo de tomada de decisão das demais, mas cada uma procura otimizar
seus próprios objetivos. O modelo de programação matemática, adequado para abordar
este tipo de problema de planejamento descentralizado, é o modelo de programação
multinível. O problema binível é um caso especial que considera uma estrutura
hierárquica com apenas dois níveis de decisão. Wen & Hsu (1991) e Ben-Ayed (1993)
apresentam uma revisão deste tipo de problema.
Um problema de planejamento de suma importância na logística é a alocação de
veículos. Até o presente, este problema vem sendo tratado com apenas um nível de
tomada de decisão. Neste caso, o transportador é o agente decisor e aloca seus veículos
de forma a maximizar seu lucro. Este tipo de abordagem, onde o transportador toma
decisões procurando otimizar individualmente seus objetivos, contraria o princípio da
SCM; uma vez que sua decisão interfere no desempenho global da cadeia como um
todo.
Pesquisa Naval Nº 15, Setembro de 2002
33
Na verdade, tem-se dois agentes tomadores de decisão, o transportador e o
expedidor, com objetivos diferentes e que a decisão de um tem impacto sobre o outro.
Este trabalho apresenta um novo modelo para abordar este tipo de problema. Trata-se
de uma aplicação de programação linear binível na alocação dinâmica de veículos.
O objetivo deste trabalho é desenvolver um modelo de programação binível
aplicado ao problema de alocação de veículos, considerando a integração entre
transportador e expedidor. Neste modelo, o transportador toma as decisões da alocação
dos veículos procurando maximizar seu lucro; o expedidor procura minimizar as cargas
enviadas com atraso. Trata-se de uma análise custo-benefício entre atrasos de
despachos de cargas e o lucro do transportador.
2 – Programação Binível
A programação binível envolve dois níveis hierárquicos de tomada de decisão
. Nesta hierarquia, o agente do segundo nível, chamado de seguidor, está subordinado
ao agente do primeiro nível, chamado de líder. Wen & Hsu (1991) caracterizam este
tipo de problema da seguinte forma:
Assume-se que existem dois níveis hierárquicos de tomada de decisão: alto e
baixo nível. Seja um vetor de variáveis de decisão (x, y) ∈ ℜn dividido entre os dois
tomadores de decisão. O decisor do nível mais alto tem o controle sobre o vetor
x ∈ ℜn1 e o do nível mais baixo tem o controle sobre o vetor y ∈ ℜn2 , onde n1 + n2 = n.
Além disso, assumindo que F, f , ℜn1 x ℜn1 ⇒ ℜ1 são lineares e limitados, o problema
linear binível pode ser formulado da seguinte forma:
P1:
max F(x, y) = ax + by
onde y solução de
x
P2:
max
f(x, y) = cx + dy,
y
s.a.
Ax+By < r,
onde: a, c ∈ ℜn1; b, d ∈ ℜn2; r ∈ ℜm; A é uma matriz m x n1; B é uma matriz m
x n2. Seja a restrição do problema a região S = {(x, y)  Ax + By < r } Para um dado x, seja
Y(x) o conjunto de soluções ótimas para o problema P2,
max f’(y) = dy,
onde Q(x) = { y  By < r – Ax }
r ∈ Q(x)
e representa o espaço de solução do tomador de decisão do alto-nível, ou o conjunto
de reações racionais do f sobre S, como
ψf (s) = {(x, y)  (x, y) ∈ S, y ∈ Y(x)}.
34
Pesquisa Naval Nº 15, Setembro de 2002
Este tipo de modelagem é adequado para problemas de planejamento com
dois níveis de decisão descentralizados. No presente trabalho, é aplicado este modelo
no problema de alocação dinâmica de veículos.
3 – Alocação Dinâmica de Veículos
Um dos problemas de planejamento na logística está na designação dos
veículos as cargas. O problema de roteamento de veículos, formulado inicialmente por
Garvin et al. (1957), vem sendo amplamente estudado. Várias definições são
apresentadas (GOLDEN et al. ,1977 ; CHRISTOFIDES ,1985), sendo que uma
classificação para esse problema é dada por Bodin et al. (1983). Este problema consiste
em achar rotas para os veículos da frota que minimizem os custos de distribuição da
carga. Menor atenção tem sido dada a modelagem de transporte em vazio dos veículos,
para pegar uma carga em uma dada localidade. O custo de transporte em vazio pode
chegar a 40% do custo total de transporte (DEJAX & CRAINIC, 1987). Este problema
é tratado no modelo Alocação Dinâmica de Veículos (ADV), onde os veículos são
designados dinamicamente às cargas que aparecem distribuídas em diferentes
localidades e período.
Desta forma, a ADV vem se tornando um importante instrumento de auxílio na
resolução de problemas envolvendo o gerenciamento de frotas, ao longo de um
horizonte de planejamento, onde se busca maximizar o lucro total. O posicionamento
dos veículos no espaço/tempo, seus despachos e um reposicionamento correto
antecipando uma previsão de demanda, tornam-se fatores decisivos para empresas
transportadoras. Portanto, o modelo ADV consiste em designar dinamicamente veículos
às cargas que aparecem distribuídas aleatoriamente ao longo do tempo.
De acordo com Powell & Carvalho (1998), as primeiras formulações abordando
a ADV como uma rede linear aparecem nos trabalhos de White & Bomberault (1969).
Dall’Orto & Leal (1999) caracterizam genericamente este problema da seguinte forma:
Em um dado instante do tempo, tem-se um conjunto de veículos a serem
designados a um conjunto de cargas, que pode ser maior ou menor que o conjunto de
veículos. Deve-se decidir qual veículo será alocado a cada carga. As cargas são
caracterizadas por uma origem e um destino (que podem estar em uma mesma localidade),
por uma duração (que pode representar o tempo de viagem entre duas localidades),
por janelas de tempo e por um vetor de requisitos necessários aos veículos para seu
transporte. Os veículos são caracterizados por sua localização no tempo/espaço, por
um vetor com seus atributos e por suas restrições de tempo. As demandas são
distribuídas aleatoriamente ao longo do tempo e podem ser previstas com alguma
incerteza. Cargas não atendidas em um determinado período de tempo são perdidas
para o sistema, o que acarreta em perda para a empresa. Tendo em vista uma previsão
da demanda deve-se realizar o reposicionamento de veículos para atendê-la, o que
pode resultar em movimentos vazios entre pontos da rede. Outro fator a ser considerado
Pesquisa Naval Nº 15, Setembro de 2002
35
é o desequilíbrio entre origem e destino de cargas dentre as regiões atendidas. Este
desequilíbrio pode causar um desbalanceamento entre o potencial de carga de uma
região e o número de veículos nela contidos. Deve-se portanto recomendar um
reposicionamento entre as áreas para evitar este comportamento.
A figura 3.1 permite uma visualização de uma rede dinâmica. Os arcos
denominados carregados representam o movimento dos veículos com carga entre as
regiões. Os arcos de inventário representam a permanência de veículos em uma região
entre períodos. Os arcos vazios indicam o reposicionamento em vazio de um veículo e
os arcos de salvamento levam o fluxo de cada região ao fim do horizonte de planejamento
para um sorvedouro.
Os veículos entram no sistema no período inicial e no final do horizonte de
planejamento é levado a um sorvedouro para que não ocorra desequilíbrios no final do
horizonte de planejamento,ou seja, para que os veículos não sejam erroneamente
deslocados para uma região que tenha um retorno grande causando um descompasso
no início de uma nova programação.
Seja o modelo matemático de programação inteira abaixo. Nesta formulação
assume-se que o tempo é divido em conjuntos discretos T = (0, 1, ..., T) onde T é o
horizontede planejamento.
36
Pesquisa Naval Nº 15, Setembro de 2002
T
max x , y F ( x , y ) = ∑
t =0
∑ ∑ ( ∑∧ r x
i∈σ
j∈σ
l∈
lt
lt
− cij yijt )
(3.1)
ijt
s.a :
∑τ x
t∈
lt
+ zl = 1 ∀ l ∈ ∧
(3.2)
l
∑x
l∈∧ ijt
lt
+ yijt − wijt = 0 ∀i , j ∈ σ , ∀t ≤ T
∑w −∑w
l∈σ
ijt
j∈σ
j ,i ,t −τ it
= Rit
∀ (i , j ) ∈ N
(3.3)
(3.4)
wijt , wijt ≥ 0
(3.5)
xlt = (0,1)
(3.6)
Onde:σ é o conjunto de terminais i na rede;
τij é o tempo de viagem do terminal i ao terminal j;
N é o conjunto de nós (i, t) na rede dinâmica;
Λé o conjunto de cargas l disponível dentro do horizonte de planejamento;
Λ∈ijt é o conjunto de cargas l ∈ Λcom origem em i e destino em j tendo t como
tempo factível de despacho;
Rit é o fluxo de entrada (Rit > 0) ou de saída (Rit < 0) de veículos no ponto i no
tempo t. Assume-se normalmente que Rit = 0 para t = 1.
Vit é o número total de veículos no nó (i, t) aguardando para serem designados
a cargas ou movimentados em vazio;
Tl é o conjunto de tempos de despacho factíveis para satisfazer a carga l;
rlt é o lucro gerado por escolher o tempo t para atender a carga l;
cij é o custo de se reposicionar um veículo sobre o arco (i, j, t);
xlt = 1 se a carga l for atendida no tempo t;
zl = 1 se a carga l nunca for atendia;
yijt é o número de veículos reposicionados em vazio usando o arco (i, j, t). Se i = j, yiit
representa o número de veículos aguardando no terminal i do tempo t ao tempo t+1;
wijt é o fluxo total de veículos no arco dinâmico (i, j, t).
No modelo apresentado o transportador procura maximizar o lucro obtido
com as cargas transportadas e minimizar o custo de viagens em vazio. Esta situação
Pesquisa Naval Nº 15, Setembro de 2002
37
está representada na função objetivo (3.1). A restrição (3.2) representa que no máximo
um veículo é alocado para atender cada carga. As restrições (3.3) e (3.4) representam
as condições de conservação de fluxo de veículos em cada nó.
A restrição (3.2) verifica, ainda, se o transportador atende ou não a carga
durante o horizonte de planejamento. Este modelo não considera os atrasos ao
atendimento da carga durante este horizonte. A fim de computar o número de atrasos
no horizonte de planejamento, neste estudo a restrição (3.2) foi modificada para:
t`
∑τ x
t∈
lt
+ zlt = 1 ∀l ∈ ∧ , t `= 1, 2,..., τ
(3.7)
Desta forma sempre que o transportador não atender a uma carga no período
t o valor de zlt será igual a um. No período seguinte o transportador terá de pegar a
carga prevista e mais a carga não transportada no período anterior. Esta mudança não
altera os resultados do problema, apenas torna explicito o número de atrasos durante
o horizonte de planejamento.
Diferentes abordagens tem sido dada à ADV , todos modelos apresentados
consideram apenas um nível de decisão, onde o transportador decide a alocação ótima
do veículos e qual o período que as cargas devem ser atendidas. Uma vez que na
função objetivo do modelo ADV não considera uma penalidade por atraso, o
transportador toma a decisão de pegar a carga no período que for mais conveniente
para maximizar seu lucro e reduzir custos de viagens em vazio. Desta forma podem
ocorrer vários atrasos, sendo estes não desejáveis para o expedidor. Em um sistema
JIT, o atraso pode implicar , entre outros, custos adicionais em: estoque, paradas de
produção, custo de setup, custos administrativos e replanejamento da produção.
Em face da crescente importância dos custos de transporte e da redução de
atrasos na logística, deve-se adotar modelos que consideram a sincronização das
organizações envolvidas na SCM. A logística requer uma abordagem sistêmica, dessa
forma modelos de planejamento logístico que consideram toda cadeia devem ser
empregado. O modelo de ADV Binível, propostos neste trabalho, considera a
sincronização das tomadas de decisões entre os expedidores e transportadores.
4 – Aplicação do Modelo Binível na ADV
4.1 – Modelo ADV Binível
No problema em questão, considera-se que o expedidor é o líder, estando no
primeiro nível; e o transportador é o seguidor, e está no segundo nível. Neste caso, o
período de atendimento as cargas é controlada pelo expedidor, sendo estas variáveis
de decisão do líder. A alocação dos veículos é uma decisão do transportador sendo
esta uma variável do seguidor.
Este problema está analiticamente formulado conforme modelo de
programação binível apresentado a seguir:
38
Pesquisa Naval Nº 15, Setembro de 2002
T
min z f ( z ) = ∑
t =0
∑ ∑ ∑∧ z
i∈σ
T
max x , y F ( x , y ) = ∑
t =0
j∈σ
l∈
(4.1)
lt
ijt
∑ ∑ ( ∑∧ r x
i∈σ
j∈σ
l∈
lt lt
− cij yijt )
(4.2)
ijt
S .a :
t`
∑τ x
t∈
+ zlt = 1 ∀l ∈ ∧ , t `= 1, 2,..., τ
lt
∑x
l∈∧ ijt
lt
+ yijt − wijt = 0 ∀i, j ∈ σ , ∀t ≤ T
∑w −∑w
l∈σ
ijt
j∈σ
j ,i ,t −τ it
= Rit ∀(i, j ) ∈ N
(4.3)
(4.4)
(4.5)
wijt , wijt ≥ 0
(4.6)
xlt = (0,1)
(4.7)
O modelo acima foi implementado no software Mathematica ( www.wri.com)
utilizando o algoritmo de solução (BIALAS & KARWAN, 1984) .
4.2 – Estudo de Caso
Considere um caso hipotético de 3 localizações diferentes, 1, 2,e 3, onde são
realizados despachos de cargas de uma localidade para outra. Considerou-se um
horizonte de planejamento de 6 períodos, e o tempo de viagem entre as localidades de
um período de tempo. Foram estudados 9 casos hipotéticos. Os valores empregados
para custos, lucros e os despachos de cargas entre as localidades foram obtidos
aleatoriamente .
Em cada caso foram analisados diferentes condições da frota de veículo do
transportador, variando de 13 a 6 veículos. Para cada caso foram estudadas duas
situações: O modelo ADV e o modelo ADV Binível.
Pesquisa Naval Nº 15, Setembro de 2002
39
5 – Análise dos Resultados Obtidos
A seguir são apresentados os resultados obtidos para: lucro, atrasos e cargas
perdidas; para os 9 casos estudados.
As colunas Variação do Lucro, Variação atrasos e Variação cargas perdidas,
indicam a variação percentual entre os índices obtidos utilizando o modelo ADVBinível, comparado com o modelo ADV . Observa-se nestas colunas que o modelo
ADV-Binível consegue realizar uma alocação de veículos, onde: com uma pequena
redução no lucro do transportador, consegue-se uma grande redução no número de
atrasos e em alguns casos uma redução em cargas perdidas.
CASO 1
13
ADV
277
17
Cargas
Perdidas
0
veículos
ADV-Binível
259
0
0
Frota
Modelo
Lucro
Atrasos
12
ADV
273
17
0
veículos
ADV-Binível
253
0
0
11
ADV
267
20
1
veículos
ADV-Binível
247
1
1
10
ADV
260
17
2
veículos
ADV-Binível
240
2
2
9
ADV
251
18
4
veículos
ADV-Binível
229
4
4
8
ADV
242
23
6
veículos
ADV-Binível
217
6
6
7
ADV
230
28
9
veículos
ADV-Binível
226
19
8
6
ADV
214
29
11
veículos
ADV-Binível
207
20
11
Variação
Lucro
Variação
Atrasos
-6%
-100%
Variação
Cargas
Perdidas
0%
-7%
-100%
0%
-7%
-95%
0%
-8%
-88%
0%
-9%
-78%
0%
-10%
-74%
0%
-2%
-32%
-11%
-3%
-31%
0%
6 - Conclusão
O modelo ADV possui um nível de decisão, considera que o transportador
pode flexibilizar a data de expedição . Esta é a situação mais favorável para o transportador,
pois ele controla as duas decisões: o período de expedição da carga e a programação
dos veículos. Como este modelo não considera nenhuma penalidade por atraso, ele
tomará a decisão que maximiza seu lucro, sem considerar problemas com atrasos. No
modelo ADV binível, a data de expedição também é flexível, porém esta decisão é
tomada pelo expedidor. Este modelo considera que no primeiro nível de decisão, o
expedidor procura minimizar atrasos de expedição, e o transportador, situado no
segundo nível maximiza o lucro no transporte de carga, controlando a programação de
veículos.
Os resultados obtidos revelam um grande potencial de aplicação da
programação binível na logística. Este modelo pode auxiliar no processo de tomadade
decisão para alocação de veículos, em uma parceria transportador/expedidor, fazendo
uma análise custo–benefício entre maximização do lucro e minimização dos atrasos.
O modelo de ADV Binível, proposto neste trabalho, considera a sincronização
das tomadas de decisões entre os expedidores e transportadores, contribuindo para
redução de custos de transporte e de atrasos na logística.
7 – Referências Bibliográficas
BIALAS, W. KARWAN, M. “Two-Level Linear Programming” Management
Science Vol.30 N. 8, 1984.
BODIN, B. GOLDEN, ª ASSAD and M.BALL , Routing and scheduling of vehicles
and crews: the state of the art, Comp. Oper.Res. 10(1983)62-211.
CARTER,J.R. e FERRIN,B.G. (1995). The impact of transportation costs on
supply chain management. Journal of Business Logistics, vol 16, nº 1, pp.
189-212.
CHRISTOFIDES, Vehicle routing, in : The Traveling Salesman Problem: A Guide
Tour of Combinatorial Optimization, Wiley – 1985.
DALL’ORTO, L. e LEAL, J.”Abordagens para o Tratamento da Alocação
Dinâmica de Veículos” XXXI SBPO Simpósio Brasileiro de Pesquisa
Operacional, pp 1125-1135
DEJAX, P. J. e CRANIC, T. G. “A Review of Empty Flows and Fleet Management
Models in Freight Transportation”. Transportation Science, 21(4), 227-247,
(1987).
GARVIN, H.W. CRANDALL, J.B. JOHN and R. SPELLMAN, Applications of
linear programming in the oil industry, Manag.Sci. 3 (1957) 407-430.
GOLDEN, T. MAGNANTI and H. NGUYEN, Implementing vehicle routing
algorithms: Networks 7,113-148 (1977).
POWELL, W. B. e CARVALHO, T. A “Dynamic Control of Logistics Queueing
Networks for Large-Scale Fleet Management”. Transportation Science, 32(2),
90-109, (1998).
RUBIN , P.A e CARTER, J. R. (1990) Joint optimality in buyer-supplier
negotiations. Journal of Purchasing and Materials Management, vol 26, nº 2,
pp 20-26.
WEN, P. e HSU, S.T.(1991) ; Linear bi-level programming problems – A review ;
Journal of the Operational Research Society; vol 42, pp 125 – 133.
WHITE, W. e BOMBERAULT, A. “A Network Algorithm for Empty Freight Car
Allocation”. IBM Systems Journal, 8(2), 147-171, (1969).
III
Capítulo
SISTEMA FUZZY COM APRENDIZADO APLICADO
AO CONTROLE DE UM NAVIO CARGUEIRO
S. A. Valente, M.Sc.
Centro Universitário Positivo - UNICENP
Rua Prof. Pedro Viriato Parigot de Souza, 5300
80000-000, Curitiba PR, Brazil
tel: 41-3173000
- fax: 41-3173030
E-MAIL: [email protected]. BR
L. V. R. Arruda, PhD
Centro Federal de Educação Tecnológica do Paraná
Av. 7 de Setembro, 3165
80230 - 901, Curitiba PR, Brazil
tel: 41-3104689
- fax: 41-3104686
e-mail: [email protected]
Resumo
Neste artigo, desenvolve-se um controlador por modelo de referência fuzzy
com aprendizagem, tendo como principal inovação uma nova forma de sintonia
dinâmica da base de regras fuzzy. Diferente dos controladores adaptativos
convencionais que sintonizam indefinidamente os seus parâmetros a cada mudança
nas condições de operação da planta, este novo controlador ao encontrar condições
de operações já ocorridas, é capaz de lembrar das sintonias utilizadas anteriormente,
melhorando assim o seu tempo de resposta a variações de parâmetros do sistema. O
sistema de controle desenvolvido é aplicado ao controle da direção de navegação de
um navio cargueiro sujeito a variações na velocidade linear deste navio. Os resultados
obtidos comprovam a eficiência do controle desenvolvido.
42
Pesquisa Naval Nº 15, Setembro de 2002
Abstract
In this paper, a Fuzzy Model Reference Learning Control (FMRLC) with a
new way to adapt the fuzzy rulebase is develop. This controller differs from
conventional adaptive controllers which tune indefinitely its parameters to face of
plant variations. When known operational conditions is attained again, the proposed
controller is able to remember the old tuning parameter, in order to get a fast response
to plant variations. As results, the FMRLC strategy is successfull applied to ship
steering control problem.
1. Introdução
A necessidade de melhorar o desempenho global das plantas tem levado a
indústria de processos a adotar estratégias de controle avançado. Um sistema de
controle adaptativo possui a habilidade de melhorar o desempenho do sistema em
malha fechada, a partir da análise de informações passadas do sistema, de variações
dinâmicas da planta e do ambiente (perturbações) onde está inserido. Existem 4 tipos
de sistemas de controle adaptativo: escalonamento de ganho, controle adaptativo por
modelo de referência, reguladores auto-ajustáveis e controle dual (Astrom &
Wittenmark, 1989).
O sistema de controle desenvolvido neste trabalho pode ser classificado como
um controlador por modelo de referência (MRAS – Model Reference Adaptive System)
uma vez que as especificações de desempenho em malha fechada são determinadas a
partir de um modelo de referência. Desta forma, o MRAS possui um mecanismo de
adaptação que ajusta os parâmetros do controlador de tal modo que o erro entre as
saídas do processo e do modelo de referência seja o mínimo possível. Neste trabalho,
este mecanismo de adaptação é implementado via lógica fuzzy o que confere ao sistema
de controle além da habilidade de adaptação, uma capacidade de aprendizado por
experiência. Além disso, a ação de controle propriamente dita é calculada por um
controlador fuzzy do tipo PD. Isto permite o controle de processos cujos modelos não
são facilmente obtidos com as técnicas de identificação clássicas, comumente utilizadas
em controle adaptativo.
O Controlador por Modelo de Referência Fuzzy com Aprendizagem (FMRLC
– Fuzzy Model Reference Learning Control) distingue-se dos controladores adaptativos
convencionais, porque o FMRLC realiza a sintonia de seus próprios parâmetros e,
dentro de um certo limite, lembra-se dos valores sintonizados no passado. Os
controladores adaptativos convencionais, ao contrário, não possuem “memória” e
simplesmente continuam a sintonizar indefinidamente seus parâmetros. Desta forma,
quando um FMRLC é bem projetado e retorna a uma condição de operação conhecida,
ele já sabe como controlar a planta nesta condição. Em contraposição, muitos dos
controladores adaptativos convencionais têm que refazer a sintonia de seus parâmetros
cada vez que uma nova condição de operação é alcançada pela planta.
Pesquisa Naval Nº 15, Setembro de 2002
43
Este trabalho propõe um controlador FMRLC universal e descreve sua
aplicação ao controle de velocidade de um navio cargueiro. O artigo é organizado como
segue: na seção dois descreve-se o controlador FMRLC desenvolvido, na seção 3 é
feita a modelagem do navio cargueiro utilizado para validação do controlador, na seção
4 é realizada a sintonia inicial do controlador FMRLC para ajustá-lo às condições de
utilização no controle do navio. Os resultados alcançados no controle de velocidade do
cargueiro é apresentado na seção 5 e, finalmente a seção 6 traz algumas conclusões e
comentários sobre trabalhos futuros.
2. Controle por Modelo de Referência Fuzzy com Aprendizagem
O controlador FMRLC desenvolvido possui três partes principais,
conforme mostrado na figura 1: o controlador fuzzy PD a ser sintonizado, o modelo de
referência e o mecanismo de aprendizagem / adaptação. O FMRLC usa o mecanismo
de aprendizagem para caracterizar o desempenho atual do sistema de controle a partir
dos sinais de saída da planta e do modelo de referência. A partir desta caracterização, o
FMRLC automaticamente ajusta o controlador PD de modo a atingir um dado objetivo
de desempenho. Esse objetivo de desempenho em malha fechada é especificado pelo
modelo de referência, que também faz parte da estrutura do FMRLC. Cada uma destas
partes é descrita a seguir.
Modelo de
Referência
Mecanismo de aprendizagem
y m(t)
Modelo Fuzzy Inverso
gye
Modificador da
Base de Regras
p(t)
gp
Máquina
de
gyc
+
y e (t)
y c (t)
Inferência
r(t)
+
Σ
(1- z- 1 )/T
e(t)
ge
c(t)
gc
Máquina
de
gu
u( t)
Σ
(1- z- 1 )/T
-
y(t)
Planta
Inferência
Controlador Fuzzy
Figura 1 – Estrutura do FMRLC em um sistema de controle.
2-1. O Controlador Fuzzy PD
A planta na figura 1 é monovariável, já o controlador Fuzzy tem como entradas
o erro entre a saída da planta e a referência e a sua derivada:
e (t ) = r (t ) − y (t )
(1)
44
Pesquisa Naval Nº 15, Setembro de 2002
e(t ) − e(t − 1)
,
(2)
T
o que mostra que este controlador fuzzy é do tipo proporcional-derivativo (PD). O
parâmetro T é o intervalo de amostragem utilizado na discretização dos sinais.
c (t ) =
Também são utilizados neste controlador, os ganhos ge, gc e gu associados
ao erro e(t), à derivada do erro c(t) e à saída do controlador u(t), respectivamente. O
valores iniciais para esses ganhos, que deverão ser ajustados ao longo do processo de
sintonia do controlador, podem ser estimados da seguinte maneira (Passino, 1998):
Ganho ge: escolhido de tal forma que a faixa de valores normalmente assumida pelo sinal
e(t) não provoque saturação nas funções de pertinência mais externas da base de
regras do controlador fuzzy.
Ganho gc: determinado de forma experimental com diversos sinais de entrada para o
controlador, de modo a se determinar a faixa normal de variação do sinal c(t), e
possibilitando a sua escolha de maneira a não provocar saturação nas funções de
pertinência da base de regras do controlador.
Ganho gu: escolhido de tal forma que a faixa de valores assumida pelo sinal u(t) não
sature a entrada da planta.
Base de Regras
A base de regras do controlador fuzzy tem regras sob a forma
Se
eé Ej
e c é Cl
então u é U m
(3)
em que e e c denotam as variáveis lingüísticas associadas às entradas e(t) e c(t) do
controlador, respectivamente, e u denota a variável lingüística associada à saída u(t) do
controlador. Ej e Cl denotam o j-ésimo e o l-ésimo valores lingüísticos associados às
variáveis e e c, respectivamente, enquanto que Um denota o valor lingüístico
conseqüente da variável u. As funções de pertinência utilizadas para todas as variáveis
de entrada e saída do controlador fuzzy são distribuídas conforme mostra a figura 2. O
universo de discurso, normalizado no intervalo [-1,1] através dos ganhos ge, gc e gu,
está dividido em intervalos igualmente espaçados, com um total de 11 funções de
pertinência, numeradas por conveniência de –5 a 5. Considerando as 11 funções de
pertinência das 2 variáveis de entrada, e(t) e c(t), isto resulta numa base com um total de
112 = 121 regras. Estas escolhas foram feitas de acordo com as sugestões dadas em
(Passino & Yurkovitch, 1998).
Pesquisa Naval Nº 15, Setembro de 2002
45
Figura 2 – Funções de pertinência
Inicialização da Base de Regras
As funções de pertinência de entrada são mantidas fixas e não são ajustadas
pelo FMRLC. As funções de pertinência no universo de discurso da variável de saída
têm a mesma forma das funções da figura 2 mas, em princípio, os centros de cada uma
das funções são desconhecidos. São estes centros que o FMRLC vai ajustar ao longo
de sua operação, justificando o termo adaptativo. Assim, o FMRLC tenta aprender
quais ações devem ser tomadas, isto é, quais valores ele deve atribuir à variável de
controle u(t), para as diversas situações caracterizadas pelas premissas das regras em
sua base de conhecimento. Os valores iniciais para os centros das funções de pertinência
da variável de saída u(t) são todos iguais a zero, o que significa que o controlador não
sabe, a priori, nada sobre o sistema que irá controlar.
Para completar a especificação do controlador fuzzy, são usadas operações de
mínimo para as conjunções e implicações, operações de máximo para as disjunções e
agregações, e é usado o método de centro de área para a defuzzificação. Obviamente,
estas escolhas não são, necessariamente, as melhores, mas têm apresentado bons
resultados em diversas aplicações práticas [Passino & Yurkovitch, 1998].
2-2. O Modelo de referência
O modelo de referência deve ser escolhido de tal forma que reflita o desempenho
esperado da planta. Basicamente, deve-se especificar a performance desejada, mas
também uma performance que seja atingível. Se o modelo de referência apresentar uma
dinâmica muito exigente, o controlador poderá não ser capaz de atendê-lo. Isto ocorre
porque algumas características das plantas reais impõem restrições práticas sobre quais
desempenhos podem ser atingidos. Em geral, os modelos de referência são escolhidos
de forma empírica, ajustando-se os coeficientes de um modelo de 1ª ou de 2ª ordem até
que um desempenho satisfatório possa ser caracterizado (Landau, 1979).
46
Pesquisa Naval Nº 15, Setembro de 2002
O desempenho do sistema como um todo é calculado em relação ao modelo de
referência pelo mecanismo de aprendizagem através da geração do sinal de erro de
saída
y e (t ) = y m (t ) − y (t ) .
(4)
Uma vez que o modelo de referência caracteriza alguns critérios de projeto tais
como tempo de subida e sobre-sinal, e que a entrada para o modelo de referência é a
setfunction r(t), o desempenho desejado do processo controlado é atingido se o
mecanismo de aprendizagem forçar ye(t) a permanecer pequeno em todo tempo, não
importando qual seja o sinal de referência ou quais parâmetros da planta possam vir a
variar. Assim, o erro ye(t) provê uma medida de quanto o desempenho desejado é
atingido num dado instante. Se o desempenho é atingido, isto é, se ye(t) é pequeno,
então o mecanismo de aprendizagem não fará mudanças significativas na base de regras
do controlador. Por outro lado, se ye(t) for grande, o desempenho estará aquém do
desejado e o mecanismo de aprendizagem, descrito a seguir, deve ajustar a base de
regras do controlador apropriadamente.
2-3. O Mecanismo de aprendizagem
O mecanismo de aprendizagem ajusta a base de regras do controlador fuzzy de
modo que o sistema em malha fechada se comporte como o modelo de referência. O
mecanismo de aprendizagem consiste de duas partes: o modelo fuzzy inverso e o
modificador da base de regras. O modelo fuzzy inverso tem a função de realizar o
mapeamento ye(t)→p(t), isto é, do desvio em relação ao comportamento desejado, ye(t),
para o sinal p(t), que representa as mudanças na entrada do processo que são necessárias
para forçar ye(t) a zero. O modificador da base de regras tem a função de modificar a base
de regras do controlador fuzzy de modo que este, de fato, provoque as mudanças
necessárias na entrada da planta.
O Modelo Fuzzy Inverso
Usando o fato de que na grande maioria das vezes o projetista pode, ao menos
de forma aproximada, caracterizar o comportamento dinâmico inverso da planta
controlada, usa-se um modelo fuzzy inverso para mapear o erro ye(t) e, em geral, funções
do erro tais como yc(t), para a variável p(t), que representa as mudanças a serem feitas
na entrada da planta para fazer o erro tender a zero. O sinal yc(t) representa a taxa de
variação do erro ye(t), e é calculado por meio de
yc (t ) =
ye (t ) − ye (t − 1)
.
T
(5)
Assim como o controlador fuzzy, o modelo fuzzy inverso também possui ganhos,
conforme mostra a figura 1, denominados gye, gyc e gp, que são calculados utilizando
procedimentos semelhantes aos descritos para a obtenção dos ganhos do controlador.
A base de regras do modelo fuzzy inverso também tem regras da forma
Pesquisa Naval Nº 15, Setembro de 2002
Se
y e é Ye j
e
y c é Ycl
47
então
p é Pm
(6)
em que ye e yc denotam as variáveis lingüísticas associadas às entradas ye(t) e
yc(t) do modelo inverso, respectivamente, e p denota a variável lingüística associada à
sua saída p(t). Yej e Ycl denotam o j-ésimo e o l-ésimo valores lingüísticos associados às
variáveis ye e yc, respectivamente, enquanto que Pm denota o valor lingüístico
conseqüente da variável p. As funções de pertinência utilizadas para ambas as variáveis
de entrada e para a variável de saída do modelo fuzzy inverso também são distribuídas
conforme mostra a figura 2.
Modificador da Base de Regras
Considerando que a ação de controle no instante anterior, u(t-1), seja a única
influência do controlador sobre o desempenho atual do sistema (isto é, que tenha feito
y(t) se aproximar ou não de ym(t)), e lembrando que e(t-1) e c(t-1) foram as entradas do
controlador neste instante, modifica-se a base de regras do controlador, nas funções de
pertinência ativadas pelos valores de e(t-1) e c(t-1), para gerar um sinal igual a u(t1)+p(t), o qual deveria ter sido a entrada da planta para fazer ye(t) menor. Assim, da
próxima vez que os sinais e(t) e c(t) assumirem valores similares, a entrada da planta será
tal que tenderá a reduzir a diferença entre y(t) e ym(t), e o controlador terá memorizado
a ação de controle para esta situação em particular.
Seja bm o centro de uma dada função de pertinência do controlador fuzzy
associada a Um. A modificação da base de regras do controlador é feita através do
deslocamento dos centros bm de todas as funções de pertinência da variável lingüística
Um que estiverem associadas com as regras do controlador que contribuíram para a
ação de controle u(t-1). Este deslocamento é feito em duas etapas:
Verifica-se quais regras do controlador são ativas no instante t-1, isto é, quais
regras tem grau de certeza da premissa satisfazendo a expressão
µ i ( e(t − 1), c(t − 1) ) > 0
(7)
Se bm(t) denota o centro da m-ésima função de pertinência no instante t,
aplica-se a equação (8) em todas as regras inclusas do conjunto de regras ativas, de
modo a deslocar os centros das funções de pertinência dos seus termos conseqüentes.
bm (t ) = bm (t − 1) +
p(t )
gu
(8)
3. Controle da direção de navegação do navio cargueiro
A figura 3 ilustra o sistema sendo modelado, mostrando a grandeza física
considerada como entrada (ângulo de leme, δ) e aquela considerada como saída (direção
de navegação, ψ), ambas medidas em radianos.
48
Pesquisa Naval Nº 15, Setembro de 2002
Ângulo do
leme
δ
ψ
Direção de navegação
Figura 3 – Representação esquemática do sistema modelado (navio de carga)
Em geral, a dinâmica de um navio é equacionada por meio da aplicação das leis
de Newton ao seu movimento. Para navios de grande porte, o movimento no plano
vertical pode ser desprezado porque o efeito de “sobe-desce” é imperceptível neste
tipo de embarcação. Um modelo deste tipo de navio, proposto originalmente por Åström
(1995) e utilizado por Passino & Yurkovitch (1998), é dado por
&&&(t ) + (
ψ
1
1
1
K
+ )ψ&&(t ) + (
)ψ& (t ) =
(τ 3δ& (t ) + δ (t ))
τ1 τ 2
τ 1τ 2
τ 1τ 2
(9)
As constantes K, τ1, τ2 e τ3 são parâmetros do movimento do navio, calculadas
em função do seu comprimento (l) e da sua velocidade na direção de navegação (v),
segundo as equações
v
K = K 0 .  e
l 
(10)
.
(11)
l 
τ i = τ i 0 . 
v
O valores numéricos para os parâmetros l, v, K0, τ10, τ20 e τ30 são mostrados na
Tabela 1 (Åström & Wittenmark, 1995).
Parâmetro
Valor
l
161 m
v
5 m/s
K0
-3,86
τ10
5,66
τ20
0,38
τ30
0,89
Tabela 1 – Valores dos parâmetros do modelo convencional da planta
A Eq. (9) é decomposta em três equações diferenciais de estado não lineares
de primeira ordem
x&1 (t ) = x 2 (t ) = y (t ) ,
(12)
x& 2 (t ) = x 3 (t ) + c.u(t ) e
(13)
Pesquisa Naval Nº 15, Setembro de 2002
49
(14)
x& 3 (t ) = −a.[ x 3 (t ) + c.u (t )] − b.[ x 23 (t ) + x 2 (t )] + d .u (t )
em que,
a=
1
1
+
τ1 τ 2
b=
1
τ 1τ 2
c=
Kτ 3
τ 1τ 2
d=
K
τ 1τ 2
Estas equações são em seguida discretizadas para a simulação num computador
digital.
Modelo de Referência Utilizado.
O modelo de referência utilizado é o sistema linear de 2ª ordem modelado como
k1 . &y&m (t ) + k 2 . y& m (t ) + k 3 . y m (t ) = k 4 .r (t )
.
(15)
Após discretização, a saída do modelo de referência pode ser obtida pela equação
y m (t ) =
[
1
(2k1 + k 2T ).y m (t − T ) − k1. y m (t − 2T ) + k 4 .T 2 .r (t )
k5
]
(16)
em que
k5 =
1
k1 + k 2T + k 3T 2
e que é apropriada para simulação via software.
As constantes k1 a k4 são calculadas de modo a prover um sinal adequado ao
tempo de resposta do sistema em questão (Passino & Yurkovitch, 1998). Como o navio
apresenta inércia elevada, os coeficientes são escolhidos de forma a tornar a saída do
modelo de referência bastante lenta, conforme mostra a Tabela 6.1.
Parâmetro k1
VALOR
1
k2
0,1
k3
0,0025
k4
0,0025
Tabela 6.1 – Valores dos parâmetros do modelo de referência
As variáveis utilizadas no controlador FMRLC são mostradas na figura 4,
ilustrando os seus significados físicos para o caso do navio de carga.
50
Pesquisa Naval Nº 15, Setembro de 2002
Ângulo do Leme
δ = u(t)
+
umáx=80º
ym(t)
y(t)
y(t)
Erro
ye(t)
+
umín= -80º
Derivada
yc(t)
+
Derivada
yc(t) -
Direção do
Navio (Ψ)
Modelo de
Referência
Direção do
Navio (Ψ)
Figura 4 – Significado físico dos sinais do FMRLC no caso considerado
Considerações sobre o Sinal de Controle e o Atuador.
Devido às limitações físicas da planta controlada, as simulações realizadas
levaram em consideração duas condições:
Limitação em amplitude de u(t): o sinal de saída do controlador não deve exceder os
limites físicos para o ângulo do leme, a saber, 80º para cada lado. Logo, para u(t)
medido em radianos:
−
8π
8π
≤ u (t ) ≤ +
18
18
(17)
Limitação em freqüência de u(t): o sinal de saída do controlador deve respeitar a limitação
física do atuador mecânico que movimenta o leme. Partiu-se da suposição de que o
atuador levaria pelo menos 30s para levar o leme de uma extremidade à outra.
Assim, a taxa de variação do ângulo do leme, suposta constante, é dada por:
du (t )
dt
=
máx
u máx − u mín
8π
=
rad / s = 5,33 graus / s
∆t
270
(18)
Base de Regras do Modelo Fuzzy Inverso.
Para o sistema aqui modelado, a saída da planta y(t) (o ângulo de direção do
navio, ψ) tem uma relação inversa com a sua entrada u(t) (o ângulo do leme, δ). Isto é
facilmente observável na figura 4, onde nota-se que um aumento do ângulo do leme
provocará uma diminuição do ângulo de direção do navio e vice-versa. Por esse motivo,
a dinâmica inversa esperada é simples: se o erro ye(t) for positivo, isto é, se ym(t)>y(t),
Pesquisa Naval Nº 15, Setembro de 2002
51
então o sinal aplicado na entrada da planta, o ângulo do leme, deve ser reduzido. Por
outro lado, se o erro ye(t) for negativo, isto é, se ym(t)<y(t), então o sinal aplicado na
entrada da planta deve ser aumentado. Análise semelhante à feita para o erro pode ser
feita para a sua derivada, yc(t). Se a derivada é positiva, a diferença ym(t)-y(t) está
aumentando, e o ângulo do leme deve ser diminuído. Se a derivada é negativa, u(t) deve
ser aumentado. Esta dinâmica é mapeada na Tabela 2, que representa a base de regras
do modelo fuzzy inverso. Os valores apresentados são os centros das funções de
pertinência, para a variável p(t), em função das diversas combinações de ye(t) e yc(t),
conforme mostrado na figura 2.
ye(t)
-5
-4
-3
-2
-1
0
1
2
3
4
5
-5
1,0
1,0
1,0
1,0
1,0
1,0
0,8
0,6
0,4
0,2
0,0
-4
1,0
1,0
1,0
1,0
1,0
0,8
0,6
0,4
0,2
0,0
-0,2
-3
1,0
1,0
1,0
1,0
0,8
0,6
0,4
0,2
0,0
-0,2
-0,4
-2
1,0
1,0
1,0
0,8
0,6
0,4
0,2
0,0
-0,2
-0,4
-0,6
-1
1,0
1,0
0,8
0,6
0,4
0,2
0,0
-0,2
-0,4
-0,6
-0,8
yc(t)
0
1,0
0,8
0,6
0,4
0,2
0,0
-0,2
-0,4
-0,6
-0,8
-1,0
1
0,8
0,6
0,4
0,2
0,0
-0,2
-0,4
-0,6
-0,8
-1,0
-1,0
2
0,6
0,4
0,2
0,0
-0,2
-0,4
-0,6
-0,8
-1,0
-1,0
-1,0
3
0,4
0,2
0,0
-0,2
-0,4
-0,6
-0,8
-1,0
-1,0
-1,0
-1,0
4
0,2
0,0
-0,2
-0,4
-0,6
-0,8
-1,0
-1,0
-1,0
-1,0
-1,0
5
0,0
-0,2
-0,4
-0,6
-0,8
-1,0
-1,0
-1,0
-1,0
-1,0
-1,0
Tabela 2 – Centros das funções de pertinência da base de regras do modelo fuzzy inverso
Ganhos do Modelo Fuzzy Inverso e do Controlador.
Para as simulações realizadas foram tomados, inicialmente, os valores de ganho
para o modelo fuzzy inverso e para o controlador constantes da Tabela 3 (Passino &
Yurkovitch, 1998). Estes valores levam em consideração que o sinal de entrada da
planta u(t), isto é, o ângulo do leme do navio, deve variar entre os valores ±80º, ou ±8π/
18 radianos.
Ganho
VALOR
ge
1/π
gc
100
gu
8π/18
g ve
1/π
g vc
5
gp
8π/18
Tabela 3 – Valores dos ganhos do modelo fuzzy inverso e do controlador
52
Pesquisa Naval Nº 15, Setembro de 2002
4. Resultados de simulação
O controlador FMRLC desenvolvido foi aplicado ao navio de carga utilizando
como entrada uma onda quadrada com pulsos alternados de ±45º e período de 1000s. A
partir de um determinado instante dobra-se a velocidade linear do navio, isto é, o
sistema sofre uma variação de parâmetros. Os resultados obtidos são mostrados nas
figuras 5 e 6. Analisando estas figuras percebe-se o bom desempenho do controlador
proposto. Na figura 5 observa-se que o sistema apresenta um pequeno desvio em
relação ao modelo de referência logo após a variação da velocidade, que é compensada
ao longo dos instantes posteriores da simulação. A figura 6 mostra que a saída do
controlador, u(t), após o período de transição, tem sua intensidade inicialmente diminuída,
o que é um resultado esperado: quanto maior a velocidade de um navio, maior a força
com que o leme provoca uma variação na sua direção de navegação; a saída do
controlador, então, pode ter uma amplitude menor para atingir a mesma variação na
variável de saída da planta, y(t).
1,00
[rad]
0,50
Aumento da
Velocidade
velocidade
mais alta
0,00
[s]
0
1500
3000
4500
-0,50
-1,00
Modelo de Referência, ym(t)
Setpoint, r(t)
Saída do Modelo Convencional, y(t)
Figura 5 – Resposta do sistema controlado
2,00
1,50
1,00
Aumento da
velocidade
[rad]
0,50
Velocidade
mais alta
0,00
-0,50
[s]
0
1500
3000
4500
-1,00
-1,50
-2,00
Saída do Controlador, u(t)
Setpoint, r(t)
Figura 6 – Resposta do controlador
Pesquisa Naval Nº 15, Setembro de 2002
53
5. Conclusões
Neste trabalho foi desenvolvido um controlador fuzzy adaptativo do tipo
FMRLC tendo como principal inovação a nova forma de sintonia dinâmica da base de
regras deste controlador. Esta metodologia calcula os coeficientes que representam os
graus de influência dos sinais de controle, em instantes passados, na saída atual do
sistema. Estes coeficientes são, então, utilizados no algoritmo de sintonia da base de
regras do controlador fuzzy adaptativo.
A maior vantagem do FMRLC sobre um controlador adaptativo convencional
é evidente: com o passar do tempo, o primeiro aprende como controlar a planta e
armazena este aprendizado em sua memória (a base de regras); o segundo, tem que reaprender a cada nova situação encontrada, o que compromete a sua velocidade de
resposta, isto é, o tempo levado pelo controlador até torna-se capaz de gerar um sinal de
controle adequado para guiar a planta à condição desejada.
Apesar dos bons resultados obtidos nas simulações realizadas, o FMRLC não
é adequado para o controle de qualquer planta. Para sistemas que apresentem fase nãomínima, por exemplo, pode não ser possível a obtenção do modelo fuzzy inverso, muito
embora ele não caracterize um modelo inverso da planta sob o ponto de vista formal.
6. Referências Bibliográficas
ÅSTRÖM, K.J.; WITTENMARK, B. Adaptive Control, Addison-Wesley,
Reading, MA, (1995).
PASSINO, K. M.; YURKOVICH, S. Fuzzy Control, Addison-Wesley, Menlo Park,
California (1998).
LANDAU, Y.D. Adaptive Control: The Model Reference Approach, Marcel
Dekker, New York, (1979).
HARRIS, C.J.; MOORE, C.G.; BROWN, M. Intelligent Control: Aspects of Fuzzy
Logic and Neural Nets, World Scientific Series in Robotics and Automated
Systems, World Scientific, Londres (1993).
VALENTE, S.A. Desenvolvimento de um controlador fuzzy adaptativo com
modelagem por redes neurais, dissertação de mestrado, CPGEI – CEFET/PR,
(2001).
Instituto de Pesquisas da Marinha
SISTEMA DE PREVISÃO DE ALCANCE SONAR ATIVO
E TRAÇADO DE RAIOS SONOROS – SPARS 3.2
O SPARS 3.2 atende aos seguintes requisitos:
É desenvolvido para ambiente Windows;
Avalia o ambiente marinho, sendo capaz de prever a ocorrência de dutos (de
superfície e sub-superfície), zonas de convergência e reflexões no fundo;
Efetua o traçado dos raios sonoros, dando ênfase à eventual ocorrência de
dutos, zonas de convergência e reflexões no fundo;
Calcula as perdas na propagação tanto para águas rasas quanto para águas
profundas, com ou sem dutos;
Calcula o alcance sonar previsto, considerando tanto a limitação por ruído
quanto por reverberação; e
Representa graficamente a distribuição espacial da probabilidade de detecção
sonar, em função do excesso de eco, para uma dada probabilidade de falso-alarme;
Este sistema encontra-se instalado a bordo de todos os navios da Esquadra
desde dezembro de 2000.
Instituto de Pesquisas da Marinha
Rua Ipiru, s/nº - Praia da Bica – Ilha do Governador
CEP 21931-090 – Rio de Janeiro – RJ – Brasil
Fone: (021) 3386-2750 – Fax: (021) 3386-2788
e-mail: [email protected]
IV
Capítulo
MÉTODO MULTICRITÉRIO PARA SELEÇÃO DE
VARIÁVEIS EM MODELOS DEA
João Carlos Correia Baptista Soares de Mello
Professor Adjunto do Departamento de Engenharia de Produção
Universidade Federal Fluminense – [email protected]
Eliane Gonçalves Gomes
Doutoranda do Programa de Engenharia de Produção – COPPE
Universidade Federal do Rio de Janeiro – [email protected]
Maria Helena Campos Soares de Mello
Professora Assistente do Departamento de Engenharia de Produção
Universidade Federal Fluminense – [email protected]
Marcos Pereira Estellita Lins
Professor Adjunto do Programa de Engenharia de Produção – COPPE
Universidade Federal do Rio de Janeiro – [email protected]
Caixa Postal: 68543, CEP: 21945-970, Rio de Janeiro, RJ, Brasil
Resumo
Recentemente vários autores têm defendido o uso de Análise Envoltória de
Dados (DEA) como uma ferramenta de Apoio Multicritério à Decisão. No entanto,
este uso esbarra na freqüente fraca ordenação fornecida por DEA. Métodos como
restrições aos pesos e avaliação cruzada são usados para corrigir este problema. É
proposto neste artigo um novo método, baseado na seleção de um número reduzido
de inputs e outputs (critérios), que representa adequadamente a relação causal e que
não atribui eficiência unitária a um número demasiado de DMUs (alternativas).
56
Pesquisa Naval Nº 15, Setembro de 2002
Este método é aplicado ao caso real da análise de eficiência de turmas de Cálculo I
da Universidade Federal Fluminense, e seus resultados comparados com os obtidos
quando da aplicação do método de restrições aos pesos.
Abstract
The use of Data Envelopment Analysis (DEA) as a tool for Multicriteria
Decision Aid (MCDA) is of increasing interest. However, this approach has the
disadvantage of making a poor ranking. Weight Restrictions and Cross Efficiency
are some the methods used to minimize this disadvantage. In this paper is proposed
a new method based on the proper reduction of the inputs (resources) and the outputs
(products) number, using DEA as a MCDA tool. The real case of the First Calculus
Class efficiency, in Universidade Federal Fluminense, is analyzed and the results are
compared with a previous work that used the weight restriction method.
Palavras-chave: Análise Envoltória de Dados, Apoio Multicritério à Decisão, Seleção de Variáveis,
Educação.
Key-words: Data Envelopment Analysis, Multicriteria Decision Aid, Variables Choice, Education.
1. Introdução
A Análise Envoltória de Dados (Data Envelopment Analysis – DEA) é, na sua
origem, um método não paramétrico para calcular a eficiência de unidades produtivas,
denominadas de Unidades Tomadoras de Decisão (Decision-Making Unit – DMU)
(Charnes et al., 1978). Os métodos paramétricos clássicos lidam com a multiplicidade de
recursos (inputs) e produtos (outputs) fazendo a agregação em, respectivamente, um
input e output únicos. Uma maneira comum de fazer esta agregação é substituindo
cada input e output por seu valor monetário. No entanto, há casos em que esse método
pode tanto não ser conveniente quanto não ser possível, como ocorre com freqüência
quando são analisadas unidades de saúde ou educacionais.
Os modelos DEA fazem a agregação de inputs e outputs transformando-os em,
respectivamente, inputs e outputs virtuais, resultantes de uma combinação linear dos
inputs e outputs originais. Os pesos usados nesta combinação linear são calculados
através de um problema de programação linear, de forma que cada DMU se beneficie
com a melhor combinação de pesos, maximizando sua eficiência.
Em uma outra perspectiva, as DMUs podem ser vistas como alternativas que
se quer ordenar segundo suas eficiências, ou alocar em duas classes, a saber, eficientes
e não eficientes, ou ainda, escolher a mais eficiente. Em qualquer destas situações,
inputs e outputs são usados como critérios. As ações tomadas na perspectiva anterior
Pesquisa Naval Nº 15, Setembro de 2002
57
são análogas, respectivamente, às problemáticas multicritério de ordenação (Pγ), alocação
(Pβ) e escolha (Pα) (Barba-Romero e Pomerol, 1997).
Alguns autores (Gomes et al., 2000, Sarkis, 2000, Bouyssou, 1999, Farinaccio e
Ostanello, 1999, Farinaccio, 1998, Belton e Stewart, 1997) vêm estudando as relações
existentes entre DEA e o Apoio Multicritério à Decisão (Multicriteria Decision Aid –
MCDA), incluindo-se o uso de DEA como ferramenta de MCDA. Este uso exige
desenvolvimentos que vão além do modelo original, tais como, restrições aos pesos
(Lins e Angulo-Meza, 2000), eficiência cruzada (Sexton, 1986, Angulo-Meza, 1998),
agregação de eficiências parciais (Rangel et al., 1999) e supereficiência (Andersen e
Petersen, 1993).
Este artigo enfoca o problema da fraca discriminação que surge no uso de
DEA como ferramenta MCDA na problemática Pγ. É apresentado um método não
subjetivo baseado no uso adequado de um número limitado de inputs e outputs, de
modo a melhorar o poder discriminatório de DEA. Ao invés do uso de técnicas estatísticas
para a seleção de variáveis (Lins e Moreira, 1999, Friedman e Sinuany-Stern, 1998), o
método proposto baseia-se na necessidade de compromisso entre dois objetivos
conflitantes: máxima discriminação e melhor ajuste à fronteira. Este método é aplicado
ao estudo de caso da análise de eficiência de turmas de Cálculo I da Universidade
Federal Fluminense, comparando-se os resultados com os obtidos por Soares de Mello
et al. (2000) ao usarem restrições aos pesos em DEA.
2. DEA e MCDA
Os métodos de MCDA tradicionais necessitam de uma fase de estruturação
que, segundo Bana e Costa e Correa (2000), representa cerca de 80% do total do problema.
Esta fase envolve a identificação do(s) objetivo(s) do decisor, a identificação de
alternativas viáveis, a escolha de critérios (nem sempre evidentes), a quantificação de
variáveis subjetivas, entre outras etapas que dependem de cada problema abordado.
Em DEA, a fase de estruturação é usualmente bem menor. O objetivo é medir
a eficiência de processos, habitualmente já realizados. Os inputs e outputs são, em
geral, aqueles para os quais há informações disponíveis, o que motiva alguns autores a
classificarem DEA como método oportunista (Belton e Stewart, 1997). Há poucos
trabalhos sobre a escolha das variáveis (inputs e outputs), podendo-se citar o trabalho
de Lins e Moreira (1999) como um dos que aborda o problema.
Das características de MCDA e DEA, pode-se afirmar que o primeiro é altamente
subjetivo (dependente das opiniões do decisor), enquanto que o segundo é
extremamente objetivo (Belton e Stewart, 1997). Em contrapartida, os métodos MCDA,
em especial os da Escola Americana, conduzem a uma boa ordenação das alternativas.
Já no estudo por DEA esta ordenação é deficiente, visto que podem ser encontradas
várias DMUs com 100% de eficiência.
Deve-se destacar que qualquer método usado para encontrar um meio termo
entre a objetividade de DEA e a boa ordenação produzida pelas técnicas de MCDA, só
58
Pesquisa Naval Nº 15, Setembro de 2002
deve ser utilizado em problemas que sejam tratáveis pelas duas abordagens, ou seja,
quando se deseja classificar alternativas que produzam algo, utilizando-se de
determinados recursos. Refira-se que existe uma outra corrente que considera possível
o uso de DEA como ferramenta MCDA, desde que os critérios a minimizar sejam
considerados inputs e os critérios a maximizar sejam considerados outputs.
3. Seleção de Variáveis
Os modelos MCDA usam os axiomas de Roy (Roy e Bouyssou, 1993) como
critério básico de escolha dos critérios, a saber, exaustão, não redundância e coesão.
Sem detalhar matematicamente, e usando linguagem coloquial, pode-se interpretar o
axioma da exaustão como a necessidade de descrever o problema levando em conta
todos os aspectos relevantes; o da não redundância como a obrigatoriedade de excluir
critérios que estejam avaliando características já avaliadas por outro critério. Finalmente,
o axioma da coesão impõe a correta análise de quais são os critérios de maximização e
quais os de minimização.
Os dois primeiros axiomas são, em parte, contraditórios. Não é crível que haja
critérios totalmente independentes que descrevam completamente o problema. Enquanto
o axioma da exaustão tende a elevar o número de critérios, o da não redundância tende
a diminuí-lo.
Em DEA não há uma axiomática equivalente e aceite universalmente. Alguns
princípios são seguidos na escolha de inputs e outputs. Em particular, os inputs e
outputs (variáveis) usados devem representar o melhor possível a realidade, o que
poderia ser considerado como um equivalente do axioma da exaustão, e tende a aumentar
o número de variáveis e, portanto, diminuir o poder de ordenação do modelo. Usando
o conceito defendido por Shutler (2000), de que as ineficiências são explicadas pelas
variáveis ausentes do modelo, pode-se considerar que um modelo está tanto melhor
adequado à realidade quanto melhor for o ajuste das DMUs à fronteira de eficiência,
provocado pelas variáveis usadas. Esse é o conceito usado por Lins e Moreira (1999)
no método “I-O Stepwise” para justificar a entrada de variáveis que proporcionam
maior eficiência média. Assim, um modelo DEA estaria tão mais próximo de verificar o
axioma da exaustão quanto melhor fosse o ajuste das DMUs à fronteira eficiente.
O axioma da coesão em DEA assume a forma da escolha coerente de inputs e
outputs, ou seja, considerar que os inputs são a minimizar e os outputs a maximizar,
levando em conta eventuais transformações de escala.
Finalmente, tem-se o axioma da não redundância. Este axioma pode ser visto
como a necessidade de não permitir a existência de alta correlação entre pares de inputs
(outputs). Esta orientação acarreta a redução do número de variáveis.
Ao reduzir o número de variáveis com alta correlação, aumenta-se a
discriminação do modelo DEA com conseqüente diminuição do ajuste à fronteira
eficiente. Se ao invés do critério de alta correlação for usado o critério de maximizar a
Pesquisa Naval Nº 15, Setembro de 2002
59
discriminação para eliminar variáveis, evidentemente, a discriminação do modelo DEA
será aumentada.
As formas de selecionar variáveis, de acordo com os objetivos propostos de
abordar DEA como método MCDA, podem ser resumidas na Tabela 1, na qual são
comparadas com os axiomas de Roy.
DEA
Boa aderência à fronteira
Melhorar a discriminação
Coerência de outputs e inputs
MCDA
Exaustão
Não redundância
Coesão
Efeito
Aumenta o n.º de variáveis
Diminui o n.º de variáveis
----
Tabela 1: Comparação da escolha de variáveis em DEA e em MCDA.
4. Método Multicritério de Seleção de Variáveis em DEA
Podem ser consideradas duas formas de escolha automática de variáveis em
modelos DEA. A primeira busca o melhor ajuste das DMUs à fronteira de eficiência. A
outra, que considera DEA como ferramenta de MCDA na solução da problemática Pγ,
busca melhorar a ordenação, mas tem a desvantagem de perder parte da relação causal.
Na primeira abordagem, usada por Lins e Moreira (1999), parte-se de um par
input-output inicial que tenha alta correlação. O critério de seleção de novas variáveis
a serem inseridas é verificar qual das variáveis candidatas provoca maior eficiência
média no modelo. O método pára ao atingir o número de variáveis considerado ideal.
A segunda abordagem parte de um par inicial escolhido pelo decisor ou pelo
analista. O critério de seleção de novas variáveis a serem inseridas é provocar o menor
número de DMUs eficientes, já que dificilmente ocorrem empates do valor da eficiência
em DMUs ineficientes. Assim, ao diminuir o número de DMUs na fronteira, melhorase a ordenação. Ao serem consideradas apenas variáveis que melhorem a discriminação,
é desconsiderada uma região da fronteira que seria obtida se fossem consideradas
todas as variáveis. No entanto, esta parte da fronteira tem baixo poder discriminatório,
e é questionável se variáveis tão “benevolentes” com as DMUs devem realmente
entrar em um modelo que pretende identificar ineficiências e estabelecer ordenações.
Tal como na abordagem anterior, o método pára quando for atingido o número de
variáveis considerado ideal. É comum considerar-se que o número de DMUs deve
pelo menos igual ao triplo do número de variáveis. Assim, a menos que se defina um
outro ponto de parada, este método só deve ser aplicado quando o número de DMUs
não verificar a relação anterior.
Para minimizar os efeitos indesejáveis de cada abordagem, respectivamente,
baixa discriminação e baixa relação causal, deve-se procurar um método de escolha das
variáveis que seja um compromisso entre máximo ajuste e máxima discriminação.
Com esta finalidade, é proposta uma metodologia MCDA (problemática da
escolha Pα) que considera como alternativas as variáveis candidatas a serem inseridas
no modelo e como critérios o melhor ajuste à fronteira e a máxima discriminação. O
60
Pesquisa Naval Nº 15, Setembro de 2002
decisor sabe a priori quais variáveis devem ser consideradas como inputs e quais
devem ser consideradas como outputs.
O ajuste à fronteira é medido através da eficiência média e sua normalização
cria a variável SEF, descritor de impacto do critério “melhor ajuste à fronteira”, que
atinge o valor 10 na eficiência máxima e zero na eficiência mínima. A máxima discriminação
é medida pelo número de DMUs eficientes, que se deseja minimizar. A normalização
desta medida gera a variável SDIS, descritor de impacto do critério “máxima discriminação”,
que atinge valor 10 para o menor número de DMUs na fronteira e zero para o maior
número.
Para selecionar a variável que produz a melhor solução de compromisso e que
deve entrar no modelo, agregam-se os dois critérios em um critério síntese, através da
soma ponderada dos respectivos descritores de impacto, SEF e SDIS. O descritor de
impacto deste critério síntese é a variável S = ωS EF + (1 − ω ) S DIS .
Para não haver predominância de um dos critério, e a menos que haja fortes
razões em contrário, deve-se fazer ω = 0,5 . A variável que apresentar maior valor de S
é incorporada ao modelo e, se o número de variáveis incorporadas não exceder 1/3 das
DMUs, repete-se o processo para incorporar nova variável. Caso contrário, o
procedimento está completo, ou seja todas as variáveis que devem ser incorporadas ao
modelo estão selecionadas. A Figura 1 resume o método proposto.
Escolher um par input-output inicial
Calcular a eficiência média para cada variável acrescentada
Calcular o número de DMUs na fronteira de eficiência
Normalizar as escalas, calculando SEF e SDIS
Fazer a soma ponderada de SEF e SDIS usando pesos iguais
Escolher a variável que tenha maior valor de S
Verificar se o número de DMUs excede o triplo do número de variáveis
Sim
Não
Fim
Fig. 1: Procedimento multicritério para escolha de variáveis em modelos DEA.
Pesquisa Naval Nº 15, Setembro de 2002
61
5. Estudo de Caso: Eficiência do Ensino de Cálculo I na Universidade Federal Fluminense
O método proposto para seleção de variáveis em DEA foi aplicado ao problema
abordado por Soares de Mello et al. (2000) para determinação da eficiência de turmas de
Cálculo I da Universidade Federal Fluminense (UFF), no qual o problema da baixa
discriminação foi resolvido pela introdução de restrições aos pesos no modelo DEA/
CRS (que considera retornos constantes de escala), obtidas através da metodologia
MACBETH (Bana e Costa & Vansnick, 1994, 1997). Neste artigo é feita a comparação
dos resultados obtidos por este método e pelo método multicritério aqui proposto.
Desde 1998 algumas turmas da disciplina de Cálculo I dos cursos de Engenharia
da UFF vinham utilizando recursos computacionais, enquanto outras turmas utilizavam
o método tradicional. Considerando cada turma como uma unidade produtiva (Soares
de Mello et al., 2001), pode-se usar DEA para a avaliação desta experiência.
Os inputs usados refletem a qualidade dos alunos que entram na universidade
e os recursos usados por aluno, e os outputs refletem a qualidade dos alunos ao final
do curso. Na descrição dos inputs é necessário fazer a separação entre recursos e
qualidade dos alunos. Os recursos são bem representados pela carga horária (as
turmas com computador tinham duas horas de aula semanais a mais). As notas eram as
únicos parâmetros disponíveis para medir a qualidade dos alunos, e foram os utilizados
apesar de todas as desvantagens de seu uso. As notas anteriores ao Cálculo I são as
notas do vestibular, em especial na prova de matemática. Assim, na descrição dos
inputs, tinham-se as seguintes variáveis: média obtida pelos alunos na prova objetiva
de Matemática do vestibular (MO); média obtida pelos alunos na prova discursiva de
Matemática do vestibular (MD); número de horas de aula semanais dividido pelo
número de alunos (R); porcentagem de alunos que obtiveram nota igual ou superior a
6 na prova objetiva de Matemática do vestibular (AM); porcentagem de alunos que
obtiveram nota igual ou superior a 6 na prova objetiva discursiva de Matemática do
vestibular (AD). Para descrição dos outputs tem-se: percentual de alunos que fizeram
Cálculo I em determinada turma e que foram aprovados em Cálculo II no semestre
seguinte (A2); média em Cálculo II dos alunos que fizeram Cálculo I em determinada
turma (M2); percentual de aprovação da turma de Cálculo I (A1); média das notas
finais da turma de Cálculo I (M1).
O par input-output inicial escolhido pelo decisor é MO-A2. Introduz-se de
cada vez uma das outras variáveis restantes (MD, R, AM, AD, M2, A1, M1) e são
calculadas as eficiências de cada turma no modelo DEA/CRS. São calculadas as
eficiências médias e o número de turmas com eficiência 100%. A Tabela 2 apresenta as
eficiências calculadas, eficiência média e o valor de S, onde as turmas (DMUs) são
indicadas por uma letra e três algarismos (semestre-ano).
Pela análise da Tabela 2 e pelo procedimento proposto, a variável que é escolhida
para ser incorporada no modelo é aquela com maior S, ou seja, M2. Neste caso, cabe
ressaltar, que se o critério escolhido fosse a maior eficiência média, a variável M2
62
Pesquisa Naval Nº 15, Setembro de 2002
também seria a selecionada.
Pela regra de parada arbitrada, o número de variáveis deve ser 4 (quatro).
Assim, é necessária a escolha de mais uma variável a entrar no modelo. A Tabela 3
mostra os resultados que levam à escolha desta 4ª variável. A nova iteração parte de
um modelo com as variáveis MO, A2 e M2.
Analisando-se a Tabela 3, verifica-se que o modelo multicritério escolhe a
variável R (maior S) para entrar no modelo DEA. Assim, o ponto de parada do
procedimento proposto é atingido e o modelo DEA para avaliar a eficiência das turmas
de cálculo será composto dos inputs, R e MO, e dos outputs, A2 e M2.
Se fosse utilizado o modelo de máxima aderência, ou seja, melhor ajuste à
fronteira eficiente, a variável selecionada seria A1, o que traria um ganho de eficiência
pequeno (1,83%) quando comparado com a escolha pelo método multicritério. Por outro
lado, ao invés de a fronteira eficiente ser composta de 2 DMUs, haveria 3 DMUs
envolvendo os dados, o que comprometeria a capacidade de ordenação do modelo
DEA.
Turmas
Eff com Eff com Eff com Eff com Eff com Eff com Eff com
A1
M2
R
MD
M1
AM
AD
A197
85,86
90,96
85,67
85,67
87,55
85,67
85,67
A198
100,00 100,00
76,92
65,44
98,51
64,54
65,30
A297
24,55
86,13
17,99
17,99
51,72
17,99
18,68
B197
100,00
95,65
95,65
95,65
98,30
95,65
95,65
B297
58,46
77,06
48,85
48,85
70,17
48,85
49,93
D197
52,46
79,54
41,91
41,91
59,97
41,91
41,91
D198
100,00 100,00 100,00 100,00 100,00 100,00 100,00
D297
90,34
83,20
66,40
66,40
88,80
74,24
66,40
E197
74,30
87,51
73,85
73,85
83,51
73,85
73,85
E297
69,60
69,51
30,08
30,08
72,55
31,31
30,91
J198
98,23
88,53
88,53
88,53
100,00
88,53
88,53
K198
90,72
95,89
82,18
93,66
100,00
82,18
100,00
Eff média 78,71
87,83
67,34
67,34
84,26
67,06
68,07
3
2
1
1
2
1
2
N.º DMUs
eficientes
2,80
7,50
5,07
5,07
4,14
5,00
0,24
S
Tabela 2:
Dados para a primeira iteração do modelo proposto (Eff = eficiência).
Pesquisa Naval Nº 15, Setembro de 2002
Turma
A197
A198
A297
B197
B297
D197
D198
D297
E197
E297
J198
K198
Eff média
N.º DMUs
Eficientes
S
63
Eff com
A1
90,96
100
86,13
100
77,06
79,54
100
90,34
87,51
69,6
98,75
96,07
89,66
3
Eff com
R
90,96
100
86,13
95,65
77,06
79,54
100
83,2
87,51
69,51
88,53
95,89
87,83
2
Eff com
MD
90,96
100
86,13
95,65
77,06
79,54
100
83,2
87,51
69,51
88,53
100
88,17
3
Eff com
M1
73,25
96,79
81,22
77,32
70,2
65,31
100
69,96
61,12
66,27
91,63
100
79,42
2
Eff com
AM
86,44
100
89,83
87,39
80,72
84,31
100
96,97
81
77,74
87,68
100
89,34
3
Eff com
AD
73,25
96,79
81,22
76,57
70,2
65,31
100
69,19
61,12
66,27
87,61
100
78,96
2
5
9,15
4,31
5,22
4,85
5
Tabela 3: Dados para a segundo iteração do modelo proposto.
Quando comparados com os resultados do problema abordado por Soares de
Mello et al. (2000) verifica-se que a ordenação das DMUs é muito semelhante, apesar de
no presente método haver uma DMU eficiente a mais. Além disso, as variáveis AD,
AM e M1 que, por análise de correlação e por conhecimento de especialista, tinham
sido excluídas no modelo original, também não foram selecionadas pelo procedimento
proposto neste artigo.
5.1 Análise de sensibilidade
Em cada iteração, a variável que entra no modelo é escolhida atribuindo-se
pesos iguais para os dois critérios (máxima aderência e máxima discriminação). É
conveniente verificar até que ponto uma mudança nos pesos atribuídos altera a escolha
da variável.
Assim, é introduzido o conceito de Dominância por Intervalo, semelhante ao
conceito de Regiões de Indiferença para os pesos (Interval Criterion Weights) em
Programação Linear Multiobjetivo (Clímaco e Antunes, 2000). A variável i escolhida se
diz dominante por intervalo se o comprimento do intervalo de variação do peso que
64
Pesquisa Naval Nº 15, Setembro de 2002
escolhe a variável i for maior que o comprimento do intervalo que seleciona qualquer
outra variável.
Analisando-se os resultados da 1a iteração (Tabela 2), verifica-se que a variável
M2 selecionada pelo método multicritério proposto (maior valor de S) também o seria
pelo critério de maior eficiência média. Deve-se então comparar a escolha desta variável
com a eventual escolha de uma variável que apresente maior poder de discriminação.
Neste caso, as variáveis candidatas são R, MD e AM. Como AM é dominada por R e
MD, a comparação fica restrita às variáveis M2 com R ou MD, visto que estas últimas
são equivalentes. Com a comparação, verifica-se que a variável M2 continua sendo a
selecionada, desde que o peso de SEF seja pelo menos 0,336, o que indica que o intervalo
de escolha de M2 tem amplitude 0,664, caracterizando a dominância por intervalo de
M2.
Uma análise semelhante na 2a iteração (Tabela 3) deve comparar a escolha de
R (melhor S e melhor SDIS) com a escolha de M1 (maior valor de SEF). Fazendo-se esta
análise, verifica-se que R continua sendo a variável escolhida desde que o peso de SEF
não seja superior a 0,854, o que novamente caracteriza a dominância por intervalo.
6. Conclusões
O uso de um modelo multicritério para a escolha de variáveis do modelo DEA
permite uma boa ordenação, sem grande prejuízo ao ajuste das DMUs à fronteira de
eficiência. Além disso, os resultados são consistentes com os obtidos com outros
métodos para melhorar a ordenação.
Nota-se ainda que o modelo multicritério foi equilibrado, ao escolher o mesmo
número de inputs e outputs (dois), ao contrário do que acontecia com o modelo de
máxima aderência, que sugere o uso de 1 input e 3 outputs.
Este artigo contribui, de forma inovadora, para preencher uma grande lacuna
na literatura sobre DEA, no que se refere à seleção de variáveis (inputs e outputs) a
serem usadas no modelo. Os poucos artigos que apresentam métodos não dependentes
exclusivamente de opinião de especialistas, abordam estatisticamente a seleção de
variáveis.
Foi ainda verificado no estudo de caso apresentado uma grande robustez do
modelo, já que nas duas iterações havia uma grande dominância por intervalo das
variáveis selecionadas.
Deve-se, por fim, ressaltar que o método apresentado só é válido quando se
pretende utilizar abordagem por DEA como uma ferramenta multicritério na problemática
Pγ, apresentando inconvenientes quando o objetivo for uma abordagem tradicional de
eficiência e produtividade.
7. Referências Bibliográficas
ANDERSEN, P., PETERSEN, N.C., A procedure for ranking efficient units in data
envelopment analysis, Management Science, 39, p. 1261-1264, 1993.
Pesquisa Naval Nº 15, Setembro de 2002
65
ANGULO-MEZA, L., Data Envelopment Analysis na determinação da eficiência
dos Programas de Pós-Graduação da COPPE/UFRJ, Tese de Mestrado, COPPE,
Universidade Federal do Rio de Janeiro, Rio de Janeiro, 1998.
BANA E COSTA, C.A., CORREA, E.C., Apoio Multicritério à Elaboração do
Plano de Médio Prazo 1999-2002 da Câmara Municipal do Porto, Actas do 9o
Congresso da APDIO – IO’2000, Setúbal, Portugal, p. 82, 2000.
BANA E COSTA, C.A., VANSNICK, J.C., Applications of the MACBETH
approach in the framework of an additive aggregation model, Journal of MultiCriteria Decision Analysis, 6, p. 107-114, 1997.
BANA E COSTA, C.A., VANSNICK, J.C., MACBETH - An interactive path
towards the construction of a cardinal value functions, International Transactions
in Operations Research, 1, p. 489-500, 1994.
BARBA-ROMERO, S., POMEROL, J.C., Decisiones Multicriterio: Fundamentos
Teóricos y Utilización Práctica, Colección de Economía, Universidad de Alcalá,
Spain, 1997.
BELTON, V., STEWART, T. J., DEA and MCDA: competing or complementary
approaches?, Working Paper, University of Strathclyde, Scotland, 1997.
BOUYSSOU, D., Using DEA as a tool for MCDM: some remarks, Journal of the
Operational Research Society, 50 (9), p. 974-978, 1999.
CHARNES, A., COOPER, W.W., RHODES, E., Measuring the efficiency of decision
making units, European Journal of Operational Research, 2, p. 429-444, 1978.
CLÍMACO, J.C.N., ANTUNES, C.H., Programação Linear Multiobjectivo: uma
perspectiva interactiva. In: Lins, M.P.E., Angulo-Meza, L. (eds) Análise
Envoltória de Dados e perspectivas de integração no ambiente do Apoio à
Decisão, Editora da COPPE/UFRJ, Rio de Janeiro, p. 125-160, 2000.
FARINACCIO, F., Data Envelopment Analysis como strumento di Analisi
Multicriteria, Tese de Doutorado, Università di Pisa, Itália, 1998.
FARINACCIO, F., OSTANELLO, A., Evaluation of DEA validity as a MCDA/M
tool: some problems and issues, Technical Report TR-99-06, Dipartimento de
Informatica, Università di Pisa, Itália, 1999.
FRIEDMAN, L., SINUANY-STERN, Z., Combining ranking scales and selecting
variables in the DEA context: the case of industrial branches, Computers and
Operations Research, 25 (9), p. 781-791, 1998.
GOMES, L.F.A.M., GONZÁLEZ-ARAYA, M.C., LINS, M.P.E., A Integração entre
a Análise de Envoltória de Dados e o Apoio Multicritério à Decisão – uma
Revisão Parte I: Julgamentos e Restrições, Pesquisa Naval, 13, p. 41-49, 2000.
LINS, M.P.E., ANGULO-MEZA, L., Análise Envoltória de Dados e perspectivas
de integração no ambiente do Apoio à Decisão, Editora da COPPE/UFRJ, Rio
de Janeiro, p. 53-63, 2000.
LINS, M.P.E., MOREIRA, M.C.B., Método I-O Stepwise para Seleção de Variáveis
em Modelos de Análise Envoltória de Dados, Pesquisa Operacional, 19 (1), p.
39-50, 1999.
RANGEL, L.A.D., LINS, M.P.E., GOMES, L.F.A.M., Agregação parcial das
eficiências das unidades decisão em análise envoltória de dados, Anais do XXXI
Simpósio Brasileiro de Pesquisa Operacional [Cd-Rom], Juiz de Fora, Minas
Gerais, 1999.
ROY, B., BOUYSSOU, D., Aide Multicritére à la Décision: Méthodes et Cas,
Economica, Paris, 1993.
SARKIS, J., A comparative analysis of DEA as a discrete alternative multiple
criteria decision tool, European Journal of Operational Research, 123, p. 543557, 2000.
SEXTON, T.R., The methodology of DEA. In: Silkman, R.H. (ed) Measuring
Efficiency: An Assessment of DEA, San Francisco, American Evaluation
Association, Jossey Bass Inc., p. 7-29, 1986.
SHUTLER, M.F., The Measurement of Performance in Public and Privatized
Industries, Actas do 9o Congresso da APDIO – IO’2000, Setúbal, Portugal, p.
33, 2000.
SOARES DE MELLO, J.C.C.B., LETA, F.R., FERNANDES, A.J.S., VAZ, M.R.,
SOARES DE MELLO, M.H.C., BARBEJAT, M.E.R.P., Avaliação Qualitativa
e Quantitativa: uma Metodologia de Integração, Ensaio – Avaliação e Políticas
Públicas em Educação, 9 (31), 2001.
SOARES DE MELLO, M.H.C., SOARES DE MELLO, J.C.C.B., LINS, M.P.E.,
Teaching Calculus Using Computational Techniques – Quantitative Analysis
of Experience in Universidade Federal Fluminense, Proceedings of ICECE 2000
– International Conference on Engineering and Computer Education [Cd-Rom],
São Paulo, 2000.
V
Capítulo
APLICAÇÃO DA TÉCNICA DE KERNEL NA DETECÇÃO SONAR
Cleide Vital da Silva Rodrigues
Instituto de Pesquisas da Marinha - IPqM
Universidade Federal do Rio de Janeiro - PEP/COPPE
[email protected]
Basílio de Bragança Pereira
Universidade Federal do Rio de Janeiro - FM, NESC e PEP/COPPE
[email protected]
Antonio Petraglia
Universidade Federal do Rio de Janeiro - PEE/COPPE
[email protected]
Resumo
O desempenho de um sistema de detecção de sinais é medido pela capacidade
do mesmo em efetuar detecções com o menor erro possível. No caso de um detector
sonar, as soluções analíticas para se obter este desempenho estão cada vez mais
difíceis de serem deduzidas devido à crescente complexidade e não-linearidade dos
sistemas envolvidos. O procedimento comumente utilizado é estimar o desempenho
através das simulações de Monte Carlo. Este método produz estimativas mais precisas
da eficiência do sistema, desde que o número de ensaios para as simulações seja
suficientemente elevado.
Neste trabalho, um algoritmo de processamento de sinais sonar foi
desenvolvido e seu desempenho foi estimado. O objetivo deste trabalho foi obter a
estimativa do desempenho aplicando as técnicas de kernel de suavização de curvasnas
distribuições obtidas com os dados de saída do detector, sem precisar gerar os cálculos
68
Pesquisa Naval Nº 15, Setembro de 2002
do início ao fim como a simulação de Monte Carlo. Uma curva ROC (Receiver
Operating Characteristic) não-paramétrica suavizada é obtida. Os resultados foram
comparados com os obtidos pela simulação de Monte Carlo.
Abstract
The performance of a signal detection system is measured by its detection
capacity with a minimum possible error. In the case of a sonar detector, analytical
solutions for accessing its performance are difficult to derive because of the high
complexity and non-linearity of the systems involved. The usual approach to estimate
the performance is based on Monte Carlo simulations. This method yields more
precise estimates of system if the number of trials required of simulations is sufficiently
large.
In this work, a sonar signal processing algorithm was derived and its
performance was estimated. The objective here was to obtain performance estimates
by applying the kernel technique of curve smoothing to the detector output with the
purpose of avoiding the calculations for the whole data, from the begining to the end,
as in Monte Carlo simulations. A non-parametric ROC (Receiver Operating
Characteristic) curve is deduced from estimates of distributions of kernel densities.
The results obtained were compared with the ones produced in Monte Carlo
simulations.
Introdução
O sonar (sound navigation and ranging) é um sistema que tem como objetivo
detectar, classificar e localizar um alvo submarino. Antes que qualquer função seja
desempenhada, o sonar deve primeiro detectar a presença do alvo, isto é, o sistema
deve determinar se existe ou não um sinal durante um intervalo de tempo estabelecido.
O processo de detecção exige uma decisão usando um certo critério para julgar se o
sinal realmente ocorreu ou não durante a observação [1].
O desempenho de um sistema de detecção pode ser descrito através das curvas
características de operação (ROC – Receiver Operating Characteristic) que são as
curvas da probabilidade de detecção (PD) versus a probabilidade de falso alarme (PFa)
para cada relação sinal-ruído. Atualmente, as soluções analíticas para se obter o
desempenho de um sistema de detecção estão cada vez mais difíceis de serem calculadas
devido à crescente complexidade e não-linearidade dos sistemas envolvidos. Um método
frequentemente utilizado para obter o desempenho de um detector é a simulação de
Monte Carlo (MC). Este método produz estimativas acuradas desde que o número de
ensaios para simulação seja grande (≥1/PFa).
Como apontado por Urick [2], o desempenho de um sonar varia muito devido as
táticas, estratégias e pelos fatores ambientais no momento da detecção. Este trabalho
Pesquisa Naval Nº 15, Setembro de 2002
69
tem como objetivo a busca por um método alternativo para o cálculo rápido e eficiente
do desempenho do detector sonar para as condições encontradas.
Um algoritmo de detecção sonar foi desenvolvido de acordo com os manuais
de um sonar real. Este algoritmo considera todo o processamento que influencie na
decisão final. Para calcular o desempenho de um algoritmo de detecção sonar deve-se
testá-lo com uma variedade de ruídos acústicos submarinos. A simulação de um
detector fornece a oportunidade de examinar o desempenho do algoritmo para várias
configurações do ambiente de operação real. A carga computacional gasta com a
investigação das várias distribuições de entrada neste detector é grande devido ao
processamento envolvido.
Este trabalho apresenta a aplicação das técnicas de kernel na redução da carga
computacional necessária para investigar o comportamento do desempenho de um
sistema de detecção nas mudanças de distribuições do sinal e do ruído como das
bandas de frequência da filtragem na entrada do sistema. As técnicas kernel de
suavização de curvas foram utilizadas nas distribuições dos dados de saída do detector
sonar para obter seu desempenho. Os resultados obtidos com a técnica de Kernel são
comparados com os obtidos com a técnica MC. A estrutura do trabalho está dividido
como se segue: a Seção 2 apresenta os sinais acústicos submarinos. A Seção 3
descreve a metodologia de kernel utilizando o procedimento bootstrap [3-5] para o
cálculo do parâmetro de suavização. A Seção 4 apresenta os conceitos básicos das
curvas ROC. A Seção 5 apresenta a aplicação do método de suavização de curvas no
problema da determinação do desempenho de um detector sonar e por último, a Seção
6 apresenta as conclusões.
Sinais Acústicos Submarinos
Em acústica submarina denominamos de sinal a onda de pressão sonora que
tem informações sobre o alvo que desejamos detectar, e de ruído a energia acústica
que chega ao transdutor sem informação de interesse. O sinal que chega a um sonar
pode ser um eco resultante de um sinal transmitido sobre o qual o operador do sistema
tem algum controle, ou ter sua origem em alguma fonte externa. No primeiro caso,
dizemos que o sonar é ativo, e no segundo que é passivo. A Figura 1 apresenta as
configurações de sonares ativos e passivos. Independentemente da fonte que gerou
os sinais que chegam aos receptores de um sonar, os mesmos são misturados com o
ruído de fundo ou com a reverberação existente na área de operação. O termo ruído
ambiente se refere ao ruído que permanece após todas as outras fontes sonoras
facilmente identificáveis terem sido eliminadas [1].
Por exemplo, a presença de vários navios aleatoriamente distribuídos na
superfície oceânica resulta em um componente do ruído ambiente descrito como tráfego
marítimo. Entretanto, o ruído produzido por um único navio próximo é facilmente
identificável e localizado, sendo então tratado como um sinal acústico ao invés de
parte do ruído ambiente.
70
Pesquisa Naval Nº 15, Setembro de 2002
Figura 1 – Sistemas de sonar: (a) ativo e (b) passivo.
A maioria dos algoritmos de processamento de sinais acústicos submarinos é
projetada para ser usada em ruído gaussiano estacionário. Na prática, nem sempre
estas suposições são válidas [7-8]. Na literatura, são apresentadas algumas modelagens
do ruído acústico submarino para várias regiões do planeta. Bouvet & Schwartz[9]
descrevem três modelos diferentes para a modelagem de ruído submarino. Estes modelos
são baseados em mistura de normais.
Densidade de Kernel
Sejam X1, X2 , ...,Xn observações independentes e identicamente distribuídas de
um a função de densidade de probabilidade ƒ. Considere a estimativa kernel desta
densidade da seguinte forma
f n ( x; h ) =
1 n  x − Xi 

∑ K
nh i =1  h 
(1)
onde K(x) é a uma determinada função kernel e h é a largura de banda que determina a
suavização da curva de densidade estimada. A função de kernel deve satisfazer
∫ K (x )dx = 1
e pode ser uma das seguintes funções listadas na Tabela 1. Silverman [6] apresenta
uma discussão para a escolha da kernel ideal, onde observa que o fator preponderante
Pesquisa Naval Nº 15, Setembro de 2002
71
é o esforço computacional exigido para cada uma delas, uma vez que o índice de
eficiência é praticamente o mesmo, como se pode constatar na tabela.
Tabela 1 – Funções Kernel e suas eficiências [6].
Kernel
Epanechnikov
Biquadrada
Triangular
Gaussiana
Uniforme
K(u)
0,75(1-u2) I(u≤1)
0,9375(1-u2)2 I(u≤1)
(1-|u|) I(u≤1)
(2π)-0,5exp(-0,5u2)
0,5 I(u≤1)
Eficiência
1
0.9939
0.9859
0.9512
0.9295
O valor de h, também chamado de parâmetro de suavização ou janela, é um
parâmetro crítico para se estimar uma densidade. Vários métodos têm surgido para
que esta escolha seja feita de forma automática [3-5]. O critério utilizado para a
obtenção deste parâmetro é utilizar uma medida de discrepância entre o estimador
da densidade, ƒ e a verdadeira densidade, ƒ. Existem várias medidas para calcular a
discrepância entre o parâmetro verdadeiro e o estimado. Uma medida que está
sendo utilizada é o erro quadrático integrado médio (MISE – mean integrated square
error),
2
^
^

EQIM ( f ) = E ∫  f ( x ) − f ( x ) dx


(2)
O valor ótimo de h é aquele que minimiza esta função. A idéia neste trabalho
é utilizar o bootstrap para estimar EQIM e minimizá-lo em relação a h [3-5]. Vale
ressaltar que o método bootstrap pode ser facilmente adaptado para outros critérios
como, por exemplo, o erro absoluto integrado médio. Taylor [4] e Faraway [5]
apontam o bootstrap como tendo o melhor desempenho em comparação a outros
métodos.
O algoritmo bootstrap para a estimativa do parâmetro de suavização é o
seguinte:
1 - Obter um valor inicial para h, aqui denominado por ho, e construir a
densidade
2 - Obter ε distribuída com densidade K(•).
3 - Adicionar a quantidade hoε para cada amostra Xj. Assim
fn (x; ho ) =
1
nho
 (x − X i ) 

h

∑ K 
X j → X j + hoε
*
*
(3)
72
Pesquisa Naval Nº 15, Setembro de 2002
4 - Construir
f *n ( x; ho ) =
1 B *
∑ fnj (x; h)
B j =1
(4 )
5 - Estimar
2
^
1 B  *

EQIM (h, ho ) = ∑ ∫  f nj ( x; h ) − f n ( x; ho ) dx
B j =1 

6 - Obter ho minimizando EQIM(h,ho).
Curva ROC
A detecção de um sinal na presença de ruído é um problema de decisão binária,
onde a hipótese Ho corresponde a ausência do sinal e a hipótese H1 corresponde a
presença do sinal. Ou seja, considerando x(t) uma sequência recebida, s(t) o sinal e v(t)
o ruído temos que:
Ho :
H1 :
x(t) = v(t)
x(t) = s(t) + v(t)
t=1,...,N
Após observada a amostra, uma decisão deve ser tomada pela hipótese H0 ou
H1. A Tabela 2 mostra os quatro resultados possíveis e a Figura 2 apresenta as funções
de densidades de probabilidades (fdp) quando o sinal está ausente, po(x), e quando o
sinal está presente, p1(x). Se o valor do sinal ultrapassar o limiar, o operador declara que
o alvo está ausente. As probabilidades de falso alarme, PFa, e de detecção, PD, são
parâmetros que dão a idéia do desempenho do detector. O critério utilizado na área de
sonar e radar é o critério de Neyman-Pearson. Este critério maximiza a probabilidade de
detecção para uma dada probabilidade de falso alarme. A visualização do desempenho
de um detector pode ser obtida através da curva ROC (Receiver Operating Characteristic),
que é o gráfico da PD versus a PFa para vários limiares e para uma determinada relação
sinal-ruído (snr).
Tabela 2
NA ENTRADA
SINAL PRESENTE
SINAL AUSENTE
-
Matriz de decisão binária
DECISÃO
SINAL PRESENTE
SINAL AUSENTE
DETECÇÃO PD
1 - PD
FALSO ALARME PFa
1 - PFa
Pesquisa Naval Nº 15, Setembro de 2002
73
H 1 é verdadeira
(sinal presente)
H o é verdadeira
(sinal ausente)
p o (x )
p 1 (x )
p o (x)
p 1 (x)
PD
PFA
τ ≡ limiar
(a)
x
operador declara H1
verdadeira
τ ≡ limiar
(b)
x
operador declara H1
verdadeira
Fig. 2 – Processo de decisão na detecção sonar.
As curvas ROC suavizadas são obtidas com a técnica vista na seção 3.
Primeiramente, obtém-se as amostras referentes a cada hipótese. Após a suavização
dos histogramas das amostras, as versões suavizadas de PFa e PD, são obtidas pela
integração das densidades correspondente do ruído (po(x)) e do sinal+ruído (p1(x)).
Considere o exemplo em que a hipótese nula (apenas ruído) tem uma distribuição
normal com média 0 e variância 1 e que a hipótese alternativa (sinal misturado ao
ruído) tem uma distribuição normal com média 3 e variância 1.
A Figura 3(a) apresenta as curvas ROC para o exemplo acima com o mesmo
valor do parâmetro de suavização e variando a função kernel, a Figura 3(b) apresenta
as curvas ROC de cinco amostras com tamanho 50 com uma mesma função kernel, e a
Figura 3(c) apresenta as curvas ROC de cinco amostras com tamanho 200 com a mesma
função kernel.
Fig. 3 - As curvas ROC em (a) representam a mesma amostra utilizando as cinco funções
Kernel, (b) representam cinco amostras de tamanho 50 com a mesma função Kernel e (c) representam
cinco amostras de tamanho 200 com a mesma função Kernel.
74
Pesquisa Naval Nº 15, Setembro de 2002
Aplicação
Nesta seção apresentamos a aplicação do método kernel de suavização de
curvas na estimativa do desempenho de um detector sonar. A Figura 4 apresenta o
diagrama em blocos do detector sonar [1]. Este detector consiste de um filtro que
engloba todas as filtragens antes do detector de energia, seguido por um integrador e,
por último, por um comparador. O algoritmo desenvolvido foi obtido com informações
colhidas nos manuais de um detector sonar real. Este simulador de um detector sonar
permite a escolha dos seguintes parâmetros: (a) estado do mar; (b) tráfego marítimo;
(c) banda de frequência; (d) relação sinal+ruído; (e) tipo de detector.
Fig. 4 – Diagrama em blocos do algoritmo de detecção de um sonar passivo.
O desempenho do detector é calculado inserindo na entrada do detector
ruído e sinal+ruído simulados com determinadas distribuições e parâmetros desejados.
As distribuições empíricas do ruído e do sinal+ruído obtidas na saída do detector são
suavizadas. O limiar correspondente ao par (PFa,PD) desejado pode ser obtido destas
curvas suavizadas. O erro quadrático médio normalizado é uma medida de acurácia do
estimador que pode ser escrito da seguinte forma,
∧


θ
−
θ


EQMn = ∑  ∧ 
 θ 


2
(5)
A Tabela 3 apresenta a média, o desvio padrão, o viés e a raiz quadrada do
erro quadrático médio normalizado dos limiares de um processo de entrada gerado com
distribuição normal para estado do mar 6, tráfego marítimo alto, e banda de frequência
modo 1 (correspondendo a uma banda de 9kHz) e uma relação sinal-ruído de -9 dB
depois da filtragem h1. A densidade de kernel utilizada foi a uniforme e o número de
amostras bootstrap foi 100. Observa-se que os valores da raiz quadrada do erro
quadrático médio normalizado diminui com o aumento do tamanho amostral e que
aumenta quando a PFa diminui.
Pesquisa Naval Nº 15, Setembro de 2002
75
Tabela 3 – Média, Desvio Padrão, Viés e Raiz Quadrada do erro quadrático médio
normalizado dos limiares para processos de entrada normais para ruído e sinal+ruído
com estado do mar 6, tráfego marítimo 2, banda de frequência modo 1 (correspondendo
a 9kHz) e relação sinal ruído de –9dB para vários tamanhos amostrais (N=100, 200, 500
e 1000) com tamanho bootstrap 100 e função kernel a uniforme no detector sonar.
Limiar
PFa
N=100
Média
DP
Viés
Rqrmsn
N=200
Média
DP
Viés
Rqrmsn
N=500
Média
DP
Viés
Rqrmsn
N=1000
Média
DP
Viés
Rqrmsn
25,619
10/Jan
25,903
10/Fev
26,2
10/Mar
26,451
10/Abr
25,602
0,097
0,022
0,019
25,948
0,206
-0,003
0,039
26,034
0,173
-0,196
0,05
26,038
0,17
-0,413
0,084
25,604
0,064
0,024
0,013
25,928
0,138
-0,023
0,026
26,104
0,126
-0,126
0,034
26,11
0,122
-0,341
0,068
25,608
0,039
-0,007
0,008
26,052
0,208
0,143
0,048
26,238
0,16
0,026
0,03
26,256
0,148
-0,205
0,047
25,612
0,026
-0,007
0,005
25,982
0,04
0,079
0,017
26,29
0,176
0,09
0,037
26,326
0,149
-0,125
0,036
A Tabela 4 apresenta a média, o desvio padrão, o viés e a raiz quadrada do erro
quadrático médio normalizado dos limiares de um processo de entrada gerado com
distribuição normal para o ruído com estado do mar 6, tráfego marítimo alto, e banda de
frequência modo 1 (correspondendo a uma banda de 9kHz) e uma relação sinal-ruído
de -9 dB depois da filtragem h-1. O sinal+ ruído foi gerado por uma normal misturada da
seguinte forma, 0.9N(0,0.3)+0.1N(0,15). A densidade de kernel utilizada foi a uniforme
e o número de amostras bootstrap foi 100. Neste caso, também, os valores da raiz
quadrada do erro quadrático médio diminuem quando o tamanho amostral aumenta e
aumenta quando a PFa diminui.
76
Pesquisa Naval Nº 15, Setembro de 2002
Tabela 4 – Média, Desvio Padrão, Viés e Raiz Quadrada do erro quadrático médio
normalizado dos limiares para processos de entrada normais para ruído e normal misturada
para sinal+ruído com estado do mar 6, tráfego marítimo 2, banda de frequência modo 1
(correspondendo a 9kHz) e relação sinal ruído de –9dB para vários tamanhos amostrais
(N=100, 200, 500 e 1000) com tamanho bootstrap 100 e função kernel a uniforme no
detector sonar.
N=100
Média
DP
Viés
Rqrmsn
N=200
Média
DP
Viés
Rqrmsn
N=500
Média
DP
Viés
Rqrmsn
N=1000
Média
DP
Viés
Rqrmsn
59,404
0,206
0,176
0,023
60,144
0,349
-0,148
0,031
60,322
0,309
-0,442
0,044
60,322
0,309
-0,933
0,08
59,402
0,109
0,174
0,017
60,26
0,435
-0,032
0,035
60,52
0,375
-0,244
0,036
60,53
0,365
-0,725
0,066
59,389
0,061
0,161
0,013
60,195
0,14
-0,097
0,012
60,69
0,342
-0,074
0,024
60,713
0,33
-0,542
0,045
59,4
0,035
0,172
0,009
60,206
0,107
-0,086
0,007
60,861
0,303
0,097
0,015
60,9
0,295
-0,355
0,022
A Figura 5 apresenta as curvas ROC obtidas pelo MC e a suavizada obtida pela
técnica de kernel para os sinais gerados pela normal.
Fig. 5 – Probabilidade de detecção versus probabilidade de falso alarme para sinais
normais inseridos na entrada do detector sonar utilizando Monte Carlo (contínua) e a densidade
de kernel (tracejada).
Pesquisa Naval Nº 15, Setembro de 2002
77
Conclusões
A técnica Kernel de suavização de curvas foi aplicada neste trabalho como uma
alternativa na obtenção das curvas ROC, mostrando a vantagem de se utilizar as amostras de saída do detector, reduzindo assim o custo computacional do método de Monte
Carlo, que realiza o cálculo dos dados do início ao fim do simulador. Outra vantagem é
a robustez, ou seja, a ausência de suposições de modelo paramétrico. Seu sucesso está
vinculado com ‘a determinação do parâmetro de suavização ótimo. Sua desvantagem
está nas extremidades da curva, já que não existe muita informação dos pontos extremos. Em resumo, o método abordado mostrou-se uma ferramenta alternativa viável para
a estimativa do desempenho de detectores sonar.
Referências
BURDIC, W., Underwater Acoustic System Analysis. Englewood Cliffs, NJ,
Prentice-Hall (1984).
URICK, R.J., Principles of Underwater Sound. McGraw-Hill, 1983.
SHAO, J. & TU, D. – The Jackknife and Bootstrap. Springer-Verlag New
York. (1995).
TAYLOR, C.C, “Bootstrap choice of the smoothing parameter in kernel density
estimation”, Biometrika 76 (4), 705-712 (1989).
FARAWAY, J.J. & JHUN, M., “Bootstrap choice of bandwidth for density
estimation”, Journal of the American Statistical Association 85, 11191122 (1990).
Silverman, B., Density Estimation for Statistics and Data Analysis. London:
Chapman&Hall (1986).
BROCKETT, P.., HINICH,G. E WILSON, G., “Non-Linear and Non-Gaussian
Ocean Noise”, Journal of American Statistical Association, v.82, pp.13861394, 1987.
WEBSTER, R., “Ambient Noisse Statistics”, IEEE Transactions on Signal
Processing, v.41, n.6, pp.2249-2253, 1993.
BOUVET, M. E SCWARTZ, S., “Comparison of Adaptive and Robust
Receivers for Signal Detection in Ambient Underwater Noise”, IEEE Trans.
On Axoustic, Speech and Signal Processing, v.37, n.5, pp.621-626, 1989.
MCDONOUGH, R.N. & WHALEN, A. D., Detection of Signal in Noise. New
York. Academic Press, Inc. (1995).
Centro de Análises de Sistemas Navais
AVALIAÇÃO OPERACIONAL
Atuando desde 1975, o Centro de Análises de Sistemas Navais (CASNAV) acumula
grande experiência na avaliação operacional de sistemas.
A Avaliação Operacional (AO) é um poderoso instrumento que, utilizando modernos
métodos científicos, permite à Marinha saber como empregar seus meios de maneira eficaz.
É através da AO que podemos conhecer as limitações e possibilidades dos modernos e
sofisticados equipamentos e sistemas que são empregados na Marinha. Após a determinação
dos parâmetros de eficiência de um equipamento ou sistema, os resultados obtidos passam a
ser utilizados para verificar o funcionamento deste no decorrer de sua vida útil.
O conhecimento desses valores permitirá saber se o referido equipamento ou sistema
está sofrendo alguma degradação, após contínua utilização, ou se está sendo empregado
aquém de suas possibilidades.
Trabalhos de maior vulto realizados:
-
Avaliação Operacional das Fragatas Classe “NITERÓI”;
Avaliação Operacional dos Submarinos Classe “TUPI”; e
Avaliação Operacional das Corvetas Classe “INHAUMA”.
Centro de Análises de Sistemas Navais
Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro
3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil
Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332
e-mail: [email protected]
VI
Capítulo
MODELAGEM NUMÉRICA HIDRODINÂMICA TRIDIMENSIONAL DA REGIÃO
COSTEIRA E ESTUARINA DE SÃO VICENTE E SANTOS (SP)
Joseph Harari
Instituto Oceanográfico da USP- [email protected]
Ricardo de Camargo
Instituto Astronômico, Geofísico e de Ciências Atmosféricas da USP
[email protected]
Luiz Bruner de Miranda
Instituto Oceanográfico da USP - [email protected]
Resumo
Foi implementado um modelo numérico hidrodinâmico tridimensional para
a região costeira e estuarina de São Vicente e Santos (SP), para simulações da
circulação gerada por marés e ventos. Resultados do modelo foram comparados a
medições. O modelo permitiu inferir os sistemas de correntes na área costeira sob
diversas condições, tais como grandes elevações e rebaixamentos do nível médio do
mar. A composição das correntes de maré e de deriva foi analisada, desde a região
ao largo (onde há grande influência dos ventos) até os canais interiores do sistema
estuarino (onde predominam as correntes de maré). A enorme intensificação das
correntes nas bocas dos canais estuarinos do Porto de Santos e de São Vicente foi
reproduzida, principalmente nos locais com seções transversais menores. A
modelagem implementada pode ser utilizada em várias aplicações de interesse, como
por exemplo navegação, operações de dragagem, obras de engenharia, derrames de
petróleo e dispersão de poluentes.
80
Pesquisa Naval Nº 15, Setembro de 2002
Abstract
A three-dimensional hydrodynamical numerical model of the coastal and
estuarine region of São Vicente and Santos (SP) was implemented, for simulations of
the circulation generated by tides and winds. The model results were compared
tomeasurements. The model allowed estimating the current systems in the coastal
area under several conditions, such as great increase and decrease of the mean sea
level. The composition of tidal and wind-generated currents was analyzed, since the
off shore region (with significant winds influence) until the inner channels of the
estuarine system (with prevailing tidal currents). The huge increase of the currents
at the mouths of the estuarine channels of the Port of Santos and São Vicente was
reproduced, especially where the transversal sections are smaller. The implemented
modeling may be used in several applications of interest, such as navigation, dredging
operations, coastal engineering, oil spills and pollutants dispersion.
1. Introdução
O presente trabalho apresenta a implantação de um modelo numérico
hidrodinâmico tri-dimensional da região costeira de São Vicente e Santos, no estado
de São Paulo, o qual foi utilizado para estudos da circulação marítima forçada por
marés e ventos. Este modelo constitui o estágio mais recente de vários estudos
numéricos com resolução progressivamente crescente, desde os de plataforma
continental com espaçamento horizontal em torno de 13 km (Harari & Camargo, 1994;
Camargo & Harari, 1994) até os de área costeira com resolução de 1 km (Harari &
Camargo, 1997, 1998), nos quais foram aninhadas grades com espaçamento típico de
75 m (Harari, Camargo & Cacciari, 1999, 2000; Harari & Gordon, 2001).
O modelo atual é baseado no Princeton Ocean Model (POM), o qual utiliza
Coordenada Vertical Sigma e Fechamento Turbulento de 2a. Ordem (Blumberg & Mellor,
1987; Mellor, 1998); seus resultados foram comparados a observações em duas
campanhas oceanográficas, com medições de maré na Estação de Alamoa, em fevereiro
de 1997, e medidas correntométricas no Canal de Piaçaguera (norte do canal do porto
de Santos), em junho e julho de 2001; esse local é denominado estação COSIPA. Para
as simulações numéricas foi delimitada a área mostrada na figura 1, onde foram
escolhidos 6 pontos de interesse para estudos específicos, cujas posições geográficas
são fornecidas na tabela 1. Dentre esses pontos, 4 correspondem a pontos ao longo do
canal do porto de Santos e 2 correspondem a pontos de verificação dos resultados da
modelagem numérica (Alamoa e Canal de Piaçaguera).
Neste trabalho foi estimada a importância relativa das circulações geradas por
efeitos de maré e de vento, desde a região ao largo até os canais interiores rasos do
Sistema Estuarino, no período de um mês (fevereiro de 1997), para diversas situações
transientes, envolvendo grandes elevações e rebaixamentos do nível médio do mar.
Pesquisa Naval Nº 15, Setembro de 2002
81
2. Metodologia
O modelo numérico implementado na área é baseado no Princeton Ocean Model
(POM), desenvolvido por Blumberg & Mellor (1987) e apresentado em detalhes por
Mellor (1998): é um modelo tridimensional, de equações primitivas, variante no tempo,
com superfície livre e coordenadas σ (sigma), cujas variáveis prognósticas são as três
componentes da velocidade, além da temperatura e da salinidade. Dessa forma, a
coordenada z é convertida para σ, sendo escalonada de acordo com a profundidade da
coluna d’água no local, segundo a relação σ= (z-η)/D, onde D é a profundidade local e
η é a elevação da superfície.
82
Pesquisa Naval Nº 15, Setembro de 2002
POSIÇÕES DOS LOCAIS
DE INTERESSE
ESTAÇÃO COSIPA
-23.90
Alamoa
PTO 4
-23.95
SANTOS
S. VICENTE
GUARUJÁ
-24.00
PTO 3
PRAIA GRANDE
-24.05
PTO 2
PTO 1
S
-46.45
-46.40
-46.35
-46.30
-46.25
W
-46.20
Fig. 1 – Área geográfica de estudo da circulação oceânica através de modelo numérico e posições
dos locais de interesse para o estudo hidrodinâmico realizado.
Tabela 1 – Posições geográficas dos 6 pontos de interesse para estudos
específicos da circulação marítima.
Pto Latitude S
Longitude W
Local (e profundidade)
1
24° 03,822’
046° 21,175’
Plataforma interna (16 m)
2
24° 00,644’
046° 20,444’
Baía de Santos (13 m)
3
23° 59,273’
046° 17,541’
Início do Porto de Santos (12 m)
4
23° 56,370’
046° 18,573’
Vicente de Carvalho (12 m)
5*
23° 55,200’
046° 22,600’
Alamoa (2 m)
6*
23o 53,990’
046o 22,640’
Estação COSIPA (9 m)
* Pontos com medições comparadas aos resultados do modelo
Pesquisa Naval Nº 15, Setembro de 2002
83
O POM inclui um submodelo de fechamento turbulento de 2a. ordem, para o
cálculo dos coeficientes de mistura turbulenta vertical; no fechamento adotado se tem
a inclusão de duas equações, para a energia cinética turbulenta e para a escala do
comprimento de turbulência, cujos resultados são subseqüentemente utilizados no
cálculo dos coeficientes cinemáticos verticais de viscosidade e de difusão turbulenta
de calor e sal, com o auxílio de várias relações empíricas, que utilizam constantes definidas
por experimentos de laboratório e observações de campo (Mellor & Yamada, 1974,
1982).
No POM, a discretização das equações hidrodinâmicas no tempo e no espaço
horizontal é realizada através de um esquema explícito de 2a. ordem centrado no tempo
e no espaço (esquema de leapfrog); para a discretização das equações no espaço
vertical, se utiliza um esquema implícito, o método da inversão de linha (Kowalik &
Murty, 1993).
A grade utilizada na modelagem é cartesiana (retangular), mas com espaçamento
horizontal variável – tendo maior densidade de pontos na área dos canais estuarinos do
Porto de Santos e de São Vicente. A grade possui 220 colunas e 190 linhas, sendo
inclinada cerca de 28° em relação ao eixo EW; ela possui espaçamento mínimo de 96 m
e máximo de 320 m. Na vertical, foram utilizados 11 níveis sigma, com maior densidade
próximo à superfície e ao fundo. Ao final dos cálculos do modelo, os resultados foram
interpolados para uma grade regular EW-NS, com 436 x 334 pontos e 74 m de resolução
horizontal, cujos resultados de velocidade foram plotados à taxa de um vetor a cada 25
calculados (ver Fig. 3). Nas simulações, foram considerados passos de tempo de 30
segundos (para os modos internos) e 2 segundos (para o externo). Campos de temperatura
e salinidade foram mantidos uniformes e constantes no decorrer de todo o período de
integração do modelo.
Em relação às condições de contorno para os processamentos, as oscilações
de maré foram determinadas a partir do estudo costeiro de Harari & Camargo (1998),
onde foram obtidos mapas cotidais de amplitude e fase das principais componente de
maré com resolução de 1 Km; essas constantes harmônicas foram linearmente
interpoladas, para a obtenção dos correspondentes valores nos contornos abertos da
grade utilizada neste estudo. Oscilações do nível médio do mar foram também
especificadas nos contornos da grade, a partir de medições do nível do mar em diversas
estações maregráficas costeiras permanentes na região sudeste do Brasil.
Finalmente, os valores de vento na superfície em fevereiro de 1997 utilizados
nos processamentos foram obtidos nos arquivos do NCEP – National Center for
Environmental Prediction do NCAR – National Center for Atmospheric Research, da
NOAA – National Oceanic and Atmospheric Administration (EUA), disponíveis no
site http://www.cdc.noaa.gov/cdc/data.ncep.reanalysis.html. Os dados de vento na
superfície do NCEP / NCAR são calculados (e re-analisados) por modelo atmosférico
global a cada 6 horas, com resolução de 2,5 graus x 2,5 graus; para o presente estudo,
esses dados foram interpolados no tempo (a cada hora) e no espaço (para os pontos da
grade marítima).
84
Pesquisa Naval Nº 15, Setembro de 2002
3. Resultados e Discussão
As variações do nível do mar podem ser consideradas como a soma da maré e
do nível médio do mar, sendo o primeiro representativo dos efeitos astronômicos e o
segundo dos efeitos meteorológicos (remotos) na circulação. A Figura 2 mostra a variação
temporal do nível do mar observado em Alamoa e sua decomposição, nas séries de maré
e do nível médio.
Fig. 2 – Valores do nível do mar observado em fevereiro de 1997 em Santos (superior) e
sua decomposição, nas componentes de maré (meio) e meteorológica (inferior).
A análise da evolução do nível médio do mar demonstra que entre os dias 8 e
10 de fevereiro ocorreu uma acentuada queda deste nível e que entre os dias 19 e 22
houve uma grande elevação do mesmo. Esses efeitos são associados a eventos
meteorológicos extremos, os quais possuem importantes conseqüências nos sistemas
de correntes marítimas.
A Figura 3 mostra a evolução das correntes de superfície no dia 21 de fevereiro
na região estudada. As correntes apresentam grande intensificação na área dos canais
em relação à região costeira adjacente, especialmente nas bocas dos canais do Porto de
Pesquisa Naval Nº 15, Setembro de 2002
85
Santos e de São Vicente. Outra feição notável é o fato da enchente ser bem mais intensa
que a vazante, obviamente em função do particular evento meteorológico predominante
nesse dia e da correspondente elevação do nível médio do mar.
A seguir, são apresentados na Figura 4 os diagramas com as rosas das correntes
e os correspondentes histogramas angulares, nos pontos de interesse 1 a 4 e na Estação
COSIPA, para o mês de fevereiro, na superfície e a 5 m de profundidade. Esses gráficos
demonstram as intensidades e direções predominantes das correntes e a grande
influência da geometria da costa no direcionamento das mesmas. Em particular, os
histogramas angulares indicam o número de ocorrências das correntes em cada direção.
É interessante notar que na área ao largo, na entrada da Baía de Santos, as correntes são
basicamente na direção NW-SE, por influência das marés; entretanto, na superfície há
um grande número de ocorrências de correntes para o Sul, devido a efeitos
meteorológicos locais. De fato, abaixo da superfície a simetria entre enchentes e vazantes
é marcante (por influência das marés), enquanto que na superfície as correntes para o
Sul são muito freqüentes. Este comportamento pode ser explicado pelas características
dos sistemas meteorológicos presentes na área de estudo: em geral, predominam os
ventos de NE, associados à alta subtropical do Atlântico Sul, fazendo com que haja um
grande número de ocorrências de ventos (e correntes) para S e SW; entretanto, a
entrada de sistemas meteorológicos frontais vindos do Sul origina ventos e correntes
para NE; esses eventos são muito intensos (como apresentado na Figura 3), porém são
esporádicos, de modo que em termos de histogramas angulares de correntes, o número
de ocorrências para o Sul (e Sudoeste) é bem maior.
-23.90
-23.95
-24.00
-24.05
-46.45
-46.40
-46.35
-46.30
-46.25
-46.20
86
Pesquisa Naval Nº 15, Setembro de 2002
FORÇANTES: MARÉ, VENTO
E NÍVEL MÉDIO DO MAR
21/FEV/1997
04:00 GMT
-23.90
50 cm/s
-23.95
SANTOS
S. VICENTE
GUARUJÁ
-24.00
PRAIA GRANDE
-24.05
-46.45
-46.40
-46.35
-46.25
-46.20
FORÇANTES: MARÉ, VENTO
E NÍVEL MÉDIO DO MAR
21/FEV/1997
06:00 GMT
-23.90
-46.30
50 cm/s
-23.95
SANTOS
S. VICENTE
GUARUJÁ
-24.00
PRAIA GRANDE
-24.05
-46.45
-46.40
-46.35
-46.30
-46.25
-46.20
Pesquisa Naval Nº 15, Setembro de 2002
FORÇANTES: MARÉ, VENTO
E NÍVEL MÉDIO DO MAR
21/FEV/1997
08:00 GMT
-23.90
87
50 cm/s
-23.95
SANTOS
S. VICENTE
GUARUJÁ
-24.00
PRAIA GRANDE
-24.05
-46.45
-46.40
-46.35
-46.25
-46.20
FORÇANTES: MARÉ, VENTO
E NÍVEL MÉDIO DO MAR
21/FEV/1997
10:00 GMT
-23.90
-46.30
50 cm/s
-23.95
SANTOS
S. VICENTE
GUARUJÁ
-24.00
PRAIA GRANDE
-24.05
-46.45
-46.40
-46.35
-46.30
-46.25
-46.20
Fig. 3 – Evolução das correntes de superfície na área costeira de Santos, no dia 21 de fevereiro
de 1997, na ocorrência de forte ressaca que provocou grande elevação do nível médio do mar
(mapas referentes a 02:00, 04:00, 06:00, 08:00 e 10:00 horas GMT).
88
Pesquisa Naval Nº 15, Setembro de 2002
A Figura 4 demonstra que, percorrendo os pontos de interesse, à medida que
há uma maior aproximação do continente as correntes tendem a ficam bem mais alinhadas
com os contornos da costa, fato bastante notável a partir do Ponto 2 (quando a orientação
preferencial das correntes é no sentido N-S), para o Ponto 3, no início do canal do Porto
(quando as correntes são basicamente no sentido NE-SW), e assim sucessivamente.
Também à medida que se adentra o canal a simetria das correntes enchentes e vazantes
aumenta, inclusive na superfície, embora ainda ocorra um número um pouco maior de
correntes vazantes por influências meteorológicas.
Outro ponto de interesse nos sistemas de correntes calculados se encontra na
diminuição das intensidades com a profundidade; quanto à distribuição horizontal, há
um aumento das velocidades na direção dos canais interiores, por efeito de continuidade,
atingindo o máximo no Ponto 3, onde se tem intensidades maiores que 100 cm/s tanto
na superfície como a 5 m de profundidade; contribuindo para isso, a largura do canal do
Porto, neste local, é relativamente menor. Nos canais interiores a fricção no fundo
passa a atuar de forma muito efetiva, passando a atenuar as correntes; ainda sim,
intensas correntes no canal do Porto são encontradas até o Ponto 4, com valores acima
de 50 cm/s; já na Estação COSIPA, as intensidades são mais reduzidas, com valores
máximos em torno de 20 cm/s (Fig. 4).
Fig. 4 – Rosas das correntes e histogramas angulares dos pontos 1 a 4 e na Estação
COSIPA, para a superfície e a 5 m de profundidade, considerando os cálculos do modelo para o mês
de fevereiro de 1997.
Pesquisa Naval Nº 15, Setembro de 2002
89
90
Pesquisa Naval Nº 15, Setembro de 2002
Pesquisa Naval Nº 15, Setembro de 2002
91
O contraste no comportamento entre a área costeira mais externa e a região
estuarina interna é também notável nas séries temporais de correntes na superfície nos
Pontos 1 e 3, apresentadas na Figura 5. Nesta figura se encontram as variações no
tempo das intensidades das correntes ao longo do mês de fevereiro de 1997, bem como
as correspondentes variações das componentes EW e NS. As assimetrias no Ponto 1,
devidas a influências meteorológicas, são muito evidentes, enquanto que no Ponto 3 a
“pulsação” das correntes de maré é notável. Evidentemente, não se pode afirmar que os
efeitos meteorológicos inexistem no Ponto 3 ou ao longo do canal; certamente eles
atuam nas correntes, como evidenciado no Ponto 4; entretanto, a intensificação das
correntes de maré no canal do Porto é tão grande, que as feições das séries temporais
passam a ter características fortemente simétricas, principalmente no Ponto 3.
Fig. 5 – Séries temporais de correntes na superfície nos Pontos 1 e 3, considerando as
intensidades (superior) e as componentes EW (meio) e NS (inferior).
A seguir, serão apresentadas comparações de resultados do modelo com
observações costeiras. A figura 6 mostra as variações temporais do nível do mar
observadas em Alamoa e os correspondentes cálculos do modelo, bem como as
diferenças entre esses valores; a estatística da diferença indica que a mesma possui
média de 0,62 cm e desvio padrão de 10,11 cm, o que confirma a boa calibração do
modelo implementado.
92
Pesquisa Naval Nº 15, Setembro de 2002
Fig. 6 – Valores do nível da superfície do mar considerando resultados do modelo
(superior), observações (meio) e as correspondentes diferenças (inferior).
Pesquisa Naval Nº 15, Setembro de 2002
93
Quanto a observações correntométricas, nas medições realizadas na “Estação
COSIPA” o vetor velocidade foi decomposto em componentes longitudinal ao canal
(n-s, positiva para o Norte) e transversal (E-W, positiva para Leste), sendo a primeira
a mais significativa para caracterização da circulação estuarina. As séries temporais
dessas componentes, na superfície e a 5 m de profundidade, são apresentadas na
figura 7; a figura 8 apresenta as correspondentes rosas das correntes.
Na Figura 7 observa-se uma assimetria das correntes de superfície entre os
movimentos de enchente (>0) e vazante (<0), com a ocorrência de movimentos residuais
para o sul, provavelmente gerados pela descarga fluvial na cabeceira do sistema
estuarino. A influência cíclica das correntes de maré domina os movimentos, e as
intensidades dos extremos de vazante e enchente variaram entre -60,0 e 40,0 cm s-1,
respectivamente. A menor intensidade dos movimentos transversais também é
observada nessa figura.
A predominância dos movimentos longitudinais, forçados pela maré, pode ser
constatada também na rosa de correntes, onde foram representados todos os vetores
velocidade observados na superfície (Figura 8). O diagrama com os deslocamentos
longitudinais dos elementos de volume passando pela estação mostrou, para a superfície,
deslocamentos para sul gerados pelas correntes residuais, atingindo uma distância de
1,25 km.
Quanto às correntes à meia água (5 m de profundidade), observam-se
praticamente as mesmas características descritas anteriormente, apenas com um ligeiro
decréscimo da intensidade dos movimentos e uma pequena mudança da sua orientação.
O movimento residual apresentou um deslocamento longitudinal (0,2 km) bem menor do
que na superfície, comparável ao deslocamento residual transversal, que foi cerca de –
0,3 km.
94
Pesquisa Naval Nº 15, Setembro de 2002
Fig. 7 – Séries temporais das componentes NS e EW da corrente na Estação COSIPA,
medidas a 1 e 5 m, de 23/06 a 11/07/2001.
Pesquisa Naval Nº 15, Setembro de 2002
95
Fig. 8 – Rosas das correntes na Estação COSIPA, medidas a 1 e 5 m, de 23/06 a 11/07/
2001 (intensidades em cm s -1).
1 m de profundidade
5 m de profundidade
Finalizando o estudo hidrodinâmico realizado com o modelo numérico, a Figura
4 pode ser comparada com as Figuras 8 e 10, com as rosas das correntes e os histogramas
angulares na Estação COSIPA resultantes do modelo (para fevereiro de 1997) e de
medições de correntes (em junho / julho de 2001). Embora as rosas das correntes medidas
e calculadas não sejam simultâneas, há uma boa concordância, na intensidade e
principalmente na direção (com exceção de algumas intensidades extremas medidas,
que não foram reproduzidas nas simulações do modelo). É necessário levar em conta
96
Pesquisa Naval Nº 15, Setembro de 2002
que o modelo considerou apenas a circulação barotrópica na região de estudo, e não
levou em conta a descarga fluvial. Dessa forma, a predominância das correntes de
superfície para o Sul na Estação COSIPA pode ser atribuída tanto à contribuição de rios
como também aos ventos predominantes; esse ponto poderá ser esclarecido nas próximas
versões da modelagem, quando efeitos baroclínicos devidos às variações de temperatura
e salinidade deverão ser incluídos.
4. Conclusões
A circulação de maré na região costeira foi estudada por Harari & Camargo
(1998), com modelo hidrodinâmico de resolução horizontal igual a 1 Km, onde foram
obtidas as distribuições das elipses de correntes na superfície; as elipses das
componentes de maré M2 e S2, que são as predominantes na área, tem orientação NWSE ao largo e nítido alinhamento com os contornos costeiros nas regiões interiores
rasas. Essas características das correntes de maré foram reproduzidas no estudo ora
desenvolvido, com um modelo para a área costeira de resolução horizontal muito mais
alta, da ordem de 100 m.
Evidentemente, o estudo atual proporcionou um detalhamento bem maior dos
sistemas de correntes, com ênfase nos pontos ao longo do canal de acesso ao Porto de
Santos. Outros aspectos de interesse nas simulações se encontram na inclusão de
efeitos meteorológicos e na integração do modelo por um período de tempo relativamente
longo (um mês completo – fevereiro de 1997). Esses aspectos permitiram acompanhar
as condições hidrodinâmicas na região segundo as mais diversas situações forçantes
(como, por exemplo, grandes elevações e rebaixamentos do nível médio do mar); além
disso, a disponibilidade de dados oceanográficos (em Alamoa e na Estação COSIPA)
possibilitou a comparação de resultados do modelo com observações, de modo a garantir
a representatividade das simulações numéricas.
As principais conclusões advindas deste trabalho são referentes à composição
dos efeitos de maré e de vento na área costeira modelada: i) as marés ao largo são
basicamente na direção NW-SE e a influência dos ventos é maior, especialmente na
superfície, com os ventos predominantes de NE gerando uma certa persistência de
correntes para S e SW; ii) à medida que há uma aproximação com o continente, há um
alinhamento das correntes com os contornos costeiros e uma enorme intensificação
das mesmas, especialmente nas bocas dos canais do Porto de Santos e de São Vicente,
por efeito de continuidade; iii) nesses canais, onde as áreas das secções transversais
são menores, ocorrem maiores intensificações das correntes; iv) nos canais ocorre
também uma predominância da circulação de maré em relação à gerada pelo vento, em
função da menor “pista” de vento; v) os movimentos diminuem de intensidade ao se
propagarem canal adentro, devido ao atrito no fundo.
Como consideração final, os estudos hidrodinâmicos aqui apresentados
demonstram o enorme potencial da utilização de previsões meteorológicas e
hidrodinâmicas em áreas costeiras, em diversas aplicações práticas, como por exemplo
no apoio à segurança de navegação, no auxílio a operações de dragagem, como subsídio
a obras de engenharia e na ocorrência de acidentes com derrames de poluentes no mar.
Pesquisa Naval Nº 15, Setembro de 2002
97
5.
BLUMBERG, A. F. & G. L. MELLOR – 1987 – “A description of a three dimensional
coastal ocean circulation model”. In: N. S. Heaps (Ed.), Coastal and Estuarine
Sciences 4: Three-dimensional Coastal Ocean Models - American Geophysical
Union, pp. 1-16.
CAMARGO, R. & HARARI, J. - 1994 - “Modelagem numérica de ressacas na
plataforma sudeste do Brasil a partir de cartas sinóticas de pressão atmosférica
na superfície” - Boletim do Instituto Oceanográfico da USP, n° 42 (1), p. 19 - 34.
HARARI,
J.
&
CAMARGO,
R.
1994
componentes de maré na plataforma sudeste brasileira através de modelo numérico
hidrodinâmico” - Boletim do Instituto Oceanográfico da USP, n° 42 (1), p. 35 54.
HARARI,
J.
&
CAMARGO,
R.
1997
costeira de Santos (SP) com modelo numérico hidrodinâmico” - Pesquisa Naval Suplemento Especial da Revista Marítima Brasileira, n° 10, p. 173 - 188.
HARARI, J. & CAMARGO, R. - 1998 - “Modelagem numérica da região costeira de
Santos (SP): circulação de maré” - Revista Brasileira de Oceanografia, vol. 46 (2),
p. 135 - 156.
HARARI, J. & CAMARGO, R. & CACCIARI, P. L. - 1999 - “Implantação de um
sistema de previsão de marés e de correntes de maré na Baixada Santista através
de modelo numérico tridimensional” - Relatório Técnico do Instituto
Oceanográfico da USP, n° 45, 21 p.
HARARI, J. & CAMARGO, R. & CACCIARI, P. L. - 2000 - “Resultados da
modelagem numérica hidrodinâmica em simulações tridimensionais das correntes
de maré na Baixada Santista” - Revista Brasileira de Recursos Hídricos, vol. 5, n°
2, p. 71 – 87.
HARARI, J. & GORDON, M. - 2001 - “Simulações numéricas da dispersão de
substâncias no Porto e Baía de Santos, sob a ação de marés e ventos” - Revista
Brasileira de Recursos Hídricos, vol. 6, n° 4, p. 115 – 131.
KOWALICK, Z. & MURTY, T. S. – 1993 – “Numerical modeling of ocean dynamics”
- Advanced Series on Ocean Engineering, Singapore, World Scientific, Vol.
5,
p.
MELLOR, G. L. & YAMADA, T. – 1974 – “A hierarchy of turbulence closure
models for planetary boundary layers” - Journal of Atmospheric Sciences, vol.
31, p. 1791 - 1806.
MELLOR, G. L. & YAMADA, T. – 1982 – “Development of a turbulence closure
model
for
geophysical
fluid
problems”
vol. 20, p. 851 - 875.
MELLOR, G. L. – 1998 – “User’s Guide for a three-dimensional, primitive equation,
numerical ocean model” - Princeton University, Internal Report, 40 p.
AGRADECIMENTOS
Os autores agradecem o apoio recebido da Fundação de Estudos e Pesquisas Aquáticas
(FUNDESPA), pela cessão de dados, da ASATM-Brasil, pela preparação da grade do modelo e
ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), pela outorga de
bolsas de estudo.
-
-
“Simulação
“Simulações
481
Review
of
G
A EVOLUÇÃO QUE CHEGA PELO MAR
A EMGEPRON está pronta a atender às necessidades de produtos
e serviços relativos à sua Marinha de Guerra.
Construção, Modernização e Reparo de Navios de Guerra; Sistema de Armas;
Treinamento Básico e Operacional; Apoio Logístico Integrado;
Estudo de Viabilidade de Projetos Navais; Integração de Sistemas.
Produtos Principais:
Corvetas; Submarinos; Navios-Escola; Navios-Hospital;
Navios-Patrulha; Lanchas-Patrulha; Navios-Patrulha Fluvial;
Munição Naval; Minas de Influência e de Contato; Sistema de Controle Tático;
Sistema de Guerra Eletrônica; Jogos de Guerra; Sistemas de Simulação e Treinamento.
EMGEPRON isreadytomeetyourNavyneedsconcerning productsandservices.
Ship Building,ModernizationandRefitting;WeaponSystem;
BasicandOperationalTraining;IntegratedLogistic Support;
Feasibility StudiesofNavalProjects;System Integration.
Main Products:
Corvettes; Submarines; Training Ships; Hospital Ships; Patrol Ships;
Patrol Crafts; River Patrol Ships; Naval Ammunition;
Moored and Influence Mines; Tactical Control System;
Electronic War Games; Training and Simulation System.
Arsenal de Marinha do Rio de Janeiro – Edifício, 08 / 3º andar – Ilha das Cobras
Rio de Janeiro, RJ – Brasil – CEP.: 20091-100
Tels.: 55 (21) 2253-4090 / 2253-6669 / 2870-6855 FAX: 55 (21) 2233-5142
E-mail: [email protected]
Site: www.emgepron.mil.br ou www.emgepron.mar.mil.br
VII
Capítulo
PREVISÃO DE ENERGIA ELÉTRICA USANDO
REDES NEURAIS NEBULOSAS
Maria Augusta Soares Machado, DSc.
[email protected]
IBMECRJ
Reinaldo Castro Souza, PhD.
[email protected]
DEE-PUC-RJ
André Machado Caldeira
Escola Nacional de Ciências Estatísticas
V Alte Mário Jorge Ferreira Braga, DSc.
[email protected]
Secretaria-Executiva do Conselho de Ciência e Tecnologia da Marinha - SECONCITEM
Resumo
Atualmente a integração de redes neurais com técnicas da Matemática
Nebulosa (Fuzzy Sets) tem sido usada para fazer previsões. A técnica aqui utilizada
é a ANFIS (Adaptive Neuro - Fuzzy Inference System ). Usa-se uma rede do tipo ‘backpropagation’, onde os dados são ‘fuzificados’ em uma camada intermediária e na
camada de saída tem-se os dados numéricos.
Para que a previsão seja feita utilizando-se técnicas matemáticas adequadas,
é fundamental a coleta de dados históricos. Foram utilizados dados referentes a
energia elétrica da Light.
100
Pesquisa Naval Nº 15, Setembro de 2002
Abstract
This paper presents an Adaptative Neuro-Fuzzy Inference System to forecast
energy. It is used a backpropagation neural network which inputs are fuzzified in an
intermediate layer and defuzzified in the output layer to obtain exact results. Data
used to forecast was obtained from Light database.
1. Conceitos Básicos
Recentemente, a integração de redes neurais com técnicas da matemática (Fuzzy
Sets) tem sido usada para fazer previsões, neste trabalho esta metodologia é usada para
fazer previsão um passo à frente.
Um conjunto clássico é um conjunto com um valor exato. Por exemplo, um
conjunto clássico A, de números reais maiores que 6, pode ser expresso por:
A = {x | x > 6}
Está claro que se x é maior que 6, ‘x’ pertence a ‘A’, em qualquer outro caso, ‘x’
não pertence a ‘A’.
Esses conjuntos não representam os conceitos e pensamentos humanos, que
tendem a ser abstratos e imprecisos.
Um Conjunto nebuloso é um conjunto sem valor exato, ou seja, a transição de
‘pertencer’ ou ‘não pertencer’ ao conjunto é gradativa. Esta transição gradual é
caracterizada pelas funções de pertinência.
Seja ‘X’ uma coleção de objetos ‘x’. Um conjunto nebuloso ‘A’ em ‘X’ é definido
como um conjunto de pares ordenados.
A = {(x,µA(x))x ∈ X}
onde:
µA(x) é denominada função de pertinência (µA(x)∈[0,1]).
X é o conjunto universo ou, em algumas literaturas, ‘universo de discurso’.
A notação utilizada para um conjunto nebuloso A pode ser:
A = ∑ x ∈X µ A ( x i ) x i
i
A = ∫ µ A( x) x
(Se X é discreto)
(Se X é contínuo)
X
A notação Σ ou ∫ indicam a união dos pares (x, µA(x)). A notação  não é uma
divisão mas sim uma separação.
1.1. Definições
Um conjunto nebuloso ‘A’ está contido no conjunto nebuloso ‘B’ (ou,
de modo equivalente, A ⊂ B ) se e somente se , µA(x) ≤ µB(x) para todo ‘x’, A
⊂ B ⇔ µA(x) ≤ µB(x) definição de subconjunto nebuloso
Pesquisa Naval Nº 15, Setembro de 2002
101
A união de dois conjuntos nebulosos ‘A’ e ‘B’ é um conjunto nebuloso ‘C’, C
= A ∪ B (ou C = A ‘or’ B), onde:
µC(x) = max (µA(x); µB(x)) = µA(x) v µB(x)
A interseção de dois conjuntos nebulosos ‘A’ e ‘B’ é um conjunto nebuloso
‘C’, C = A ∩ B (ou A ‘and’ B), onde:
µC(x) = min (µA(x), µB(x) = µA(x) ∧ µB(x)
O conjunto complementar do conjunto nebuloso ‘A’ é A (ou não A, -A),
onde:
µ A ( x) = 1 − µ A (x)
(para o caso de conjunto normalizado)
1.2. Alguns tipos de funções de pertinência
Triangular
0,
x − a

,
b − a
 c − x
triang ( x; a, b, c ) = 
,
c − b
0,



Trapezoidal
x≤a
a≤x≤b
b≤ x≤c
c≤x
a<b<c
102
Pesquisa Naval Nº 15, Setembro de 2002
Sino
bell ( x; a, b, c ) =
1
x−c
1+
a
2b
Gaussiana
gaussian( x; c, σ ) = e
1  x−c 
− 

2 σ 
2
Sigmoidal
sig( x; a, c ) =
1
1 + exp( − a( x − c ))
1.3 - Operador T-Norm (ou Triangular Norm)
µA
Ib
( x ) = T ( µ A ( x ), µ B ( x )) = min( µ A ( x ), µ B ( x ))
1.4 - Operador S-Norm (ou T-Conorm)
µA
Ub
( x ) = S ( µ A ( x ), µ B ( x )) = max ( µ A ( x ), µ B ( x ))
2. Modelos Nebulosos de Inferência
Em geral, os sistemas nebulosos usados para inferência, são baseados em
regras do tipo ‘se... ou senão’ seguindo as seguintes fases:
Fuzificação das entradas;
Elaboração das regras nebulosas;
Cálculo dos antecedentes cujos conectivos podem ser ‘and’ ou ‘or’;
Cálculo das implicações de cada uma das regras cujos operadores podem ser
‘mínimo’ ou ‘produto’;
Agregação dos consequentes, cujos operadores podem ser ‘máximo’ ou ‘soma
limitada’;
Defuzificação da saída;
Pesquisa Naval Nº 15, Setembro de 2002
103
Fuzificação das Entrada
Regra 1
Se x e A1
Definição das Regras Nebulosas
w1
y e B1
fuzzy
Agregação dos
Consequentes
Regra 2
x
Se x e A2
w2
y e B2
Defuzificação
y
(fuzzy ou não)
Regra m
Se x e Am
wm
y e Bm
Antecedentes e Consequentes
O processo de defuzificação é o modo que se obtém um resultado não fuzzy
para a saída do sistema de inferência. A defuzificação pode ser feita pelo método do
centróide, média dos máximos ou outros.
3. - Rede Neural Tipo Back-Propagation (Retro-Propagação)
É uma rede com várias camadas e funções de transferência não lineares. Os
vetores de entrada e saída são usados para treinar a rede até que ela possa aproximar
uma função, associar vetores de entrada e saída ou classificar vetores de entrada do
modo desejado pelo usuário.
104
Pesquisa Naval Nº 15, Setembro de 2002
onde :
-
p(1), ...p(R) são os vetores de entrada da rede.
W(1,R) são os pesos.
b é o bias, cujo peso é igual a 1.
A função de transferência, geralmente é a log-sigmoidal.
As redes ‘back-propagation’ podem ter 1 ou mais camadas intermediárias de
neurônios sigmóides, seguidos por uma camada de saída de neurônios lineares. As
redes multi-camadas com funções de transferência não lineares fazem a rede aprender
relações lineares e não lineares entre os vetores de entrada e saída.
Uma regra de treinamento é usada para ajustar os pesos e bias da rede a fim de
minimizar a soma do erro quadrático da rede. Isto é feito por alteração contínua dos
valores dos pesos e bias na direção decrescente em relação ao erro. Derivadas do erro
(chamados vetores delta) são calculadas para a camada de saída da rede e então são
‘back-propagadas’ pela rede até que os vetores delta sejam disponíveis para cada
camada intermediária. Os vetores delta para as camadas de saída são calculados a partir
dos vetores de erro da rede e = t − a . Os vetores delta para as camadas intermediárias
são calculados a partir do vetor delta da camada seguinte e dos pesos.
O treinamento continua até que um erro aceitável seja obtido ou um número de
ciclos, pré-estabelecido pelo usuário, ocorra. A taxa de aprendizado especifica o tamanho
das mudanças que são feitas nos pesos e bias. Pequenas taxas de aprendizado resultam
em tempo de treinamento grande.
Resumo do algoritmo:
a) Apresentar padrão de entrada.
b) Propagar o sinal para frente e calcular a saída resultante para todos os
neurônios de saída.
c) Retro-propagar o erro de saída.
d) Atualizar os pesos.
e) Apresentar novo padrão.
4. ANFIS - Adaptive Network-Based Fuzzy Inference System
a) Arquitetura da rede
Camada 1
Nesta camada são feitas as ‘fuzificações’ do vetor de entrada, ou seja, para
cada componente do vetor de entrada de dados, ajusta-se funções de pertinência, para
especificar o grau que cada entrada satisfaz aos quantificadores admitidos.
Pesquisa Naval Nº 15, Setembro de 2002
105
Define-se para cada entrada (X1, X2, X3), o universo dos valores observados
dado pela diferença entre a maior observação e a menor observação de cada vetor de
entrada.
Para cada um dos universos assim definidos, define-se os conjuntos nebulosos
de interesse, que são as saídas desta camada.
Camada 2
- Estabelecer as regras nebulosas do tipo ‘se.... então’, usando o conectivo
‘and’.
- Aplicar o operador T-Norm, que é a saída dessa camada.
Camada 3
Nesta camada é feita uma normalização tomando-se a razão entre cada valor da
camada 2 pela soma de todos os valores da camada 2. A saída desta camada são os
resultados desta normalização.
Camada 4
Nesta camada são calculados os valores dos consequentes das regras
nebulosas. No caso do modelo ANFIS é adotada uma função linear. Os parâmetros
desta camada são denominados parâmetros lineares (que são os parâmetros do
consequente).
Camada 5
Esta camada é o resultado final para a previsão e possui somente um nó. No
caso do modelo ANFIS a camada 5 é obtida pela soma ponderada dos resultados
obtidos para todos os consequentes. Nesta ponderação estão implícitas diferentes
‘importâncias’ (ou pesos) para os diversos consequentes. Esta ‘ponderação’ é feita na
camada 3, ao se normalizar os resultados obtidos pelo operador T-norm.
5 - Aplicação
A série usada apresenta dados mensais de energia elétrica na ponta no período
de 1982 a 1997. Verifica-se uma tendência crescente no dados, que é plenamente
justificada devido ao aumento de consumo ao longo das anos. Abaixo segue o gráfico
da série.
106
Pesquisa Naval Nº 15, Setembro de 2002
Para a previsão da série escolhida, utilizou-se um programa em Matlab com o
toolbox de Fuzzy, Foram realizados testes usando vários modelos, onde foram sendo
alterados vários parâmetros referentes a entrada, saída e função de pertinência. Os
resultados estão apresentados a seguir. Nas figuras 1 e 2, tem-se, respectivamente, as
funções de pertinência antes e depois do treinamento da rede, para 300 ciclos.
fu
n 1
ç
ã 0.
o
d
0
fu
n 1
ç
ã 0.
o
d
0
0.
0.
0.
0.
entrad
0.
0.
entrad
fu
n 1
ç
ã 0.
o
d
0
0.
fu
n 1
ç
ã 0.
o
d
0
0.
0.
0.
entrad
0.
0.
entrad
Figura2- funções de pertinência ajustadas antes do treinamento
Pesquisa Naval Nº 15, Setembro de 2002
fu
n 1
ç
ã 0.
o
d
e 0
0.
fu
n 1
ç
ã 0.
o
d
e 00.
0.
0.
entrad
0.
0.
entrad
fu
n 1
ç
ã 0.
o
d
e 00.
fu
n 1
ç
ã 0.
o
d
e 00.
107
0.
0.
entrad
0.
0.
entrad
Figura 3 - funções de pertinência após o treinamento da rede
Observa-se que existe uma mudança bastante significativa na dispersão das
funções de pertinência após o treinamento da rede, indicando uma incerteza menor.
erro em treinamento e erro
0.
0.
R
M
0.
S
E
0.
(e
rr
0.
o
m
0.
é
0.
0
5
10
15
iteraçõ
20
25
30
Figura 4 - erro médio quadrático em treinamento e em verificação para 300 ciclos
O erro médio quadrático tende a ser constante com o valor de 0. 5, a partir de
150 ciclos de treinamento da rede.
Figura 5 - resultados obtidos para a previsão da ANFIS e a série real
Observa-se que a previsão é bastante boa; a ANFIS acompanha o movimento
da série durante o treinamento e durante a verificação, o erro absoluto não ultrapassa
20%.
6. Referências Bibliográficas
Neuro-Fuzzy and Soft Computing. J.-S.R. Jang; C.-T. Sun, E. Mizutani. Prentice
Hall, 1997.
Matlab Neural Network Toolbox, 1994.
Matlab Fuzzy Toolbox, 1995.
VIII
Capítulo
MAPEAMENTO DO ÍNDICE DE VULNERABILIDADE AMBIENTAL AO
IMPACTO POR ÓLEO DA ZONA COSTEIRA ENTRE CEARÁ E RIO GRANDE
DO NORTE, USANDO IMAGENS ORBITAIS E SISTEMA DE INFORMAÇÕES
GEOGRÁFICAS
Gherardi, D.F.M.1; Cabral, A.P.2; Braga, C.Z.F.1; Eichenberger, C.1
1
Programa HIDRO-DSR/OBT, Av. dos Astronautas, 1758,
São José dos Campos, SP, CEP 12227-010.
Tel. (0xx12) 345 6508, Fax (0xx12) 345 6488,
e-mail: [email protected]
2
Oceansat - Tecnologia Espacial para Monitoramento Ambiental S/C Ltda,
Incubadora de Empresas salas15 e 16,
Ilha do Fundão, CP 68568, Rio de Janeiro, RJ, CEP 21945-470.
E-mail: [email protected]
Introdução
O mapeamento do índice de vulnerabilidade ambiental (IVA) da zona costeira ao
impacto causado por manchas de óleo foi desenvolvido na década de 70 (Michel et al.
1978) e é um componente imprescindível no desenvolvimento de planos de contingência
e de resposta emergencial aos desastres causados pelo derramamento de óleo na zona
costeira. Atualmente, os mapas de IV estão sendo utilizados não apenas para coordenar
as ações de resposta à poluição por óleo mas, também, para auxiliar o gerenciamento
da zona costeira nos seus diversos níveis de atuação.
As informações relevantes para a determinação do IVA podem ser agrupadas
em três categorias distintas:
1) classificação dos habitats costeiros: hierarquizados de acordo com a
sensibilidade relativa, à persistência natural do óleo, e à facilidade de limpeza;
110
Pesquisa Naval Nº 15, Setembro de 2002
2) recursos biológicos: inclui todas as espécies de organismos e habitats que
corram risco potencial de serem impactados pela mancha de óleo; e
3) recursos sócio-econômicos: áreas de lazer e valor turístico, de acesso ao mar,
áreas protegidas e locais onde se desenvolvam atividades extrativistas ou de cultivo.
Os primeiros mapas produzidos caracterizavam-se por serem produtos estáticos,
compostos por mapas impressos em papel, de tiragem e circulação limitadas e alto
custo. Todas as informações eram tradicionalmente obtidas por meio de consulta a
mapas e documentos impressos, entrevistas com profissionais detentores de
informações específicas, pesquisadores, e visitas ao campo.
Atualmente, os mapas de IVA se tornaram produtos dinâmicos, a partir da
incorporação da tecnologia de Sistema de Informações Geográficas (SIG) e de banco
de dados digital, que permitiram a geração de mapas a um custo mais baixo e maior
rapidez na atualização das informações. A disponibilidade de bases de dados
cartográficos e tabulados, em formato digital, permite sua rápida incorporação ao banco
de dados associado ao mapa e permite um controle de qualidade mais eficiente.
A utilização de produtos orbitais e SIG para o mapeamento do IVA da zona
costeira são cruciais em países como o Brasil, onde a base planimétrica disponível é,
em geral, desatualizada e em uma escala inadequada para a representação das principais
características ambientais. Além disso, o mapeamento de porções do litoral dominadas
por manguezais e recifes costeiros é dificultado pela complexidade fisiográfica e
dificuldade de acesso a esses ambientes. Para o mapeamento do IVA na escala de
1:25.000 pode-se utilizar imagens multiespectrais com resolução espacial de 20 m, e
pancromáticas com resolução espacial de 10 m, do sensor HRV do satélite SPOT (Jensen
et al. 1990, 1993). Entretanto, quando comparada com imagens Landsat-TM, a imagem
SPOT apresenta maior relação custo/benefício devido ao menor recobrimento espacial
(área da imagem), a baixa eficiência no imageamento de feições submersas (devido à
ausência de uma banda no espectro do azul, i.e., entre 400 e 500 nm), e maior preço.
Embora não tenham sido utilizadas no presente trabalho, para as próximas etapas será
testado o acoplamento de imagem pancromática com bandas espectrais do LandsatTM 7.
A falta de informações sobre os padrões de vento e onda, e como estes afetam
a sedimentação costeira, pode ser satisfatoriamente supridas por dados coletados a
partir de plataformas orbitais, que alimentam modelos de ondas.
Serão apresentados, a seguir, os resultados preliminares que demonstram
o potencial da utilização de diversos produtos de sensoriamento remoto e SIG,
utilizados conjuntamente com dados coletados in situ, para o mapeamento do IVA
da zona costeira. A metodologia a ser descrita foi aplicada na bacia Potiguar, localizada
entre os estados do Ceará e Rio Grande do Norte, uma das mais importantes regiões
produtoras de petróleo da plataforma continental brasileira.
Pesquisa Naval Nº 15, Setembro de 2002
111
Área de Estudo
A Bacia Potiguar compreende uma área de aproximadamente 41.000 km2,
abrangendo a porção noroeste do Estado do Rio Grande do Norte e leste do Ceará,
sendo que a porção emersa compreende uma área de 21.500 km2 e, a porção submersa,
uma área de 19.500 km2 (Bertani et al. 1990). A geologia regional caracteriza-se pela
implantação do rift Potiguar sobre rochas do embasamento cristalino Pré-Cambriano,
pertencentes à Província Borborema (Almeida et al. 1977). Além da influência das
variações do nível do mar nos últimos 10.000 anos e da paleotopografia (Morais e
Meireles 1992), a geomorfologia costeira foi, também, produto das condições climáticas
locais (Dominguez & Martin 1995) e de processos costeiros associados à deriva litorânea.
A geomorfologia costeira pode ser caracterizada pelas seguintes feições :(1) região de
dunas eólicas e pontais arenosos da Ponta do Tubarão (RN); (2) região do estuário do
rio Açu (RN); (3) região de dunas eólicas das Pontas do Mel e do Cristóvão (RN); (4)
região estuarina do rio Mossoró (RN); (5) região de dunas eólicas de Tibau (RN/CE);
(6) sistema de pequenas lagoas, canais de maré e rios alimentados pela água doce
proveniente das falésias mortas da Formação Barreiras e remanescentes de mangue em
Icapuí (CE); (7) região de dunas de Ponta Grossa (CE); e (8) região de dunas entre
Canoa Quebrada e Pontal de Maceió (CE).
Manguezais de pequeno porte são encontrados nas desembocaduras de rios e
canais de maré, e apresentam-se bastante alterados pela atividade salineira. Estes
manguezais podem estar também associados aos sistemas de ilhas barreira encontrados
entre a foz do rio Açú e Galinhos (a oeste), no Rio Grande do Norte. Esses ambientes
são fundamentais na manutenção da produtividade primária local, sendo também
utilizados como sítios de desova e alimentação de muitas espécies marinhas de grande
importância socioeconômica.
Materiais e Métodos
Foram utilizadas as imagens das órbitas/ponto 216/63 (de 15/08/97) e 215/63 (de
30/07/88) do satélite Landsat-5 TM. Estas imagens foram processadas digitalmente no
programa SPRING (DPI/INPE), aplicando-se técnicas de filtragem e restauração de
forma a permitir um mapeamento detalhado da área de estudo. Os resultados mostram
que é possível produzir mapas de IVA a partir da interpretação visual de composições
coloridas, onde se procura realçar feições de interesse na escala de 1:35.000. Para a
calibração da interpretação visual das imagens foi efetuada uma campanha de campo
de 11 a 14/5/2000, quando se percorreu todo o litoral da área de estudo. Uma planilha
de campo específica para esse estudo foi desenvolvida para o registro de dados
relevantes à determinação do IVA, complementados por amostras de sedimentos
coletados na antepraia a intervalos médios de 3 km. Todos os pontos amostrados
foram associados a posições obtidas por GPS para que as informações pudessem ser
espacializadas em ambiente de SIG.
112
Pesquisa Naval Nº 15, Setembro de 2002
Para a obtenção dos dados de vento, foram empregados dados do difusômetro
do satélite ERS-2 (lançado em 1996 pela Agência Espacial Européia) e do difusômetro
QuikScat (lançado pela NASA em 1999). Os dados do difusômetro do ERS-2 têm
repetitividade de três dias, enquanto que os dados do QuikScat são obtidos duas
vezes ao dia. Ambos difusômetros possuem uma resolução espacial de 25 km x 25 km
e operam de forma similiar, sendo sensores radares que produzem 3 feixes de pulsos
(backward, nadir, e frontward), que são retro-espalhados pela superfície do oceano e
captados pela antena dos difusômetros (Archer et al. 1998).
Os dados brutos do ERS-2 foram gradeados e interpolados para gerar diagramas
de velocidade e de direção do vento, no período de 1996 a 2000. Os dados do QuikScat
foram usados para análise conjunta com os dados de imagettes SAR e para alimentação
do modelo SWAN (Simulating Waves Nearshore) em datas específicas. Imagettes
SAR são extratos de imagens SAR brutas, correspondentes a uma área de 5 km x 10 km.
O SWAN é um modelo de onda de terceira-geração, que computa ondas short-crested
aleatórias geradas por vento, em áreas costeiras e interiores (Booij et al. 1996).
Visando a caracterização de padrões de ondas na região de interesse,
empregaram-se três tipos distintos de dados: dados de direção e período calculados a
partir de imagettes SAR-ERS2; dados de altura significativa de onda a partir de dados
do altímetro TOPEX-POSEIDON e ERS-2, e resultados de modelagem empregando-se
o modelo SWAN.
Das imagettes foram extraídos os espectros das imagens, aplicando-se técnicas
de Fast Fourier Transform (FFT) em cada imagette. Como resultado da FFT informações
sobre direção e comprimento de onda podem ser inferidas. Foram empregadas 4
imagettes obtidas em diferentes datas e condições de vento.
Para se obter informações sobre altura de onda, desde 1996, foram utilizados
dados dos altímetros TOPEX-Poseidon e do ERS-2. Estes sensores radares produzem
pulsos verticais que são retro-espalhados pela superfície do oceano. Dados brutos de
altura significativa de onda foram obtidos junto ao CCAR. Com bases nestes dados
foram produzidos gráficos mensais de altura significativa de onda.
O modelo SWAN foi empregado como uma outra alternativa para caracterização
dos padrões de onda. Os cálculos do SWAN podem ser feitos em grade regular ou
curvilínea, no sistema de coordenadas cartesianas. O SWAN possibilita a caracterização
da propagação de onda no tempo e espaço, considerando refração devida à corrente,
à profundidade, e freqüência de deslocamento. Neste trabalho preliminar foram extraídos
dados de altura significativa de onda , período e direção médias.
Resultados
O processamento digital das imagens orbitais permitiu identificar feições
geomorfológicas e habitats importantes sob o ponto de vista da determinação do IVA.
As feições mais importantes, identificadas para mapeamento, foram: 1) áreas
efetivamente ocupadas por mangues; 2) bancos arenosos/lamosos intermareais; 3)
Pesquisa Naval Nº 15, Setembro de 2002
113
bancos de vegetação submersa; 4) esporões arenosos e ilhas-barreira; 5) deltas
de maré; e 6) delta dominado por onda. Estruturas relacionadas a recursos
sócioeconômicos como porto salineiro, marnéis, concentrações urbanas e vias de
acesso às praias também podem ser mapeadas por este procedimento.
Assim, com base nos dados coletados in situ e na interpretação visual das
imagens Landsat-TM foram estabelecidos, em caráter preliminar, os seguintes IVA’s:
IVA 2A) plataformas de abrasão marinha expostas, podendo apresentar sedimento
inconsolidado; IVA 3A) praias arenosas de granulação fina a média; IVA 3B) escarpas
e superfícies íngremes arenosas; IVA 4) praias de areia grossa; IVA 7) planícies de maré
expostas; IVA 9B) bancos submersos com algas; e IVA 10D) mangues.
Resultados médios do difusômetro do ERS-2 entre 1996 e 2000 mostraram a
predominância de ventos de E-SE na maior parte do ano, com intensidades entre 3 m/
s e 9,5 m/s. As maiores intensidades foram encontradas entre julho e outubro.
Resultados do QuikScat (direção e intensidade) foram obtidos para outubro de 1999,
novembro de 1999, dezembro de 1999 e janeiro de 2000, concomitantes com 4 imagettes
SAR.
Os resultados da aplicação da FFT nas 6 imagettes mostraram a predominância
de períodos de onda entre 6 e 10 segundos e comprimentos de onda de 40 a 100 m. A
comparação dos dados das imagettes com os dados simultâneos do QuikScat mostraram
que os menores períodos e os maiores comprimentos de onda foram observados na
presença de ventos com mais de 6 m/s, principalmente nos dias 25/11/1999 e 23/01/
2000.
Dados de altura significativa de onda dos altímetros mostraram valores médios
entre 1 m e 2,5 m. Casos extremos puderam ser observados nos meses de setembro e
outubro, com altura máxima de 3 m. Os valores extremos podem estar associados à
presença de marulho (swell), em função do período de furacões no hemisfério norte.
Resultados do SWAN mostraram alturas significativas de onda variando entre
0,5 m e 1,5 m, quando empregada uma malha de vento média. Forçando-se o modelo
com dados do QuikScat para um período de tempo curto (2 horas), obtiveram-se valores
de altura significativa de onda entre 1,2 m e 1,9 m. O padrão médio de propagação
segue a direção E-W, gerando intensa deriva litorânea, conforme mencionado em Neto
(1996). Esta deriva é mais intensa entre Guamaré e Areia Branca. Na região entre Areia
Branca e Icapuí a deriva é menos intensa, aumentando novamente entre Icapuí e
Fortim.
Discussão
Os resultados mostraram que é possível, utilizando-se imagens Landsat-5 TM,
executar mapeamentos dos diferentes ecossistemas costeiros na escala de 1:35.000,
permitindo a determinação acurada de feições como canais de maré, ilhas barreira e
áreas cobertas por vegetação de mangue, que são de difícil mapeamento e grande
dinâmica espacial. Este mapeamento só foi possível com o adequado processamento
digital das bandas espectrais, uma vez que as bandas brutas não se prestam para o
114
Pesquisa Naval Nº 15, Setembro de 2002
mapeamento na escala desejada. A identificação e mapeamento de bancos de algas
submersos também é crucial para a delimitação de áreas ecologicamente críticas, onde
espécies ameaçadas de extinção, como o peixe-boi, se alimentam.
Além disso, importantes fenômenos controladores da sedimentação costeira,
como a deriva litorânea, ondas e ventos puderam ser inferidos a partir das feições
geomorfológicas identificadas e dos resultados do modelo SWAN. Áreas próximas à
foz do rio Mossoró (RN), do rio Jaguaribe (CE), e à Icapuí (CE) apresentaram indícios
de acumulação de sedimentos devido à interação da deriva litorânea com o efeito de
molhe hidráulico exercido pela vazão dos rios. A presença de um banco de algas
submerso em Icapuí pode ser um indício que comprove a existência de uma deriva
litorânea mais fraca na área, o que facilitaria a estabilização dessa comunidade vegetal.
Nas áreas com predomínio de feições progradantes, como nos esporões
arenosos e planícies deltaicas, o óleo poderá ser rapidamente estabilizado entre
sucessivos eventos de deposição de sedimentos e/ou espalhado por uma área maior
devido à corrente de deriva. Os dados de ondas sugerem que o regime hidrodinâmico
regional é de médio a alto (altura significativa de onda entre 1 m e 3 m), implicando em
maior potencial de limpeza natural do ambiente das áreas contaminadas por manchas
de óleo.
Em contrapartida, nas áreas onde predominam feições como canais e deltas de
maré, identificados no sistema de canais e ilhas barreira de Galinhos/Guamaré (RN), é
possível concluir que o fluxo de água na preamar seria capaz de transportar o óleo de
um eventual derramamento para as partes mais internas do sistema. Esse processo
aumentaria a extensão dos efeitos deletérios da poluição.
Conclusão
1) Dados de imagens orbitais podem suprir deficiências de informações
ambientais atualizadas e servir como base cartográfica para o mapeamento do IVA.
2) A utilização de técnicas de processamento digital adequadas permitem
aumentar a escala de mapeamento relativamente à imagem original do sensor TM,
facilitando a extração de feições de pequena escala.
3) Dados sobre vento e onda, obtidos por sensores ativos (microondas) em
plataformas orbitais, quando associados a modelos de circulação podem auxiliar no
diagnóstico da vulnerabilidade ambiental da zona costeira ao impacto por óleo.
Referências Bibliográficas
ALMEIDA, F. F. M.; HASUY, Y., NEVES, B. B. B.; et. al. (1977) Províncias
estruturais brasileiras. In: Simpósio de Geologia do Nordeste, Campina
Grande. Volume 8: p. 363-391.
Pesquisa Naval Nº 15, Setembro de 2002
115
ARCHER, O.; BENTAMY, A.; DUPONT, L.; et. al. (1998) Mean surface
wind fields from the ERS-AMI and ADEOS-NSCAT microwave
scatterometers. [CD-ROM]. In: WOCE Conference, Halifax.
BERTANI, R.T., COSTA, I.G., MATOS, R.M.D. (1990) Evolução tectonosedimentar, estilo estrutural e habitat do petróleo na Bacia Potiguar. In:
Origem e evolução de bacias sedimentares, Petrobrás, coord. Gabaglia,
G.P.R. e Milani, E.J., p. 391-310.
BOOIJ, N., HOLTHUIJSEN, L.H., RIS, R.C. (1996) The SWAN wave model
for shallow water, Anais 25th Int. Conf. Coastal Engineering, Orlando,
USA, Vol. 1, pp. 668-676.
DOMINGUEZ, J. M. L.; MARTIN, L (1995) Environmental controls in coastal
dune development along the northeastern coast of Brazil. IN: Land-ocean
interactions in the coastal zone, scientific meeting, São Paulo, p. 28-30.
JENSEN, R.J.; RAMSEY, E.W.; HOLMES, J.M.; et al.(1990) Environmental
sensitivity index (ESI) mapping for oil spills using remote sensing and
geographic information system technology. International Journal of
Geographic Information System, 4(2): 181-201.
JENSEN, R.J.; NARUMALANI, S.; WEATHERBEE, O.; et al. (1993) Coastal
environmental sensitivity mapping for oil spills in the United Arab Emirates
using remote sensing and GIS technology. Geocarto International, n.2,
p.5-13.
MORAIS, J. O.; MEIRELES, A. J. A. (1992) Evidências de variações relativas
do nível do mar durante o Quaternário no litoral leste do estado do Ceará.
IN: Anais do 37 Congresso Brasileiro de Geologia, São Paulo, volume 1,
p. 71-73.
MEIRELES, A. J. A.; MORAIS, J. O.; FREIRE, G. S. S. (1990) Os terraços
holocênicos da planície costeira do município de Icapui - extremo leste
do Estado do Ceará. IN: Resumos do 36 Congresso Brasileiro de Geologia.,
volume 2, p. 709-718.
NETO, L. X. C. (1996) Geologia e geomorfologia Recente da plataforma
continental interna ao largo do delta do Rio Açu, Macau-RN. IN: Anais
do 39 Congresso Brasileiro de Geologia, Salvador, volume 3, p. 443-446.
MICHEL, J.; HAYES, M.O.; BROWN, P.J. (1978) Application of an oil spill
vulnerability index to the shoreline of lower Cook Inlet, Alaska.
Environmental Geology, 2: 107-117.
INSTITUTO DE ESTUDOS DO MAR ALMIRANTE
PAULOMOREIRA
ONDÓGRAFO DIRECIONAL WAVERIDER
O IEAPM mantém na costa do Rio de Janeiro um Ondógrafo Direcional WAVERIDER,
de fabricação da companhia holandesa DATAWELL.É um equipamento destinado a medir
parâmetros de ondas no mar como: Altura significativa; Período da onda; Direção da onda;
Temperatura da Superfície do Mar; e Espectro Direcional. Possui formato de uma bóia esférica
com cerca de 01 metro de diâmetro, pesando em torno de 250 kg (somente a bóia) projetada para
ser posicionada no mar através de um sistema fixo de fundeio.
O ondógrafo envia sinais radioelétricos para uma estação de recepção, sendo captados
por uma antena acoplada a um receptor, até uma distância máxima de 50 quilômetros. O sinal
transporta os dados listados acima além da posição GPS da bóia.
O equipamento está localizado na posição: Latitude - 23º 01.95' S; Longitude - 041º
59.75' W. Fica cerca de meia milha ao sul da Ilha de Cabo Frio - Arraial do Cabo, em um ponto
considerado singular no litoral do Estado do Rio de Janeiro para realização dessas medições, por
medir os parâmetros de ondas provenientes dos quadrantes Sul a Nordeste.
Esses dados coletados são aplicados em:
§
Climatologia de ondas e Montagem de uma base de dados para estudo de estatística de
extremos;
§
Previsão ambiental e Calibração de modelos de ondas; e
§
Essas informações são úteis para a previsão de ondas, planejamento de comissões e diversas
situações onde o conhecimento do estado do mar seja importante.
As informações, que estão sendo atualizadas a cada três horas de forma automatizada, e
encontram-se disponíveis na Intranet(ieapm.mb) e na Internet(www.ieapm.mar.mil.br), com acesso
pela figura da bóia.
IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira
Departamento de Engenharia Oceânica
Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ
E-mail: . [email protected] ou [email protected]
IX
Capítulo
MARGENS DE INCERTEZAS SOBRE A POTÊNCIA TOTAL DE UMA
INSTALAÇÃO PROPULSORA NUCLEAR PARA SUBMARINOS
CF(EN) Leonam dos Santos Guimarães
Dr. Paulo César Leone
Centro Tecnológico da Marinha em São Paulo (CTMSP)
Av. Professor Lineu Prestes 2468, Cidade Universitária, São Paulo , SP, Brasil
e-mail: [email protected] / Tel: 0-XX-11-38177148
Resumo
A potência a ser desenvolvida pelo reator de uma instalação propulsora
nuclear para submarinos deve cobrir as necessidades de propulsão, isto é, a potência
necessária para vencer a resistência ao avanço e as demais perdas de origem
hidrodinâmica; além disto a potência fornecida deve suprir, também, o consumo das
cargas necessárias à operação da propulsão e de cargas associadas com o
desempenho das ações preconizadas para o submarino. O reator é um item de longo
prazo de desenvolvimento e, portanto, sua potência deve ser conhecida em fases
muito iniciais do projeto do submarino. Entretanto, em fases iniciais do projeto
existem incertezas na definição das cargas de propulsão e de serviço. O presente
trabalho tem por objetivo desenvolver um modelo matemático para análise destas
incertezas que possa ser utilizado durante as várias fases do projeto em uma variedade
de situações de tomada de decisão técnica e gerencial.
118
Pesquisa Naval Nº 15, Setembro de 2002
Abstract
The power to be developed by the reactor of a nuclear propulsion plant for
submarines should cover the propulsion needs, that is the necessary power to win
the ship’s resistance and the other losses of hydrodynamic origin; besides the supplied
power should supply, also, the consumption of the necessary loads to propulsion
operation and hotel loads. The reactor is an item of long period of development and,
therefore, its power should be known in very early in the submarine design. However,
during initial phases, great uncertainties exists in the definition of hotel and
propulsion loads. This work has for objective to develop a mathematical model for
analysis of these uncertainties that can be used during the several phases of the
project in a variety of situations requiring technical and managerial decision.
Palavras-Chave: Incerteza – Potência – Propulsão – Nuclear
Keywords: Model – Risk – Safety
Introdução
A potência a ser desenvolvida pelo reator de uma instalação propulsora nuclear
para submarinos deve cobrir as necessidades de propulsão, isto é a potência necessária
para vencer a resistência ao avanço e as demais perdas de origem hidrodinâmica; além
disto a potência fornecida deve suprir, também, o consumo das cargas necessárias a
operação da propulsão e de cargas associadas com o desempenho das ações
preconizadas para o submarino. A primeira destas é denominada de carga de propulsão
PP
e a segunda será denominada carga de serviço
PS . Conhecidos PP e PS
e as
características do sistema de propulsão é imediata a determinação da potência a ser
desenvolvida pelo reator; PR . O reator é um item de longo prazo de desenvolvimento
e, portanto, sua potência deve ser conhecida em fases muito iniciais do projeto do
submarino. Entretanto, em fases iniciais do projeto existem incertezas na definição das
cargas de propulsão e de serviço. Estas incertezas diminuem no decorrer do projeto.
Sistema de Propulsão
Consideremos o sistema de propulsão mostrado, esquematicamente, na figura
a seguir:
Pesquisa Naval Nº 15, Setembro de 2002
119
O sistema é constituído por equipamentos, e meios de distribuição. Os
equipamentos são as entidades responsáveis pela transdução de energia, enquanto
que a distribuição é responsável pelo transporte de um determinado tipo de energia. Na
figura acima denominamos E os equipamentos e D os meios de distribuição. A
identificação é feita a seguir:
Reator
Gerador de Vapor
Turbina de Propulsão
Gerador de Propulsão
Motor Elétrico de Propulsão
Propulsor
Casco do Submarino
D1, D2, D11, D12, D13, D14
D3 , D5 , D8
D4 , D9
Energia do Fluido (un. massa)
Descarga (massa)
Φ
Q
Conjugado no Eixo
Rotação no Eixo
U
Tensão Elétrica
1
2
3
4
5
6
7
E8
E9
E10
E11
E12
E13
E14
Turbina Auxiliar
Gerador Auxiliar
Cargas de Serviço
Condensador
Bomba de Circulação Condensado
Bomba de Circulação Reator
Bomba de Circulação Mar
Dutos
Eixos
Cablagens
I
Corrente Elétrica
T
Empuxo no Hélice
Ve
Velocidade do Escoamento no Hélice
R
Resistência Hidrodinâmica do Casco
Vs
Velocidade de Avanço do Submarino
120
Pesquisa Naval Nº 15, Setembro de 2002
As entidades são caracterizadas pelas suas eficiências a seguir definidas:
A eficiência do equipamento é definida como a relação entre a potência de
saída do equipamento, isto é a potência entregue ao próximo equipamento no fluxo
principal do processo, e a potência de entrada no equipamento. O fluxo principal do
processo é entendido como aquele que vai do reator ao propulsor ou do reator as
cargas de serviço.
η=
Ps
Pe
(1)
Denominando -se:
ηEi
a eficiência do i-ésimo equipamento e de
η ti
a
eficiência de transmissão, teremos para a potência de entrada do próximo equipamento:
PEi +1 = η Ei ηti PEi
(2)
A potência a ser desenvolvida pelo reator, necessária para atender os requisitos
de propulsão e de carga de serviço pode ser conhecida a partir do conhecimento da
resistência hidrodinâmica do casco, da potência de serviço e das várias eficiências
PR =
RVs
7
5
2
1
∏ η Ei ∏ ηti
+
PS + PSm
η E2 η E8 η E9 ηt1 ηt2 ηt8 ηt9
(3)
Pesquisa Naval Nº 15, Setembro de 2002
121
Os valores da resistência hidrodinâmica
R , da potência de serviço PS , bem
como das eficiências são estimados no início do projeto do submarino. Estas estimativas
evoluem com o detalhamento do projeto e com utilização de métodos mais confiáveis
para a análise dos vários equipamentos e sistemas. O valor mais confiável destas
estimativas será obtido somente na fase de construção e teste dos protótipos quando
da realização de ensaios.
A potência de serviço
PS é entendida aqui como o valor da soma de todas as
cargas auxiliares ligadas a operação da propulsão (bombas, sistemas de ventilação e ar
condicionado, sistemas de controle da propulsão etc. ) e das cargas ligadas ao
desempenho das ações preconizadas (sistema de navegação, combate, manutenção da
habitabilidade etc. ). Conhecimento destas cargas e a confiabilidade de sua estimativa
são, também, função do estágio do projeto. O valor
PSm
é a margem para um
crescimento futuro de cargas , principalmente aquelas ligadas ao desempenho operativo
do submarino.
Em particular chamamos a atenção para as eficiências
η E6 e η E7 , que
caracterizam as transferências de energia envolvidas na propulsão do submarino. A
eficiência
η E6
, é a eficiência do propulsor quando atuando à ré do submarino:
η E6 =
TVe
= η p0 ηrr
2 π Qp n p
(4)
é a eficiência do propulsor isolado (água aberta) e
onde
eficiência relativa rotativa. A eficiência
η E7 é chamada de eficiência do casco:
onde:
η E7 =
e
.
T=
RVs (1 − t )
=
TVe (1 − w)
R
(1 − t )
(5)
Ve = Vs (1 − w )
éa
122
Pesquisa Naval Nº 15, Setembro de 2002
As quantidades
e
força propulsora e de esteira.
são respectivamente os coeficientes de redução da
Estabelecimento de Margens para a Potência Total
A obtenção da potência necessária para o reator, pode ser feita pela equação
(3) , a partir do conhecimento da resistência hidrodinâmica
desejada
, da potência de serviço
futuro
, e das varias eficiências envolvidas em (3).
, para a velocidade
, de sua margem para crescimento
A estimativa da potência total do reator é feita nas fases iniciais do projeto,
(exeqüibilidade, concepção ) e re calculada nas fases subseqüentes do projeto. Esta
estimativa da potência total é feita a partir de estimativas dos vários parâmetros que
comparecem em (3). As estimativas mais precisas, obviamente serão obtidas na fase
final do projeto onde teremos valores medidos das varias grandezas e a incerteza
associada será no limite, o erro experimental da medida. Nas fases iniciais do projeto,
será necessário uma estimativa de potência para o reator e demais equipamentos com
margens, além daquela para crescimento futuro, suficientes para cobrir as incertezas de
estimativas das grandezas que comparecem na equação (3).
A estimativa de cada uma das grandezas que comparecem em (3) pode ser
caracterizada por um valor médio, correspondente à melhor estimativa da grandeza na
respectiva fase do projeto, e pelo valor de sua variança.
QUANTIDADE
Resistência Hidrodinâmica
VALOR MÉDIO
VARIANÇA
R
σR
2
Eficiência de Equipamento
η Ei
σ Ei
2
Eficiência de Transmissão
η ti
σ η ti
2
Carga de Serviço
PS
σ PS
2
A reserva para crescimento futuro da carga de serviço,
PSm
pode ser
considerado como um valor com variança nula. Os valores referentes a médias e varianças
variam ao longo das varias fases do projeto. Em particular, o valor da variança deverá
diminuir , demonstrando o maior conhecimento dos vários itens.
Pesquisa Naval Nº 15, Setembro de 2002
123
A relação (3) pode ser escrita:
(
)
PR = PR R, PS , PSm ,ηE i ,ηti
(4)
Mostra-se que o valor médio de (4) pode ser escrito:
1  ∂ 2PR
PR = PR R , PS , PSm ,ηE i ,ηt i + 
2  ∂R 2
(
+
)
1 9  ∂ 2PR  2 1 9  ∂ 2PR
σ η + ∑  2
∑
2 2  ∂ηE i 2  Ei
2 1  ∂η t i
+
)
1 9  ∂ 2PR  2 1 9  ∂ 2PR
σ η + ∑  2
∑
2 2  ∂ηE i 2  Ei
2 1  ∂η t i
∂ PR
=
∂R
 2
σ P +
 S

 2
σ t i

1  ∂ 2PR
PR = PR R , PS , PSm ,ηE i ,ηt i + 
2  ∂R 2
(
 2 1  ∂ 2PR
σ R + 
2  ∂PS 2

(5)
 2 1  ∂ 2PR
σ R + 
2  ∂PS 2

 2
σ P +
 S

 2
σ t i

(6)
VS
7
5
2
1
∏ ηE i ∏ ηti
(7)
∂ 2PR
=0
∂R 2
(8)
∂PR
1
=
∂PS ηE 2ηE8ηE 9ηt1ηt8ηt9
(9)
124
Pesquisa Naval Nº 15, Setembro de 2002
∂ 2 PR
∂PS
2
=0
(10)
[ (
)]
(11)
[ (
)]
(12)
i = 3,4,5,6,7
(13)
∂PR
1
=−
PR R , PS , PSm ,η Ei ,η ti
∂η E2
η E2
∂ 2 PR
2
=
PR R , PS , PSm ,η Ei ,ηti
2
2
∂η E2
η E2

R VS
∂PR
1 
 7
=−
5
∂η Ei
η Ei 
η
 ∏ E j ∏η t j
1
 3
∂ 2 PR
∂η Ei
2
=−
2 ∂PR
η Ei ∂η Ei






i = 3,4,5,6,7

∂PR
PS + PSm
1 
=−


∂η Ei
η Ei η E8η E9 ηt1η t2 ηt8 ηt9 
∂ 2 PR
∂η Ei
2
=−
2 ∂PR
η Ei ∂η Ei
[ (
∂η ti
2
=−
i = 8,9
i = 8,9
∂PR
1
=−
PR R , PS , PSm ,η E j ,ηt j
∂η ti
ηti
∂ 2 PR
(14)
2 ∂PR
η ti ∂η ti i = 1,2
(15)
(16)
)] i = 1,2
(17)
(18)
Pesquisa Naval Nº 15, Setembro de 2002

∂PR
R VS
1 
 7
=−
5
∂η ti
η ti 
η
 ∏ E j ∏η t j
1
 2
∂ 2 PR
∂η ti
=−
2
2 ∂PR
η ti ∂η ti



 i = 3,4,5


i = 3,4,5

∂PR
PS + PSm
1 
=− 

∂ηti
ηti η E8η E9 ηt1ηt2ηt8ηt9  i = 8,9
∂ 2 PR
∂η ti
2
=−
2 ∂PR
η ti ∂η ti
i = 8,9
125
(19)
(20)
(21)
(22)
Nas equações (5) e (6) por uma questão de homogeneidade de apresentação ,
assumiu-se η t6 = 1 e η t7 = 1 constantes; e por conseqüência σ ηt6
2
=0 e
σ ηt 7 = 0
2
Denominemos de PRH a parcela de potência do reator fornecida para vencer
a resistência hidrodinâmica do submarino na correspondente velocidade ,de PRS a
parcela de potência fornecida para atender à carga de serviço e de
PRSm a parcela
destinada ao crescimento futuro da carga de serviço:
PRH =
RV S
7
5
∏η ∏η
Ei
2
PRS =
ti
(23)
1
PS
η E2η E8η E9ηt1ηt2η t8ηt9
(24)
126
Pesquisa Naval Nº 15, Setembro de 2002
PRS m =
PSm
η E2η E8η E9ηt1ηt2ηt8ηt9
(25)
As equações (5) e (6) permitem calcular o valor médio e a variança da potência
do reator a partir das varianças das estimativas da resistência hidrodinâmica do
submarino ,da carga de serviço e das varias eficiências envolvidas no ciclo. É
interessante notar que a partir de (8) e (10) conclui-se que o valor médio da potência do
reator é independente da variança das estimativas da resistência hidrodinâmica e da
carga de serviço. Outra conclusão interessante pode ser obtida notando-se que os
vários coeficientes diferenciais relativos às eficiências, (equações (11) a (22) ) ,são
inversamente proporcionais aos valores destas eficiências. Desta forma quanto menor
for a eficiência de um determinado item do ciclo ,maior será a contribuição deste item
para a média e variança da estimativa de potência do reator. Isto sugere , que para a
diminuição das incertezas de estimativa , devamos concentrar a atenção na estimativa
da eficiência dos itens com menor eficiência no ciclo.
A partir do calculo de (5) e (6) será possível determinar a potência necessária
dentro de um intervalo de confiança pré -determinado, e com isto estabelecer a margem
de potência requerida. Para tanto será necessário conhecer as varianças das várias
estimativas.
Como nem sempre é possível conhecermos as varianças das estimativas,
poderemos chegar a um valor aproximado da margem de potência através de uma
consideração alternativa.
Consideremos a diferencial total de PR definida por (3):
 ∂P
 ∂P 
dPR =  R  dR +  R
 ∂R 
 ∂PS
9 

∂P
dPS + ∑  R

1  ∂η Ei

9 

dη E + ∑  ∂PR
 i

1  ∂η t i


dη t
 i

(26)
A equação (26) pode ser escrita alternativamente como:
dPR
PR
 P  dR  P  dP   dηE   P  7  dηE   P + P  9  dηE 
=  RH   +  RS  S  −  2  −  RH ∑ i  −  RS RSm∑ i  +






 8  ηEi 
 PR  R   PR  PS   ηE2   PR  3  ηEi   PR
2  dη 
 P  5  dηt   P + P  9  dηt 
t
− ∑ i  −  RH ∑ i  −  RS RSm∑ i 





PR
1  ηti   PR  3  ηti  
 8  ηti 
(27)
As várias diferenciais na equação (27) podem ser substituídas por diferenças
finitas, resultando:
Pesquisa Naval Nº 15, Setembro de 2002
127
∆PR PRH   ∆R  PRS ∆PS   ∆ηE2   PRH 7  ∆ηEi  PRS +PRSm 9  ∆ηEi 
∑
− ∑
−
+
=     +   −
PR  PR   R   PR  PS   ηE2   PR  3  ηEi   PR  8  ηEi 
2  ∆η 
P  5  ∆ηt   P +P  9  ∆ηt 
t
−∑ i  − RH∑ i  − RS RSm∑ i 
 
 
PR  8  ηti 
1  ηti   PR  3  ηti  
Na equação (28) os vários termos do tipo
(28)
∆X
X
podem ser considerados
como os erros relativos na estimativa do parâmetro X . Desta forma a equação (28)
representa o erro relativo na estimativa da potência total do reator, colocado em função
do erro relativo das varias estimativas. O erro relativo de cada estimativa pode ser
estimado de maneira mais simples que a variança e portanto a equação (28) pode ser a
base para o estabelecimento da margem de potência. Como existe a possibilidade de
que os erros relativos de cada estimativa em parte se neutralizem, uma estimativa mais
razoável da margem pode ser obtida a partir do valor relativo médio
2
2
2
2
2
2
2
2
 ∆PR 
 PRH  ∆R 7  ∆ηEi  5  ∆ηti    PRS + PRSm  9  ∆ηEi  9  ∆ηti  

 + ∑
  +
 + ∑
 ∑

 = Ψ =     + ∑

 PR 
 PR   R  3  ηEi  3  ηti    PR   8  ηEi  8  ηti  
2
2
 ∆ηE  2  ∆ηt   P   ∆P 
+  2  + ∑ i  +  RS  S 
η  1η 
 ti   PR   PS 
 E2 
2
2
(29)
A margem absoluta média é portanto dada por:
∆PR = PR Ψ
(30)
O valor da potência do reator PR é calculado a partir da equação (3) utilizando-
se a melhor estimativa para as várias grandezas. O parâmetro Ψ é calculado a partir da
equação (29) a partir do erro relativo de cada estimativa.
De maneira semelhante, é possivel definir uma margem relativa para cada um
dos equipamentos do ciclo.
Para os equipamentos envolvidos com o atendimento da carga de propulsão,
temos:
 ∆ PE i

 PE

i
7  ∆η

Ej
 =  ∆ R  − ∑ 


 H  R  j =i  η E j
com, i = 3, 4, 5, 6, 7
7  ∆η

tj
−

∑
 j=i  η t
j






(31)
128
Pesquisa Naval Nº 15, Setembro de 2002
Para os equipamentos envolvidos com o atendimento à carga de serviço:
 ∆PEi

 PE
 i

1
 =

 S 1 + PSm

PS

 ∆PS

  PS


 9  ∆η Ei
 − ∑ 
 j =i  η Ei
  ∆η ti
+
  ηt
  i




(32)
com, i = 8,9
A partir de (31) e (32) é possível , de maneira semelhante ao reator, definir
margens relativas médias para cada um dos equipamentos:
Atendimento à propulsão:
 ∆PEi

 PE
 i
2
7  ∆η

 =  ∆R  + ∑  E j


 R 
j =i  η E j
H

2
  ∆η t j
 +
  ηt
  j




2




(33)
com , i = 3,4,5,6,7
A potência do respectivo equipamento é calculada por:
(P )
Ei
 ∆PEi

 PE
 i
H
=
RVS
7
7
j =i
j =i
∏η E j ∏η t j

1
 =

 PSm
S
1 +
PS

 ∆PS

2 
  PS


2
9  ∆η

Ej
 + ∑ 

j =i  η E j


(34)
2
  ∆η t j
 +
  ηt
  j




2




com , i = 3,4,5,6,7
Atendimento à carga de serviço:
(35)
Pesquisa Naval Nº 15, Setembro de 2002
129
A potência do respectivo equipamento:
(P )
Ei S
=
(PS
+ PSm )
9
∏η ∏η
j =i
(36)
9
Ej
j =i
com i = 8,9
tj
PEi
Nas expressões (31) a (36), a potência
entrada do equipamento. As margens
∆PEi
é entendida como a potência de
são entendidas como margens a esta
potência de entrada, de modo a cobrir as incertezas relativas as eficiências do
equipamento em consideração e daqueles situados a jusante no processo.
A utilização das margens médias para os vários equipamentos, calculáveis a
partir de (33) e (35), é compatível (considerando somente efeitos de primeira ordem),
com a margem média global na potência do reator dada por (30). Sendo
PE3 , ∆PE3 , PE8 , ∆PE8 ,
respectivamente as potências e margens médias da
turbina de propulsão e turbina auxiliar, a potência do reator fica:
PR =
PE3 + PE8
η E2 η t1ηt 2
+
∆PE3 + ∆PE8
(37)
η E2 ηt1η t2
Considerando a diferença finita de (37):
 PE + PE8
∆PR = − 3
 ηE ηt ηt
 2 1 2
 ∆ηE 2   PE3 + PE8

−
 ηE   ηE ηt ηt
 2   2 1 2
 ∆PE 3 + ∆PE8 
∆PE3 + ∆PE8

+
+ ∆
 ηE ηt ηt 
ηE 2ηt1ηt 2
2
1
2


 2  ∆ηti
∑ 
 1  ηt
  i

+


Conservando-se apenas os termos de primeira ordem em
(38) resulta em uma expressão idêntica à (28).
(38)
∆
, mostra-se que
Conclusões
As expressões (28), (30), (31), (32), (33) e (35) podem ser utilizadas durante as
várias fases do projeto em uma variedade de situações:
Analise do reflexo da variação de eficiências de entidades do ciclo sobre a
potência total do reator ou sobre a potência de equipamentos. Para esta finalidade
podemos utilizar as equações (28), (31), e (32).
Estabelecimento de margens de potência, necessárias para cobrir incertezas
previamente estabelecidas de estima de eficiências de entidades do ciclo. Para esta
finalidade, podem ser utilizadas as equações (29), (30), (33) e (35).
Alternativamente poderemos estabelecer a priori margens máximas aceitáveis
para a potência total ou de cada equipamento e avaliar a partir das equações (29), (30),
(33) e (35) quais as faixas toleraveis de eficiências das varias entidades de modo a nos
mantermos dentro das margens de potência previamente estabelecidas.
A título de simples ilustração, imaginemos as seguintes incertezas de
estimativas para um ciclo com PR = 48, PRH = 36, PRS = 12e PRSm = 0 MW :
Resistência Hidrodinâmica:
∆R
= ±0, 20
R
Potência de Serviço:
∆PS
= ±0,20
PS
∆η Ei
Eficiência de Equipamentos:
η Ei
∆η ti
Eficiência de Transmissão:
η ti
= ±0,10
= ±0,05 Resulta de (29): Ψ = 0,0715
Para a incerteza média relativa na estima da potência do reator teremos:
∆PR
= 26,7%
PR
Diminuindo-se as incertezas para :
∆η Ei
∆η ti
∆PS
∆R
= ±0,05 ,
= ±0,05
= ±0,10 ,
= ±0,10 ,
η Ei
η ti
PS
R
resultará Ψ = 0,0256 e para a incerteza média relativa:
∆PR
= 16%
PR
X
Capítulo
MODELO DE AVALIAÇÃO DE RISCOS SÓCIO-TECNOLÓGICOS
CF(EN) Leonam dos Santos Guimarães
Centro Tecnológico da Marinha em São Paulo (CTMSP)
Av. Professor Lineu Prestes 2468, Cidade Universitária, São Paulo , SP, Brasil
e-mail: [email protected] / Tel: 0-XX-11-38177148
Resumo
O presente trabalho apresenta um modelo matemático para a avaliação
dos riscos sócio-tecnológicos decorrentes do funcionamento de um sistema industrial,
entendido como um conjunto de elementos discretos, interrelacionados ou em
interação, com o objetivo de executar uma determinada missão. São ainda propostos
limites quantitativos para as variáveis de decisão deste modelo. O propósito desta
abordagem é proporcionar uma base de avaliação objetiva para que as ações de
gerenciamento de riscos sejam eficaz e eficientemente implementadas ao longo do
ciclo de vida do sistema, garantindo assim um nível de segurança socialmente
aceitável.
Abstract
The present work presents a mathematical model for the evaluation of
technological risks arising from industrial systems operation. Quantitative limits
for the decision variables of the model are also proposed . This approach aims to
provide an objective base to judge the effectiveness and efficiency of risk management
actions implemented along system’s life cycle, therefore assuring a socially acceptable
safety level.
Palavras-Chave: Modelo – Risco - Segurança
Keywords: Model – Risk – Safety
132
Pesquisa Naval Nº 15, Setembro de 2002
Introdução
O presente trabalho foi desenvolvido dentro do escopo da tese de
doutoramento de referência [1], cujo propósito foi o estabelecimento de uma doutrina
de segurança para submarinos nucleares que permitiria à Autoridade de Segurança
Nuclear examinar e julgar sobre a adequabilidade das ações de segurança a serem
tomadas pela Marinha do Brasil ao longo de todas as fases do ciclo de vida destes
navios. O modelo de avaliação de riscos proposto tem, entretanto, uma aplicação geral,
permitindo sua utilização no gerenciamento de riscos sócio-tecnológicos decorrentes
do funcionamento de qualquer instalação industrial.
A condição teórica de Segurança Absoluta ou de Risco Zero para sistemas
industriais, i.e. a certeza da impossibilidade de um Perigo tornar-se real é uma utopia,
pois, ao desenvolvimento de todos os processos físicos, químicos e humanos atuantes
nas fases do Ciclo de Vida das instalações, estão associadas margens de incerteza
decorrentes do caráter aleatório intrínseco tanto à natureza como ao próprio homem.
Tendo em vista esta realidade, o Gerenciamento de Riscos deverá garantir o
cumprimento de ações de segurança que tornem, numa primeira instância, o Risco
Objetivo Potencial de um Sistema Industrial inferior ao limite de Risco Subjetivo Tolerável.
Numa segunda instância, as ações de segurança devem ser otimizadas no sentido de
tornarem o Risco Objetivo Residual deste Sistema Industrial inferior ao limite de Risco
Subjetivo Aceitável. Denomina-se a condição prática decorrente destas ações de
Segurança Objetiva, i.e. aquela em que os riscos foram justificados (Princípio da
Justificação), limitados (Princípio da Limitação) e otimizados (Princípio da Otimização).
Conceitos Básicos
Considerando que as definições vernáculas para Segurança e conceitos
associados podem ser em certa medida dúbias e sujeitas a diferentes interpretações,
serão inicialmente estabelecidas as seguintes definições técnicas que serão em seguida
empregadas na formulação matemática de um modelo de avaliação.
Perigo: circunstância ou situação determinada que potencialmente poderia ocorrer
ao longo do Ciclo de Vida de um Sistema Industrial e da qual decorreriam
conseqüênciasindesejáveis cuja Gravidade é considerada como intolerável pelos
grupos sociais afetados.
Gravidade: intensidade do impacto social e econômico das conseqüências
indesejáveis de um Perigo.
Sistema Industrial: conjunto determinado de elementos discretos
interrelacionados ou em interação com o objetivo de executar uma missão de natureza
tecnológica.
Pesquisa Naval Nº 15, Setembro de 2002
133
O impacto da Gravidade de um Perigo decorrente de um Sistema Industrial
incide potencialmente sobre a saúde física e mental de seres humanos, tanto ao nível
individual como coletivo, sobre a integridade de propriedades e bens públicos e
privados e sobre o equilíbrio dos eco-sistemas do meio ambiente local, regional,
nacional e global.
Evento Indesejado: evento inicializador de um Cenário Acidental.
Cenário Acidental: seqüência lógica de eventos que, a partir de um Evento
Indesejado, conduz o Sistema Industrial a um estado de Perigo.
Risco: possibilidade, dentro de um período de tempo determinado e sob
condições iniciais pré-definidas, de ocorrência de um Cenário Acidental.
Segurança: possibilidade, dentro de um período de tempo determinado e sob
condições iniciais pré-definidas, de não ocorrência de um Cenário Acidental.
Risco Objetivo: valor esperado da Gravidade dos Perigos decorrentes do
funcionamento de um Sistema Industrial (expectância ou esperança probabilística, i.e.
produto da Probabilidade pela Gravidade), sob condições pré-definidas e durante um
intervalo de tempo limitado; é determinado objetivamente pelas técnicas e métodos da
Segurança de Funcionamento de Sistemas Industriais (SDFSI) ou Reliability,
Availability, Mantenability and Safety (RAMS), no jargão técnico anglo-saxão.
Risco Subjetivo: expectativa de conseqüências indesejáveis decorrentes do
funcionamento de um Sistema Industrial, determinada pela Percepção de Riscos
subjetiva de indivíduos e coletividades acerca da Probabilidade e a Gravidade dos
Perigos dele decorrentes.
Percepção de Riscos: conjunto de fenômenos de natureza sociológica e
psicológica que criam uma hierarquia de Riscos Subjetivos, particular a cada indivíduo
e a cada grupo social.
A hierarquia de Riscos Subjetivos não possui relação lógica com aquela derivada
das formulações empregadas para determinação dos Riscos Objetivos. A Percepção de
Riscos coletiva (ou social) tende a avaliar os Riscos Subjetivos superestimando a
Gravidade e subestimando as Probabilidades. Considerando-se dois Riscos Objetivos
idênticos, a Percepção de Riscos coletiva tende portanto à aversão ao risco com maior
Gravidade, ainda que tenha pequena probabilidade (acidentes em instalações nucleares,
por exemplo), e ao conformismo ao risco com menor Gravidade, ainda que tenha alta
probabilidade (acidentes rodoviários, por exemplo). A percepção individual, por sua
feita uma distinção entre dois tipos de riscos ao nível individual:
Riscos Voluntários: aqueles incorridos por livre e espontânea vontade de um
indivíduo e dos quais ele julga auferir benefícios diretos tais que o impacto dos riscos
associados são pouco considerados (atividades profissionais, uso de meios de
transportes, prática de esportes e atividades de lazer, tratamentos médicos, tabagismo,
por exemplo).
134
Pesquisa Naval Nº 15, Setembro de 2002
Riscos Involuntários: a20eles impostos a um indivíduo sem consulta prévia e
dos quais ele julga auferir poucos, ou mesmo nenhum, benefício direto, para os quais o
impacto dos riscos associados são considerados com maior intensidade (instalações
industriais, alimentação, pesquisa científica e tecnológica, atividades militares, por
exemplo).
A Percepção de Riscos individual avalia os Riscos Voluntários sob uma ótica
totalmente distinta da2uela usada para avaliar os Riscos Involuntários. Tal constatação,
cuja explicação foge do escopo do presente trabalho, torna sem sentido qual20er
hierarquização, ao nível individual, por exemplo, entre o risco do transporte rodoviário
e o da produção de energia nuclear. O primeiro é objetivamente muito mais elevado do
20e o segundo, sendo porém tipicamente voluntário. Cumpre ainda ressaltar 20e a
hierarquia de Riscos derivada da Percepção Social e da Percepção Individual nem
sempre são coerentes entre si. Isto deriva do fenômeno sociológico bem conhecido de
20e o homem tem um comportamento em coletividade diferente da2uele 2ue tem
individualmente.
Seguridade: conjunto de ações técnicas tomadas ao longo do Ciclo de Vida de
um Sistema Industrial 2ue visam proporcionar à sociedade e a cada indivíduo um nível
de Segurança tão elevado (ou um nível de Risco tão reduzido) 2uanto razoavelmente
alcançável, levando-se em conta fatores sociais e econômicos.
Risco Potencial: Risco Objetivo determinado para um sistema industrial sem
serem consideradas as ações técnicas de Seguridade efetivamente tomadas ao longo
do seu Ciclo de Vida;
Risco Residual: Risco Objetivo determinado para um sistema industrial
considerando-se as ações técnicas de Seguridade efetivamente tomadas ao longo do
seu Ciclo de Vida.
Risco Tolerável: Risco Subjetivo determinado a priori com base na filosofia dos
Princípios da Justificação e da Limitação, independendo das características específicas
de um sistema industrial particular; a justificação e a limitação não necessariamente
restringem-se às conseqüências radiológicas, podendo ser estendidas aos demais tipos
de conseqüências.
Risco Aceitável: Risco Subjetivo determinado a posteriori com base na filosofia
do Princípio da Otimização ou ALARA (As Low as Reasonable Achievable), 20e
depende das características específicas de um sistema industrial particular.
Gerenciamento de Riscos: aplicação prática da Seguridade 2ue visa tornar os
Riscos Objetivos Residuais de um Sistema Industrial em Riscos Subjetivos Aceitáveis
ao nível social e individual; sua ferramenta básica é a teoria de SDFSI/RAMS.
Pesquisa Naval Nº 15, Setembro de 2002
135
SDFSI/RAMS: num sentido amplo, constitui a Ciência das Falhas, i.e. identificação,
avaliação, previsão e controle de Falhas de um Sistema Industrial; num sentido estrito,
é entendida como a capacidade de um sistema cumprir com sucesso seus objetivos
precípuos ou missão, sem que ocorram Eventos Indesejados; além do conceito de
Seguridade, engloba os conceitos de Confiabilidade, Manutebilidade e Disponibilidade.
Confiabilidade: capacidade de um sistema cumprir uma função requerida, dentro
de condições preestabelecidas, durante um período de tempo determinado; pode ser
avaliada seja como Confiabilidade Operacional, resultante da observação e da análise
estatística do comportamento de sistemas idênticos dentro de condições pré-definidas,
ou como Confiabilidade Extrapolada, que resulta de uma extensão, feita com base em
hipóteses de extrapolação ou interpolação, da Confiabilidade Operacional de uma
entidade para intervalos de tempo ou condições diferentes, ou ainda como Confiabilidade
Previsional (ou Prevista), que estima a confiabilidade futura de um sistema a partir de
considerações sobre seu projeto e sobre a Confiabilidade Operacional e Extrapolada de
seus componentes.
Manutebilidade: capacidade de um sistema ser mantido no (ou restabelecido ao)
estado de cumprir uma função requisitada, quando atividades de manutenção são
realizadas dentro de condições preestabelecidas, seguindo um conjunto de
procedimentos e meios previamente prescritos; estas atividades podem ser de
Manutenção Preventiva, realizadas segundo um planejamento preestabelecido, baseado
no histórico de operação do sistema, visando evitar a ocorrência de uma falha, de
Manutenção Preditiva, realizadas no momento em que uma variável de processo do
sistema monitorada atinge um valor crítico preestabelecido, visando restabelecer o
funcionamento normal antes que o mesmo se degrade a um nível de Falha, e de
Manutenção Corretiva (ou Reparo), realizadas após a ocorrência de uma Falha, visando
restabelecer suas condições de funcionamento normal.
Disponibilidade: capacidade de um sistema estar, num instante determinado e
dentro de condições preestabelecidas, em estado de cumprir uma função requisitada;
pode ser avaliada como: Disponibilidade Instantânea (ou Imediata), que corresponde
à definição propriamente dita, sendo condicionada pela Confiabilidade e permitindo a
um sistema evitar um Perigo; Disponibilidade Potencial (Prevista, Contínua ou
Estatística), que corresponde à capacidade do sistema funcionar de modo contínuo
durante um intervalo de tempo determinado, considerando seu estado inicial,
condicionada também pela Manutebilidade; e Disponibilidade Pós-Acidental,
correspondendo à Capacidade de Sobrevivência do sistema, i.e. à capacidade do sistema
continuar a desempenhar suas funções, ainda que de forma degradada ou parcial,
após uma Falha Grave que tenha afetado algumas de suas partes.
136
Pesquisa Naval Nº 15, Setembro de 2002
Formulação do modelo
As definições previamente apresentadas devem ser formuladas em termos
matemáticos para permitir a avaliação quantitativa dos parâmetros de segurança de um
sistema, essencial para um efetivo gerenciamento de riscos.
Sejam:
Ω Espaço de estados do Sistema Industrial
Ωi | i=1, I Estados finais decorrentes dos Cenários Acidentais do Sistema
Industrial, enumerados de i=1 a I, e onde Ω ⊃ Ω i
Cj| j=1, J Tipos de conseqüências indesejadas que estão associadas ao
estado Ωi, enumeradas de j=1 a J
Gij
Gravidade da conseqüência Cj para o estado Ωi
εin| n=1, N Eventos Indesejados que inicializam um Cenário Acidental do
Sistema Industrial, enumerados de n=1 a N para cada estado
Ωi.
O Perigo Π decorrente do funcionamento do Sistema Industrial no seu espaço
de estados Ω será formulado então pela expressão que se segue, como o somatório das
gravidades G ij de cada estado acidental Ω i, considerando todos os tipos de
conseqüências Cj dele decorrente.
Π = [Σj (Σi Gij)]
{a}
O dimensional do Perigo Π é o mesmo das Gravidades Gij que avaliam
quantitativamente as conseqüências de diferentes naturezas {Cj}. Conclui-se então
que, para medir-se Π é necessário normalizar-se as Gravidades numa mesma base
dimensional. As potenciais conseqüências indesejáveis de um Sistema Industrial
possuem diversas incidências sobre seres humanos, eco-sistemas, bens e propriedades,
o que torna tal tarefa de normalização particularmente complexa, dificultando a avaliação
de Π pela expressão {a} anteriormente apresentada.
O procedimento convencional para avaliação quantitativa de Π é reduzir-se
cada uma das Gravidades a uma base monetária. Este procedimento, entretanto, é
vulnerável a críticas de ordem ética e moral quando aplicado a valoração da saúde ou de
perdas humanas. Por outro lado, o conjunto {Ωi} dos estados finais dos Cenário
Acidentais verossímeis de um Sistema Industrial, apesar de ser finito, no caso geral é
não-enumerável, o que constitui uma outra dificuldade para avaliação de Π pela expressão
{a}.
A quantificação de Π feita para um único Ωi=1 e para uma única classe de
conseqüências Cj=1. seria dada pela expressão abaixo:
Π = Giji=1,j=1 = g
{b}
Pesquisa Naval Nº 15, Setembro de 2002
137
A Função Densidade de Probabilidade FDP p do Evento Indesejado εin é
determinada pela expressão a seguir, como o valor limite xn da Função Repartição (ou
Distribuição) de Probabilidade FRP P de uma variável aleatória Xn que caracteriza sua
ocorrência durante um intervalo de tempo t = {0, T}. Note-se que a FRP de Xn corresponde
a integral da FDP de Xn .
p(εin)|0,T = p(Xn>xn) )|0,T = P(xn) )|T
{c}
No caso do evento εin representar uma falha durante o funcionamento no
intervalo t={0, T}, a Confiabilidade Previsional R do sistema com respeito a este evento
é formulada pela expressão que se segue, como o complemento de sua probabilidade de
ocorrência neste intervalo.
R = [1- p(εin)|t=0,T] = [1- p(Xn>xn)| t=0,T] = [1 - P(xn)| t=T]
{d}
No caso do evento εin representar uma indisponibilidade na partida ou
funcionamento intempestivo no instante t = T, a Disponibilidade Instantânea A do
sistema com respeito a este evento é formulada pela expressão abaixo como o
complemento da sua probabilidade de ocorrência neste instante.
A = [1- p(εin)| t=T] = [1- p(Xn=xn)| t=T]
{e}
O Risco Objetivo ℜ decorrente do funcionamento do Sistema Industrial no
seu espaço de estados Ω durante um intervalo de tempo T será formulado então pela
expressão a seguir como o somatório, percorrendo todos os i=1,I Estados Finais
associados aos Cenários Acidentais, os n=1,N Eventos Indesejados associados a
cada Estado Final, e os j=1,J Tipos de Conseqüências consideradas para cada Estado
Final, do produto da Gravidade Gij pela FRP de xn. Esta modelagem do Risco como
produto da Gravidade pela Probabilidade denomina-se Modelo da Expectância Linear
das Conseqüências e é expresso por:
ℜ = Σj {Σi [Σn P(xn)T . Gij]}
{f}
O dimensional de ℜ será então Gravidade por unidade de tempo. As
dificuldades apontadas para avaliação de Π pela expressão [1] repetem-se para a avaliação
de ℜ pela expressão [6], acrescida a uma nova: o caráter finito porém não enumerável de
εin.
Pode-se quantificar ℜ para um único Estado Final Ωi=1= Ω, um único Evento
Indesejado εi=1,n=1 = ε e para uma única conseqüência Cj=1 = C, como mostrado abaixo.
Note-se que a FRP de xn em t=T, neste caso, corresponde à FDP do Evento
Indesejado ε em t={0, T}, que por sua vez corresponde à FDP da Gravidade Giji=1,j=1 =
g no mesmo intervalo de tempo.
ℜ = P(xn)|t=T . g = p(g)|t=0,T . g.
{g}
138
Pesquisa Naval Nº 15, Setembro de 2002
Neste caso simplificado, a área sob a curva da FDP da Gravidade Gij = g em
t={0,T}, dada por p(g)|t=0,T, plotada num gráfico (Probabilidade x Gravidade) representa
o Risco Objetivo de um Sistema Industrial. Este gráfico, p = p(g), é utilizado para
determinação de um indicador sintético (escalar) denominado Gravidade Média µG das
conseqüências do funcionamento de um Sistema Industrial, formulado pela expressão
abaixo como o produto da Gravidade g pela sua FDP. Note-se que a gravidade é
geralmente representada sob forma descontínua, i.e. como k níveis de gravidade.
µG = ∫ g. p(g) dg = Σk [gk . p(gk)
]
{h}
Ainda para este caso simplificado, a área sob a FRP da Gravidade Gij=g em t =
T, dada pela integral da FDP da Gravidade entre t={0, T}, plotada num gráfico
(Probabilidade x Gravidade) também representa o Risco Objetivo de um Sistema
Industrial. Esta representação gráfica, P = P(g), denominado Diagrama de Farmer, é
utilizada para determinação de outro indicador sintético (escalar) denominado Risco
Médio µR das conseqüências do funcionamento de um Sistema Industrial, formulado a
seguir como o produto da Gravidade g pela sua FRP, i.e. a área sob a curva P = P(g).
Note-se que neste gráfico a gravidade também é representada sob forma descontínua,
i.e. como k níveis de gravidade.
µR = ∫ g .[ ∫ p(g) dg] dg = ∫ g . P(g) dg = Σk [gk .P(gk)]
{i}
Pode-se utilizar indiferentemente a Gravidade Média ou o Risco Médio como
figuras de mérito, dado que existe uma relação direta entre os dois:
A partir de um intervalo de definição dos níveis de Gravidade [g0, g1, ... , gk],
determina-se a gravidade média µG calculando-se o baricentro das Gravidades
ponderadas pelos respectivos valores da FDP [p0, p1, ... , pk].
µG = Σk (gk . pk)
{j}
No cálculo do risco médio, a ponderação das Gravidades é feita pela FRP:
µR = Σk (gk . Σ l=k,K pl) = µG +(Σk gk . Σ l=k+1,K pl)
{k}
A figura a seguir apresenta um exemplo de Diagrama de Farmer, onde existem
três níveis descontínuos de riscos. A Gravidade Média e o Risco Médio seriam então
determinados por:
µG= Σk µGk = Σk [gk . p(g=gk)] = Σk (gk . pk)
µR= Σk µRk = Σk [gk . p(g≤gk)] = Σk (gk . Pk)
µG= (g1 . p1 + g2 . p2 + g3 . p3) = 3 . 10-3
µR=[ g1 . p1 +( g2 + g1). p2 +( g3 + g2 + g1). P3] = 3,21 . 10-3
{l}
{m}
{n}
{o}
Pesquisa Naval Nº 15, Setembro de 2002
139
FDP
1.1
1
10-4
10-5
10-6
GRAVIDADE
0
10
100
1000
Diagrama de Farmer
O Risco Médio dá um peso maior às gravidades mais severas do que à gravidade
média. Com efeito, entre duas distribuições de mesma gravidade média, a diferença
entre os respectivos riscos médios objetivos será tanto maior quanto maiores forem as
probabilidades associadas às gravidades mais intensas. Este efeito é ainda mais notável
quanto maior for a gravidade média. Sob este ponto de vista, o Risco Médio coincide
melhor com a percepção social do Risco Subjetivo, decorrente de um maior peso dado
aos eventos graves.
A formulação do Risco Subjetivo ℜ* é baseada em Modelos de Expectância
Não-Linear de Conseqüências, de natureza fundamentalmente empírica, pois envolvem
fenômenos de origem social e psicológica. Estes modelos podem ser expressos de
forma genérica, sendo ƒ uma função não linear, i.e. diversa do simples produto da
Probabilidade pela Gravidade.
ℜ* = ƒ [P(ε), G]
{p}
A abordagem mais corrente para o desenvolvimento destes modelos são os
estudos sociais de disposição a pagar (willingness to pay) desenvolvidos em alguns
países. Deve-se ressaltar que os modelos derivados deste tipo de abordagem são
restritos a um grupo social bem definido e a uma época determinada, não sendo válida,
a priori, sua transposição para contextos diferentes do original.
140
Pesquisa Naval Nº 15, Setembro de 2002
A Segurança (ou Seguridade) Objetiva S do funcionamento do Sistema
Industrial no seu espaço de estados Ω será formulado pela expressão a seguir como o
inverso do Risco Objetivo, tendo a dimensão de Tempo por unidade de Gravidade.
S =1/ℜ
{q}
Dentro deste formalismo, para um único Estado Final Ωi=1 = Ω e uma única
incidência de conseqüências Cj=1 = C, S pode ser determinado pelo período de retorno
Tr de um determinado valor limite xn da FRP de uma variável aleatória Xn que caracteriza
a ocorrência do evento εn.
S = Tr (xn) = 1 / [1 – P (xn)]
{r}
A partir de {e}, pode-se deduzir ℜ como o valor da FDP p de observar no
período de tempo t= {0, T} um Evento Indesejado εin com período de retorno Tr.
ℜ = p(Xn>xn) = 1–[p(Xn<xn)t=0,T] = 1–[P(xn)t=T] = 1–{1–[1/Tr(xn)]}
{s}
Para xn suficientemente grande, determina-se p(Xn>xn) resolvendo-se a expressão
{s}, onde P (xn) é a FRP da variável aleatória Xn .
ℜ = p (Xn > xn) = 1 – [P (xn)]1/T
{t}
Para xn e Tr suficientemente grandes, a expressão [17] se simplifica, chegandose a:
ℜ = p (Xn>xn) = 1 – e(T/Tr) = T/Tr
{u}
A Disponibilidade Pós-Acidental A* é formulada pela expressão [18] como a
probabilidade do sistema, estando em um Estado Final Ωi decorrente de um Cenário
Acidental, retornar a um Estado Final Ω seguro devido a ocorrência de um Evento
Desejado ε*in dentro do intervalo t = {T,T+∆t}. A probabilidade p(ε*in) é determinada
pelo valor limite x*p da função repartição de probabilidade P de uma variável aleatória
X*n que caracteriza sua ocorrência durante o intervalo t = {T,T+∆t}.
A* = p(ε*in)T+∆t = p(X*n > x*p) T+∆t = P(x*p) T+∆t
{v}
Note-se que, para um mesmo conjunto {ε in}, S confunde-se com a
Disponibilidade Potencial Â. Entretanto, Â é em geral definida para um conjunto de
eventos operacionais mais abrangente, nem todos conduzindo a uma situação de Perigo
Ωi. Da mesma forma, considerando-se um conjunto de Ωi não necessariamente associados
a situações de Perigo, para um mesmo {ε*in}, A* confunde-se com a Manutebilidade
Corretiva M.
Limites Superiores de Riscos
A aceitabilidade social de uma instalação industrial perigosa depende da
intensidade dos riscos para os trabalhadores, as populações vizinhas e o meio ambiente
Pesquisa Naval Nº 15, Setembro de 2002
141
em geral. Admitindo-se que os riscos são quantificáveis de acordo com as formulações
apresentadas, torna-se necessário fixar-se limites superiores a estes riscos com o objetivo
de determinar-se a envergadura das ações de segurança requeridas para o seu efetivo
gerenciamento.A definição destes limites ao nível normativo e regulamentar é uma
atividade que ultrapassa a área estritamente técnica, envolvendo uma série de
considerações de ordem social e política. Apesar das dificuldades associadas a esta
definição, alguns países têm determinado formalmente tais limites.
Analisando os estudos e práticas dos países europeus sobre o tema [2], são
propostos os seguintes limites:
Limite superior para a probabilidade de ocorrência de um acidente que implique
na morte de um trabalhador: 10-2 / ano / trabalhador
Limite superior de risco coletivo ocupacional voluntário ao qual os
trabalhadores da instalação são submetidos durante suas atividades profissionais:
10-2 mortes / ano
Limite superior para a probabilidade de ocorrência de um acidente que implique
na morte de um indivíduo na vizinhança da instalação: 10-3 / ano / indivíduo;
Limite superior de risco coletivo involuntário ao qual as populações nas
vizinhanças da instalação são submetidos: 10-3 mortes / ano
Adaptando-se estes limites às formulações anteriores teríamos, a partir de
{j}, para uma gravidade gk igual ao número k de mortes:
risco individual ocupacional:
risco coletivo ocupacional:
risco individual público:
risco coletivo público:
(g1 . p1) ≤ 10-2 mortes / ano
µG = Σk (gk . pk) ≤ 10-2 mortes / ano
(g1 . p1) ≤ 10-3 mortes / ano
µG = Σk (gk . pk) ≤ 10-3 mortes / ano
Note-se que estes limites são estabelecidos para uma única classe de
conseqüências, i.e. a probabilidade de morte de uma ou mais pessoas. Esta prática
decorre das inerentes dificuldades de aceitação social de uma escala de Gravidade
comum a diferentes classes de conseqüências. Estes limites não levam ainda em conta
os aspectos do Risco Subjetivo associado à aversão às catástrofes. Propõe-se, para
consideração deste aspecto, o limite abaixo formulado a partir de {k}, no qual c é uma
constante valendo entre (0,5;1). Numa primeira aproximação, c = 0,67 poderia ser
considerado para quantificação deste limite.
µR = Σk (1+c) . (gk Σl=k,K pl) ≤ 10-2 . c mortes / ano
Conclusões
O modelo de avaliação desenvolvido, do qual a Gravidade Média e o Risco
Médio constituem as figuras de mérito quantitativas mais significativas, permite a
aplicação objetiva do Princípios da Limitação e da Otimização ao Gerenciamento de
Riscos, estabelecendo parâmetros para comparações entre:
- diferentes sistemas industriais existentes;- diferentes configurações possíveis
para um sistema industrial em desenvolvimento ou em modificação;
- um dado sistema industrial, existente ou em desenvolvimento/modificação, e o
nível de Riscos Subjetivos Toleráveis determinado pela demanda social por Segurança.
A abordagem de comparação I acima constitui ferramenta básica para o
Gerenciamento de Riscos de um conjunto de sistemas, permitindo determinar uma política
de segurança a partir de priorização dos sistemas sobre os quais Ações de Segurança
devem ser tomadas. A abordagem II constitui ferramenta básica para o gerenciamento
de Riscos de um determinado sistema, permitindo avaliar a eficácia e eficiência das
Ações de Segurança. A abordagem III permite verificar a aceitabilidade social da
configuração atual de um sistema ou de um conjunto de sistemas.
Referências Bibliográficas
GUIMARÃES, L.S., Sintese de Doutrina de Segurança para Projeto e
Operação de Submarinos Nucleares, Tese de Doutorado, Escola
Politécnica da Universidade de São Paulo, São Paulo, 1999.
SMETS, H., Limites Supérieures des Risques Crées par les Installations
Dangereuses, Révue Préventique no. 43 (jan-fev/92), Paris, França, 1992.
XI
Capítulo
EMPREGO DE FERRITAS DE NI-ZN COMO ABSORVEDORES
DE MICROONDAS
CC(EN) Maria Luisa Gregori, CC(EN) Emilson Gonçalves Paulo,
1T(T) Tadeu Henrique dos Santos, Magali Silveira Pinho,
Roberto da Costa Lima e Júlio César dos Santos Leandro
Instituto de Pesquisas da Marinha (IPqM)
Resumo
Este trabalho teve como objetivo avaliar o desempenho de ferritas de Ni-Zn
(Ni-Zn2Fe2O4) em matrizes de policloropreno (CR), como materiais absorvedores de
microondas (RAMs). A eficiência destes materiais como RAMs foi avaliada através
do emprego de um guia de ondas, para as faixas de freqüência de 2,6-4,0 e 8,0-16,0
GHz.
O método utilizado nas medidas de refletividade (dB), foi baseado na
determinação dos valores de permeabilidade complexa (µr*) e de permissividade
complexa (εr*), a partir de dados de espalhamento, sendo conhecido como método
de Transmissão/Reflexão (T/R).
Abstract
The aim of this work was to investigate the performance of Ni-Zn ferrites
(Ni-Zn2Fe2O4) in polychloroprene matrices (CR) as radar absorbing materials
(RAMs) in a awaveguide medium for the frequency ranges of 2.6-4.0 and 8.0-16.0
GHz.
The reflectivity curves were obtained from the determination of the complex
permeability (µr*) and permissivitty (εr*), from scattering parameters. The technique
adopted was the transmission line, known as the Transmission/Reflection (T/R)
method.
144
Pesquisa Naval Nº 15, Setembro de 2002
1. Introdução
As cerâmicas ferrimagnéticas, isto é, as ferritas consistem de um grupo de
materiais magnéticos cujo interesse como RAMs tem intensificado nas duas últimas
décadas. O termo ferrita é normalmente empregado de maneira genérica, para descrever
uma classe de componentes óxidos magnéticos, contendo o óxido de ferro (Fe2O3)
como o principal constituinte [1-3].
As ferritas mais empregadas na área de microondas consistem do tipo
espinélio, podendo citar, como exemplo, a ferrita de Ni-Zn [1,4].
A estrutura cristalina das ferritas de espinélio é isomorfa com a do mineral
Mg2+Al3+2 O2-4. Quando o Al trivalente é substituído por Fe3+, obtém-se a ferrita de
magnésio (Mg2+Fe3+2O2-4). A magnetita (Fe3O4) é formada quando Mg divalente é
substituído por Fe2+. De uma maneira geral, qualquer íon metálico divalente (Ni, Zn,
Co, Mn, Cu, etc) pode ser substituído resultando na obtenção de ferritas de espinélio.
A unidade cúbica da célula contém 8 unidades de 16M3+1 e 8 cátions M2+2 [1,5].
A eficiência da absorção da radiação eletromagnética foi determinada através
de medidas de refletividade, utilizando-se um guia de ondas, com base no método de
Transmissão/Reflexão (T/R). Os gráficos de refletividade , explicitados em decibel (dB),
foram obtidos para as faixas de freqüência de 2,6-4,0 e 8,0-16,0 GHz, a partir da determinação
dos valores de permeabilidade complexa (µr*) e de permissividade complexa (εr*).
2. Procedimento Experimental
Materiais
O material magnético utilizado como carga no compósito com CR consistiu de
Ni-Zn2Fe2O4 adquirida comercialmente da Transtech. A borracha de policloro-preno
(Neoprene W, densidade = 1,2062 g/cm3 ; Mw= 440.000) foi utilizada como matriz. A
composição percentual em peso utilizada foi 80:20 de Ni-Zn2Fe2O4:CR.
Obtenção de Misturas Físicas com o Policloropreno
A mistura física de Ni-Zn2Fe2O4 com CR, com composição percentual em
peso 80:20 foi obtida através do emprego do misturador de cilindros Berstorff, à
temperatura ambiente, com velocidades de 22 e 25 rpm (dianteiro e traseiro). Utilizou-se
na etapa de moldagem por compressão uma prensa hidráulica à 150 °C e 6.7 MPa, de
acordo com os tempos de vulcanização determinados pelo Reômetro Monsanto TM
100. Amostras vulcanizadas foram obtidas com as dimensões de 7,62 x 3,81 x 0,15 cm e
4,00 x 4,00 x 0,15 cm para as medidas de refletividade (dB), para as faixas de freqüência
de 2,6-4,0 GHz e de 8,0-16,0 GHz, respectivamente.
Granulometria a Laser
O equipamento utilizado consistiu do analisador de tamanho de partículas por
difração a laser Mastersizer Microplus (MAF 5001) da Malvern Instrument.
Pesquisa Naval Nº 15, Setembro de 2002
145
Método de Transmissão/Reflexão (T/R)
A permeabilidade e permissividade complexas foram determinadas a partir de
dados de espalhamento, através do emprego do analisador vetorial de redes HP 8510,
que determinou as perdas de inserção e retorno em magnitude e fase de amostras
submetidas a teste (SUT, Sample Under Test), através da comparação entre o sinal
transmitido pela SUT e o refletido na sua entrada [6-7].
A utilização de diferentes faixas de freqüência acarreta no emprego de guias de
ondas com diferentes dimensões.
3. Resultados e Discussão
A Figura 1 ilustra a distribuição de tamanho de partículas para a amostra de NiZn2Fe2O4 analisada pela técnica de difração a laser.
Fig. 1-
Distribuição de tamanho de partículas para a Ni-Zn2Fe2O4 pela técnica de difração a
laser.
146
Pesquisa Naval Nº 15, Setembro de 2002
Através da técnica de difração a laser foi observada uma distribuição bem
ampla de tamanhos de partículas.
A Figura 2 apresenta as curvas de refletividade (dB) em função da freqüência
(GHz) para as composições percentuais em peso 80:20 de Ni-Zn2Fe2O4:CR.
Fig. 2-
Curvas de refletividade (dB) versus freqüência (a) de 2,6-4,0 GHz e (b) 8,0-16,0
GHz,paraascomposiçõespercentuaisem peso80:20 de Ni-Zn2Fe2O4:CR, com espessuras de 5,00
mm.
0
-5
Refletividade (dB)
-10
-15
(a)
-20
-25
-30
-35
-40
-45
2.6
2.8
3
3.2
3.4
freqüência (GHz)
3.6
3.8
4
0
-5
Refletividade (dB)
-10
-15
-20
-25
(b)
-30
-35
-40
-45
8
9
10
11
12
13
Freqüência (GHz)
14
15
16
Pesquisa Naval Nº 15, Setembro de 2002
147
Pelos resultados apresentados na Figura 2 pode ser observada uma absorção
de microondas superior a 90 % para a faixa de freqüência de 2,6-3,5 GHz.
4. Conclusão
O emprego de ferrita de Ni-Zn não dopada, do tipo espinélio, em matriz de CR
com composição percentual em peso 80:20 de Ni-Zn2Fe2O4:CR, apresentou um bom
desempenho como RAM, para a faixa de freqüência de 2,6 a 3,5 GHz, em relação a faixa
de 8,0-16,0 GHz.
Agradecimentos: À equipe do Laboratório de Sistemas Particulados da
Coordenadoria de Programas de Pós-Graduação em Engenharia (COPPE/UFRJ) pela
análise no granulômetro a laser.
5. Referências Bibliográficas
M. PARDAVI-HORVATH, “Microwave Applications of Soft Ferrites”, J. Magn.
and Mag. Mat., 215-216, pp. 171-183, 2000.
REYNOLDS, T. G. E BUCHANAN R. C., “Ferrite (Magnetic) Ceramics”. Em:
Ceramic Materials for Electronics- Processing, Properties and Applications,
Buchanan, R. C., Marcel Dekker, Inc., New York, 1986, capítulo 4, pp. 227264.
LAX, B. E BUTTON, K. J., Microwave ferrites and ferrimagnetics, McGraw-Hill
Book Company, Inc, New York, 1962.
S. G. ABARENKOVA, V. I. IVANOVA, V. N. KARPOV, A. A. KITAIZEV AND L.
K. MICHAILOVSKY , “Resonance Properties of mountfrom Gyromagnetic
Particles”, Vth International Conference on Microwave Ferrites, Proc. Vilnus,
USSR, 170-174.
L. STUIJTS, “Sintering of Ceramic Permanent Magnetic Material”, Trans. Brit.
Ceram. Soc., vol.55, pp. 57-74, 1956.
J. BAKER-JARVIS, “Transmission/reflection and short-circuit line methods for
measuring permittivity and permeability”, NIST Techn. Note 1355-R.
J. L. WALLACE, “Broadband Magnetic Microwave Absorbers: Fundamental
Limitations”, IEEE Trans. Magn., vol. 29, pp. 4209-4214, 1993.
Centro de Análises de Sistemas Navais
SEGURANÇA DA INFORMAÇÃO
Entende-se que a informação e o conhecimento são os maiores patrimônios de
organizações modernas e diretamente ligadas com tecnologia. Com a disponibilidade de recursos
como a WWW e outros meios de comunicação, informações podem ser trocadas com maior
velocidade em qualquer lugar do globo. Por outro lado, quanto mais ampla a quantidade de
informações transitando, maior deve ser a preocupação em preservá-las.
Cada vez mais, a segurança da informação é considerada fator de força na preservação
do patrimônio das organizações. A equipe de Segurança da Informação e Criptologia do CASNAV
possui metodologia própria que garante projetos sob medida para as necessidades de cada cliente,
estando capacitada para a realização dos seguintes trabalhos:
1. Substituição da criptografia nativa de VPN dos Centros de Comando do SISNC2 por
criptografia militar;
2. Substituição da criptografia nativa do ambiente de “workflow” Lotus Notes por criptografia
militar em sistemas como o SIGDEM;
3. Desenvolvimento de sistemas criptográficos, alguns distribuídos para todas as organizações
militares da Marinha, tais como: Tousor Windows, MBNet, SEANet, ESCROW-II,
OLIMPUS Windows;
4. Elaboração de listas de segurança para ambientes computacionais. Entre esses cita-se:
NOVELL Netware, LINUX, e Windows NT; e
5. Desenvolvimento de novos modelos matemáticos.
Centro de Análises de Sistemas Navais
Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro
3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil
Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332
e-mail: [email protected]
XII
Capítulo
AVALIAÇÃO DO DESEMPENHO DE MATERIAIS ABSORVEDORES DE
MICROONDAS POR GUIA DE ONDAS ATRAVÉS DOS FATORES DE
DISSIPAÇÃO DIELÉTRICA E MAGNÉTICA
Magali Silveira Pinho1,2, Júlio César dos Santos Leandro1,
CC(EN) Maria Luisa Gregori 1, Regina Célia Reis Nunes2 e
Bluma Guenther Soares 2
1
Instituto de Pesquisas da Marinha (IPqM)
Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ)
2
Resumo
Este trabalho tem por objetivo avaliar a influência dos fatores de dissipação,
representados pelas perdas dielétricas e magnéticas (tan δε and δµ, respectivamente)
sobre as medidas de refletividade de materiais absorvedores de microondas (RAM).
A matriz elastomérica utilizada foi o policloropreno. A eficiência destes materiais
como RAM foi avaliada através do emprego de um guia de ondas, para a faixa de
freqüência de 8,00 a 16,00 GHz. O método utilizado nas medidas de refletividade
(dB), baseia-se na determinação dos valores, relativos ao vácuo, de permeabilidade
complexa (µr*) e de permissividade complexa (εr*), a partir de dados de espalhamento,
sendo conhecido como método de Transmissão/Reflexão (T/R).
Abstract
In this work, the influence of the dissipation factors represented by the
dielectric and magnetic losses (tan δε and δµ, respectively) on the reflectivity
measurements was investigated. The elastomeric matrix was chloroprene rubber.
150
Pesquisa Naval Nº 15, Setembro de 2002
The performance of these materials as microwave absorbers was evaluated in a
waveguide medium for frequencies from 8.00 to 16.00 GHz. The method adopted to
measure the complex permeability (µr*) and complex permittivity (εr*) from scattering
parameters, related to free-space, was the transmission line technique known as the
Transmission/Reflection method (T/R).
1. Introdução
O emprego de diferentes tipos de cargas absorvedoras de microondas em
diversas matrizes poliméricas têm constituído tema de alguns centros de pesquisas,
envolvidos com a tecnologia de invisibilidade ao radar (“Stealth Technology”). Os
materiais escolhidos para serem utilizados como cargas absorvedoras de microondas
consistem de ferrocarbonila (CI) e de hexaferrita de bário dopada com cobalto e titânio
(Co-TiBaHF) [1,5].
A escolha de policloropreno (CR) como matriz elastomérica foi decorrente de
suas propriedades que incluem excelente resistência ao enve-lhecimento, água, óleo e
ozônio, possibilitando sua aplicação para fins navais [6].
A dispersão destes materiais em matrizes constitui um fator determinante,
posto que para estas cargas magnéticas, normalmente são requeridas elevadas
concentrações em peso, para que seja observado um bom desempenho como um
RAM. A microscopia eletrônica de varredura (SEM) constitui uma técnica poderosa
para o estudo morfológico e visualização da dispersão destes materiais.
Tem aumentado, nos últimos anos, o interesse por medidas acuradas de
propriedades elétricas e magnéticas, para diferentes tipos de materiais na freqüência
de microondas. As principais técnicas incluem os métodos em câmara anecóica [7] e de
linhas de transmissão [8]. A técnica a ser utilizada para as medidas de permeabilidade
e permissividade, baseia-se nas linhas de transmissão, sendo conhecida como método
de transmissão/refexão (T/R) [9, 10] e realizada em guia de ondas. Através dos dados
obtidos, pode ser avaliado o nível de refletividade do material, de forma comparativa
com um padrão pré-estabelecido. Este método apresenta como vantagem a utilização
de pequena quantidade de amostra em relação à norma MIL-A-17161D [11].
Os materisia utilizados como absorvedores de microondas devem apresentar
perdas magnéticas e dielétricas. O modo pelo qual estas perdas variam com a freqüência
é responsável pela performance do absorvedor [12].
O objetivo deste trabalho consiste na avaliação do efeito dos fatores de
dissipação representados pelas perdas dielétricas e magnéticas (tan δε and δµ,
respectivamente) sobre as medidas de refletividade em guia de ondas.
2. Experimental
Materiais
O ferrocarbonila (CI, carbonyl-iron da BASF) e o policloropreno (CR)
(Neoprene W da Du Pont, densidade= 1,2062 g/cm3 ; Mw= 440.000) foram utilizados
Pesquisa Naval Nº 15, Setembro de 2002
151
como adquiridos.
A hexaferrita de bário dopada com cobalto e titânio (Co-TiBaHF, densidade
=5,2722 g/cm3) foi obtida pela técnica de mistura no estado sólido [4,6].
Os produtos de partida utilizados com elevado grau de pureza (superior a 99
% ) consistiram de BaCO3, TiO2, MnCO3, Fe2O3 e Co3O4. As misturas físicas foram
realizadas em moinho de bolas utilizando esferas de Y-TZP por um período de 24 h e,
posteriormente, calcinadas a 1200 °C por 2 h. O produto estequiome-tricamente obtido
consistiu de BaFe10,20Co0,85Ti0,85Mn0,10O19. A razão ponderal de CoTi-BaHF:CR utilizada
foi 80:20 (% peso).
Obtenção dos Compósitos com o Policloropreno
As cargas com composição percentual em peso de 80% foram individualmente
misturadas em adição aos agentes de vulcanização com o CR.
As misturas físicas (blendas) foram realizadas em um misturador de cilindros
Berstoff à temperatura ambiente e com velocidades de 22 e 25 rpm (anterior e posterior),
de acordo com os procedimentos clássicos empregados pela indústria de borracha. As
blendas foram moldadas por compressão a 150 °C e 6,7 MPa. Os corpos de prova foram
obtidos sob a forma de tapetes vulcanizados, com as dimensões (4,0 x 4,0 cm) e espessura
de 0,15 cm.
Estudo Morfológico
A observação micromorfológica das amostras sob a forma de pó foi realizada
através do emprego de um microscópio eletrônico de varredura (SEM) da Zeiss, Mod.
DSM-960. A superfície de fraturas crioscópicas foi analisada pelo equipamento Leica
Mod S440, ambos utilizaram o detetor de elétrons secundários.
Medidas de Condutividade
As medidas de condutividade elétrica superficial (S/cm) foram realiza-das, pelo
método padrão de 4 pontas, através do emprego de um eletrômetro Keithley 617. Todas
as medidas foram realizadas à temperatura ambiente com 50 % de umidade relativa.
Medidas de Refletividade em Guia de Ondas
As medidas de absorção da radiação eletromagnética foram realizadas em guia
de ondas, a partir de dados de espalhamento, obtidos através do empre-go de um
analisador vetorial de rede HP 8510B. As equações que relacionam os dados de
espalhamento com a permeabilidade e permissividade do material seguem o algoritmo
de Nicolson-Ross-Weir (NRW) [9]. Embora as medidas de absorção da radiação
eletromagnética sejam expressas em termos dos valores de Refletividade (R, dB), tornase importante colocar que a absorção e a Refletividade de materiais relacionam-se através
de uma escala logarítmica [8,10].
152
Pesquisa Naval Nº 15, Setembro de 2002
3. Resultados e Discussão
A Tabela 1 ilustra os valores de condutividade superficial para as amos-tras
prensadas sob a forma de pós e para os compósitos elastoméricos à base de CR.
Tabela 1:
Condutividade superficial (S/cm) para as amostras sob a de pós e para os
compósitos elastoméricos à base de CR.
AMOSTRA
Condutividade
Superficial (S/cm)
CR
2,5 x 10-12
CI
4,4 x 102
Co-TiBaHF
8,5 x 10-12
CI/CR (80:20)
8,9 x 10-11
Co-TiBaHF/CR (80:20)
1,2 x 10-12
A condutividade superficial para a composição 80/20 de CI/CR foi indicativa
de um sistema não percolativo, posto que uma elevada composição percentual em
peso referente a 80 % da carga condutora de CI foi empregada e o compósito elastomérico
resultante (CI/CR) apresentou um caráter isolante, próximo ao valor correspondente
ao meio dielétrico (CR).
Análise Morfológica por SEM
As Figuras 1 e 2 ilustram as morfologias de CI e Co-TiBaHF, respec-tivamente,
analisadas sob a forma de pós, com os respectivos aumentos utilizados.
Fig. 1: Imagem de CI analisada sob a forma de pó com aumento de 5.000 x.
Pesquisa Naval Nº 15, Setembro de 2002
153
Através de análise micromorfológica ilustrada pela Figura x, pôde ser observada
uma morfologia esférica para as partículas de CI.
Fig. 2:
Imagens de Co-TiBaHF analisada sob a forma de pó, com aumentos de 2.500
x para (a) e de 17.500 X para (b).
(a)
(b)
Através da Figura 2 (b) pôde ser observada uma morfologia hexagonal para a
Co-TiBHF, além da tendência deste material de formar aglomerados, conforme ilustrado
pela micrografia 2 (a). Torna-se relevante colocar que a não formação de aglomerados
por parte de CI pode ser atribuída à esfericidade das partículas.
A Figura 3 ilustra a dispersão de (a) CI e (b) de Co-TiBaHF na matriz de CR,
para as composições percentuais em peso 80:20.
Fig. 3: Imagens dos compósitos de (a) CI/CR e (b) Co-TiBaHF/CR (80/20, %
em peso) com aumento de 1.500 x.
(a)
(b)
154
Pesquisa Naval Nº 15, Setembro de 2002
Pelos resultados apresentados pelas Figuras 3 (a) e (b) pôde ser visualizada
através de SEM uma boa dispersão e individualização das partículas de CI e CoTiBaHF na matriz de CR. Torna-se relevante mencionar a importância de tal
comportamento, uma vez que foram utilizados elevados carregamentos em adição à
tendência das partículas de Co-TiBaHF para a formação de aglomerados.
Medidas de Refletividade
Os resultados referentes às medidas de refletividade encontram-se ilustrados
pelas Figuras 4 (a)-(c) para as composições percentuais em peso 80/20 de CI/CR e CoTiBaHF/CR, com espessuras de 1,50 mm. Estas foram comparadas com a composição
isenta de carga (0/100).
Fig. 4: Medidas de refletividade (dB) em função da freqüência (GHz) para os compósitos
com CR (% em peso) (a) isento de carga (0/100), (b) 80/20 de CI/CR e (c) 80/20 de Co-TiBaHF/
CR, com espessuras de 1,5 mm.
(a)
Pesquisa Naval Nº 15, Setembro de 2002
155
(b)
(c)
Conforme os resultados apresentados pela Figura 4, pôde ser observado um
melhor desempenho como um absorvedor de microondas para a faixa de freqüência de
8,00-10,00 GHz para a compósito de CI/CR enquanto Co-TiBaHF/CR absorveu em
freqüências mais elevadas.
Os fatores de dissipação, representados pela perda dielétrica (tan δε) e
156
Pesquisa Naval Nº 15, Setembro de 2002
magnética (tan δµ) encontram-se apresentados pelas Figuras 5 e 6, respectivamente.
Fig. 5: Perdas dielétricas (tan δε) em função da freqüência para as composições
percentuais em peso 80/20 de CI/CR e Co-TiBaHF/CR, com espessuras de 1,50 mm.
Pelos resultados apresentados pela Figura 5, o fator de perda dielétrica para
ambas as composições 80/20 de CI/CR e Co-TiBaHF/CR permaneceu praticamente
constante para a faixa de freqüência de 8,00 até praticamente 13,00 GHz, assumindo um
valor de, aproximadamente, 0,05 para CI/CR, superior ao valor de 0,03 obtido para CoTiBaHF/CR. Um aumento das perdas dielétricas foi observado para as freqüências
mais elevadas, com valores ainda mais altos sendo mantidos para o CI/CR. Segundo
Koops, as propriedades dielétricas de Co-TiBaHF/CR podem ser atribuídas à estrutura
heterogênea hexagonal de hexaferritas consistindo de grãos com baixos valores de
condutividade, separados por uma matriz elastomérica isolante(CR) [13].
Em relação ao compósito de CI/CR, os valores mais elevados para a tan δε
podem ser atribuídos às partículas esféricas de CI, finamente divididas e altamente
condutoras. Conforme descrito anteriormente, apesar de CI constituir uma carga
condutora, este atua como um sistema não percolativo com o CR para as composições
utilizadas. Como resultado ambas as composições 80:20 apresentam um caráter isolante,
embora o compósito de CI/CR tenha apresentado um aumento de uma ordem de
grandeza no valor de condutividade superficial em relação ao compósito de Co-TiBaHF/
CR.
Pesquisa Naval Nº 15, Setembro de 2002
157
Fig. 6: Perdas magnéticas (tan δµ) em função da freqüência para as
composições percentuais em peso 80/20 de CI/CR e Co-TiBaHF/CR, com espessuras
de 1,50 mm.
Conforme o resultado apresentado pela Figura 6, a perda magnética (tan δµ)
para a composição 80/20 de CI/CR permaneceu praticamente constante, assumindo o
valor de, aproximadamente, 0,60 para a faixa de freqüência de 8,00–14,00 GHz. Para o
compósito de Co-TiBaHF/CR foi observado um aumento dos valores de tan δµ para
freqüências até 14,00 GHz, atingindo o valor superior de 0,55. A presença do pico é
devida à ressonância magnética natural das Co-TiBaHF. Para ambos os compósitos foi
observado um decréscimo destes valores para freqüências mais elevadas [14,15].
4. Conclusões
Através da análise de SEM pode ser concluído que compósitos elastoméricos
à base de CR podem ser obtidos devido a boa dispersão e individualização das partículas
de CI e de Co-TiBaHF, apesar do elevado carregamento, correspondente a 80 % em
peso, e da tendência das partículas de Co-TiBaH de formarem aglomerados.
O compósito 80/20 de CI/CR atuou como um ótimo absorvedor de microondas,
com valor limite de refletividade de, aproximadamente, –40 dB, para a faixa de freqüência
de 8,00-10,00 GHz.
O compósito 80/20 de Co-TiBaHF/CR apresentou um melhor desempenho para
freqüências mais elevadas.
No que tange as propriedades dielétricas, ambos os compósitos apresentaram
um comportamento isolante, sendo que os valores mais elevados para a tan δε
observados para o CI/CR podem ser atribuído ao caráter condutor das partículas
esféricas de CI. A esfericidade das partículas de CI resultou na obtenção de um sistema
não percolativo.
Para o compósito de Co-TiBaHF/CR, a perda magnética (tan δµ) apresentou
um aumento de 0,15, para freqüência de 8,00 GHz, ao valor limite de 0,55, indicativo da
ressonância destes materiais para a faixa de freqüência de 12,00-15,00 GHz, responsável
pela absorção de microondas.
5. ReferênciasBibliográficas
BARTON D. K. Target detection. In: Radar Evaluation Handbook, Artech
House. New York, 1998. p. 55.
KNOTT E. F. SHAEFFER J. F. AND TULEY M. T. Radar absorbing materials.
In: Radar Cross Section, Artech House. New York, 1985. p. 320.
CARVALHO A. GREGORI M. L. and CHAMBERS B. Microwave and Optical
Technology Letters 1997;16 (6):393.
SMITH F. C. CHAMBERS B. AND BENNETT J. C. IEE Proc. Sci. Meas.
Technol. 1994;141:538.
EMERSON W. H. IEEE Trans. on Antennas and Propagation AP-21
1973;4:484.
PINHO M. S. DEZZOTI M. M. GORELOVA M. M. AND SOARES B. G. J.
Appl. Polym. Sci. 1999;71:2329.
SMITH F. C. CHAMBERS B. E. BENNETT J. C. IEE Proc. Sci. Meas. Technol.
1994;141, 6, 538-546.
QUEFFLEC P. GELIN P. GIERALTOWSKI J E. LOAEC J. IEEE Trans.
Magn.1994;30, 2, 224-230.
NICHOLSON A. M. AND ROSS G. IEEE Trans. Instrum. Meas. 1970;IM19:377.
BAKER-JARVIS J. NIST Tech. Note 1993;1355-R:40.
MILITARY SPECIFICATION, MIL-A-17161D, “Absorber, Radio Frequency
Radiation (Microwave Absorbing Material), General Specification for”,
1985.
BIGG D. M. Polym. Engng. Sci. 1997;17: 842.
KOOPS C. G. Phys. Rev. 83,121 (1951)
JANA P. B. MALLICK A. K. and DE S. K. Composites 1991;22:451.
MUSCH R. ROHDE E. and CASSELMANN H. KGK Kautschuk Gummi
Kunststoffe 1996;5:340.
Agradecimentos
Os autores agradecem ao Centro de Tecnologia Mineral (CETEM) pelas
análises de SEM das amostras sob a forma de pó.
XIII
Capítulo
NOVA METODOLOGIA PARA A ESTIMATIVA DA
COBERTURA DE NUVENS
S. L. Mantelli Neto M.Sc.
Laboratório de Energia Solar, Departamento de Engenharia Mecânica,
Universidade Federal de Santa Catarina,
A.V. Wangenhein Dr. Rer. Nat.
Laboratório de Integração Software-Hardware, Departamento de Informática e Estatística,
Universidade Federal de Santa Catarina,
E. B. Pereira Ph.D.
Departamento de Geofísica Espacial, Instituto Nacional de Pesquisas Espaciais.
Resumo
Este trabalho apresenta um estudo para aumentar a precisão da estimativa
da cobertura de nuvens a partir da superfície. O trabalho foi implementado utilizando
uma câmera de superfície, programas de processamento de imagens, uma rede neural,
um modelo atmosférico físico, dados de superfície e algoritmos de segmentação por
difusão anisotrópica. O presente estudo concluiu que a estimativa de nuvens no céu
não pode ser interpretada na forma binária ou escala linear. Tal abordagem pode
induzir a erros nos sistemas de identificação automatizados por causa dos fenômenos
atmosféricos como espalhamento Mie e a turbidêz atmosférica, superestimando o
valor real da cobertura de nuvens.
Abstract
This work presents a study to increase the precision of determination of
cloud coverage from surface. To achieve that, we used pictures from a low cost
camera, specially developed image processing programs, a neural network
160
Pesquisa Naval Nº 15, Setembro de 2002
application, a physical atmospheric model, surface data and an anisotropic diffusion
algorithms. The study concluded that cloud coverage estimation could not be based
on a binary or linear scale. This representation scheme could lead to results
misinterpretation, due to atmospheric phenomena like Mie scattering and
atmospheric turbidity on automatic cloud detection systems, overestimating the total
cloud coverage value.
1. Introdução
Desde a sua origem (Sol) até chegar à superfície (Terra) a radiação solar sofre
influência de fenômenos astronômicos e atmosféricos. Os astronômicos compreendem
os fenômenos que alteram os valores da radiação no caminho desde a sua origem até o
topo da atmosfera. Os atmosféricos compreendem os que alteram os valores da radiação
solar desde o topo da atmosfera até a superfície. Em ambos os casos, ocorrem a
modulação da energia solar em primeira ordem (grande influencia na modulação da
energia solar) e segunda ordem (pequena influência na modulação da energia solar).
Iqbal (1983), Vianello e Alves (1991), Duffie e Beckman (1980), fornecem informações
mais detalhadas acerca da modulação devido a fenômenos astronômicos de primeira e
segunda ordem e atmosféricos de segunda ordem. A seguir será abordada uma descrição
sumária da modulação da energia solar somente de primeira ordem devido a fenômenos
atmosféricos causado pelas nuvens.
As nuvens apresentam grande diversidade quanto à forma, altitude e densidade.
O resultado da interação da luz solar com as nuvens depende do tipo da nuvem, sua
espessura e do número de camadas sobrepostas. As nuvens absorvem grande parte
da radiação solar aquecendo a atmosfera, refletem uma parte da radiação de volta ao
espaço e retransmitem outra parte bem menor à superfície. As nuvens também interagem
com a radiação refletida pela superfície, influenciando o valor final do albedo, ou
radiação refletida que retorna ao espaço. A natureza aleatória de sua composição e
diversidade associada a fatores macro e micro meteorológicos fazem das nuvens a
maior fonte de incertezas na determinação da radiação solar que chega à superfície.
A radiação solar possui uma distribuição espectral em várias bandas de energia,
as nuvens se distinguem por apresentarem uma variabilidade maior nas bandas
infravermelho e visível. No presente trabalho serão considerados apenas aspectos da
radiação visível, visando a automatização de um processo de observação comumente
realizado por observadores especializados.
O efeito das nuvens sobre a radiação solar vem sendo estudado ao longo dos
anos por vários autores. As nuvens podem ser observadas a partir de satélites ou da
superfície. Ambos os métodos possuem limitações e não podem ser assumidos como
absolutamente precisos, e sim complementares. Harrisson et al. (1995), Yamanouchi
(1993) e Rossow (1982) possuem um trabalho extenso sobre o assunto desenvolvido
durante o ISCCP (International Satellite Cloud Climatology Project) e apontam vários
problemas na observação de nuvens a partir de satélites.
Pesquisa Naval Nº 15, Setembro de 2002
161
A WMO1, padronizou os critérios de observação das nuvens a partir da superfície,
que são adotados por todas as estações contínuas de observação sinóptica . Mas as
observações estimam somente a quantidade dos vários tipos de nuvens que ocorrem
no céu e não fornecem informações acerca das suas propriedades físicas (Rossow). As
observações de superfície são baseadas em critérios subjetivos pelos operadores.
Portanto ao longo do ano, com o rodízio de vários operadores diferentes, a estimativa
da cobertura do céu pode apresentar inconsistências de tal forma que as variações reais
da cobertura de nuvens não sejam corretamente observadas Hoyt (1978). Cientes de
tais limitações diversos autores tentaram implementar a detecção automática de nuvens
utilizando câmeras.
Holle e MacKay (1975) executaram um experimento para medir a cobertura de
nuvens a partir de fotografias com uma câmera de lente de grande abertura angular que
se mostrou muito mais confiável do que o a observação por um operador na superfície.
O operador tende a superestimar a cobertura de nuvens na ordem de 5-15%. Holle e
MacKay mencionam que a cobertura de nuvens é difícil de se definir seja por foto ou
por observador, por que as nuvens possuem espessura, mudam de forma, se apresentam
em diferentes altitudes e ocorrem com a variação angular do sol quando observadas
sobre a superfície.
A par de todas as limitações que o sistema de observação de nuvens possuem
é que se propõe o presente trabalho com o intuito de reduzir as incertezas inerentes ao
processo de determinação de cobertura de nuvens a partir do solo.
2. Metodologia
As nuvens compõem padrões no céu e por isto que se montou um experimento
para a determinação dos padrões de nuvens, tentando identificar em uma fotografia a
presença de uma nuvem ou não utilizando um classificador parametrizável (rede neural).
Como classificador optou-se por um modelo de rede neural do tipo
Backpropagation (Rummelhart&McLelland, 1984). A rede neural é um modelo matemático
de processamento de variáveis, implementado através de programas de computador
que de uma forma muito simplificada simula o funcionamento de um neurônio. Embora
a rede neural ainda esteja longe de representar matematicamente a natureza complexa de
um neurônio, ela apresenta uma capacidade muito grande de a partir de exemplos
controlados reproduzir a classificação de um padrão estabelecido através de um
treinamento prévio supervisionado. A implementação rede neural foi feita através de
um aplicativo SNNS2 (Stutgart Neural Network Simulator) que fornecia um ambiente
para a configuração, treinamento e geração da rede neural a partir dos conjuntos de
treinamento supervisionados.
A metodologia empregada no presente trabalho utiliza uma câmera digital de
superfície fotografando o céu. As imagens foram tiradas do céu em diversos horários
diferentes, mas limitadas aos horários que o Sol não aparecia no ângulo de visada da
câmera para não danifica-la por excesso de luminosidade. Não se objetivou estimar
162
Pesquisa Naval Nº 15, Setembro de 2002
toda a cobertura existente e sim identificar precisamente o padrão de nuvem no ângulo
de visada da câmera.
A partir das imagens, utilizou-se um protótipo computacional desenvolvido em
linguagem SMALLTALK 1 conforme pode ser apreciado na fig. 4. O protótipo executava
as seguintes funções. Gerar um conjunto de treinamento supervisionado. Integrar a
rede neural obtida através de bibliotecas geradas pelo aplicativo externo SNNS2 em
linguagem C. Integrar um modelo atmosférico gerado a partir do pacote matemático
MAPLE V, baseado no modelo paramétrico C semi-empírico sugerido por Iqbal(1983).
Utilizar dados meteorológicos e solarimétricos da estação BSRN (Baseline Surface
Radiation Network) de Florianópolis3 como parâmetros de entrada. Os dados
meteorológicos foram utilizados para o cálculo da transmitância atmosférica no modelo
paramétrico utilizado. Os dados solarimétricos foram utilizados na normalização dos
dados calculados no modelo paramétrico do cálculo da radiação. Classificar uma imagem
de entrada, apresentando como dado de saída um índice de cobertura de nuvens da
imagem analisada. Visualizar os resultados obtidos comparando-os com a imagem
original.
3. Resultados e Discussões
Aplicar simplesmente um mecanismo de segmentação e limiarização utilizando
os valores dos píxeis para obter um resultado binário ou em escala esperando obter céu
ou nuvem não é uma abordagem apropriada. Um problema surge quando observamos
uma imagem com o Sol nas proximidades do angulo de visão da região que esta sendo
observada. A existência da turbidêz na atmosfera faz com que o Sol apresente um halo
difuso ao seu redor que fica tanto mais intenso quanto maior for a turbidêz. A turbidêz
forma no céu um gradiente de brilhância que vai desvanecendo a medida que se afasta
do Sol. Esta brilhância chega a produzir píxeis, na vizinhança do disco solar, com valores
próximos ou ate maiores que os que caracterizam os píxeis das nuvens de pequena
profundidade óptica. Isto pode induzir a erros na estimativa da cobertura de nuvens,
pois o céu claro esta sendo caracterizado como nuvem. Uma ilustração acerca deste
problema pode ser visualizada na fig. 1. Somente através de uma inspeção visual mais
detalhada que se pode distinguir a diferença entre a brilhância por turbidêz e as nuvens
de pequena profundidade óptica. Na fig. 1 pode-se observar claramente que a imagem
é de céu azul, mas a brilhância causada pela turbidêz faz com que os píxeis sejam
interpretados como nuvens. Problemas adicionais surgem quando o Sol diminui o ângulo
de elevação e é mais freqüente o espalhamento Mie nas cores vermelha e amarela.
1
Para a programação em SMALLTALK foi utilizado o ambiente VISUALWORKS e um conjunto de
bibliotecas parcialmente desenvolvido no Laboratório de Integração Software-Hardware da UFSC.
2
http://www-ra.informatik.uni-tuebingen.de/SNNS/.
3
www.labsolar.ufsc.br, ou http://bsrn.ethz.ch
Pesquisa Naval Nº 15, Setembro de 2002
163
Um exemplo dessa dificuldade pode ser visualizado na imagem na fig. 2. Não se
pode esperar que um sistema automático apresente um resultado binário (nuvem ou
céu) ou até mesmo uma escala do índice de cobertura satisfatório na presença dos
fenômenos ilustrados nesta figura.
Os efeitos dos fenômenos físicos que induziram ao erro o sistema automático
proposto, só puderam ser observados de forma mais acentuada, depois que foi feita
uma análise utilizando filtros de difusão anisotrópica em uma versão monocromática
das imagens coletadas. Os filtros de difusão foram inicialmente aplicados ao
processamento de imagem por Perona e Maralik (1990) em imagens médicas. Depois de
aplicado às imagens coletadas, o filtro de difusão efetuou a segmentação e
homogeneização de regiões com pequenas diferenças na imagem. Isto permitiu a
visualização da turbidêz próxima ao Sol e de um gradiente de profundidade óptica das
nuvens, segmentando-as em regiões similares de mesma intensidade (superfícies
isófonas). Para uma observação mais detalhada, é necessário que se observe as imagens
com um sistema de visualização de imagens com uma interface gráfica mais refinada e de
melhor qualidade. Tal interface está presente no aplicativo desenvolvido em
SMALLTALK e permite uma visualização melhor dos resultados, conforme ilustrado na
fig. 3.
Fig. 1.
Presença do gradiente causada pelo brilho devido a turbidêz atmosférica próxima ao disco
solar. As figuras em branco e preto à direita foram geradas a partir do filtro de difusão anisotrópica
com os valores de alguns píxeis..
164
Fig. 2.
Pesquisa Naval Nº 15, Setembro de 2002
Foto ilustrando alguns dos fenômenos de interação da radiação solar com a atmosfera.
Pesquisa Naval Nº 15, Setembro de 2002
Fig. 3
165
Interface gráfica do protótipo implementado, ilustrando as superfícies isófonas, abaixo.
O filtro de difusão anisotrópico disponível para análise das figuras foi
desenvolvido para imagens monocromáticas. Filtro para imagens coloridas ainda não
está desenvolvido para a pesquisa em andamento por ser de implementação matemática
complexa e utilizar métodos numéricos para resolver equações diferencias em espaço
vetorial tridimensional (espaço de cores). As imagens analisadas em branco e preto são
um espaço com valor escalar de píxeis em níveis de cinza.
4. Conclusões
A presença da brilhância próxima ao Sol induz erros de interpretação no índice
de cobertura das nuvens. Nuvens próximas ao Sol tendem a ser mais brilhantes dos que
as longe do Sol. Isto impõe certas dificuldades aos sistemas automáticos de detecção
de nuvens causando erros quando se tentar classificar em qual escala de transparência
166
Pesquisa Naval Nº 15, Setembro de 2002
a nuvem se encontra, superestimando o resultado ou classificando o pixel para uma
escala errada.
Este problema precisa ser abordado de forma correta para ser minimizado. Ao
invés de se classificar os fenômenos presentes no céu como céu ou escalas de nuvem,
talvez seja mais apropriado classifica-los em categorias como eles realmente aparecem
na forma de espalhamento (Rayleigh, Mie com variações) ou absorção da luz solar.
Após a classificação, as categorias poderiam ser reagrupadas de forma a atender
o padrão de observação para nuvens ou céu conforme utilizado atualmente. Isto traria
vantagens de se obter um sistema de análise mais controlado e uma estimativa de
cobertura mais próxima do real.
Um resultado intermediário surpreendente do presente trabalho foi a
segmentação da imagem das nuvens utilizando a difusão anisotrópica. Após a difusão
pode-se segmentar com precisão as bordas das nuvens viabilizando um cálculo mais
preciso da área de cobertura em diversas escalas de profundidade.
5. Referências Bibliográficas
DUFFIE J. A., E BECKMAN W. A. Solar Engineering of Thermal Processes. John
Wiley & Sons 1980. 919 p.
HARRISSON E. F., MINNIS P., BARKSTROM B. R., GIBSON G. G.. Radiation
Budget a the Top of the Atmosphere. Atlas of Satellite Observations Related to
Global Change 1995. 35 p
HOLLE L. R. E MACKAY S. A.. Tropical Cloudness from all-sky cameras on
Barbados and adjacent Atlantic ocean area. Journal of Applied Meteorology. vol.
14 p. 1437-1450. 1975.
HOYT D. V. Interannual cloud-cover variations in the contiguous United States.
Journal of Applied Meteorology vol. 17 p. 354-357 1978.
IQBAL, M. Introduction to Solar Radiation. Academic Press, 1983. 390 p.
KREYSZIG, E. Advanced Engineering Mathematics, 2nd ed. John Wiley & Sons Inc.
1993.1271 pag.
LENOBLE J.. Atmospheric Radiative Transfer. A. Deepak Publishing. 1993. 532p.
LILLESAND T. M., KIEFER R. W.. Remote Sensing and Image Interpretation. John
Wiley & Sons 1994. 750p.
MANTELLI NETO, S. L. Desenvolvimento de metodologia para a estimativa da
cobertura de nuvens usando uma câmera de superfície e comparando com as
imagens de satélite. Tese de mestrado do Laboratório de Visão Computacional,
Departamento de Informática e Estatística, Universidade Federal de Santa
Catarina, 2001. 124 p
Pesquisa Naval Nº 15, Setembro de 2002
167
PERONA P. AND J. MARALIK, Scale-Space and edge detection using anisotropic
diffusion, in Proceedings of IEEE Transactions on Pattern Analisys and Machine
Intelligence, vol. PAMI-12, no. 7, pp.629-639, 1990.
ROSSOW W. B. . Clouds. Atlas of satellite observations related to Global change.
International Satellite Cloud Climatology Project ISCCP, 1982. p.141-162
RUMMELHART, D.E., AND MCCLELLAND, J.L., 1986, Parallel Distributed
Processing, MIT Press.
SNNS: Stuttgart Neural Network Simulator User Manual version 4.1. University of
Stuttgart, report n. 6, 1995, 312 p.
VIANELLO, R.L.; ALVES, A.R., Meteorologia Básica e Aplicações. Universidade
Federal de Viçosa: Imprensa Universitária, 1991. 449 p.
WANGENHEIN A., Introdução à Visão Computacional. Métodos, técnicas,
Ferramentas e Aplicações. Apostila do Curso de pós-graduação em Ciências da
Computação. Departamento de Informática e Estatística Universidade Federal
de Santa Catarina 2000, 133 p.
WEICKERT, J. Anisotropic. Diffusion in Image Processing. Ph. D. Thesis from
Keiserslauterrn University, Germany 1996 140 p.
YAMANOUCHI,T. Variations of Incidente Solar Flux and snow albedo on the solar
Zenith Angleand Cloud Cover at Mizuho Station Antartica. Journal of the
Meteorological Society of Japan. v.61,n.6,p.879-893,1993.
Centro de Análises de Sistemas Navais
APOIO À DECISÃO
O CASNAV desenvolve ferramentas computacionais que auxiliam o Comandante
do Teatro de Operações Marítimo e demais comandos subordinados, no planejamento, execução
e controle das Operações Navais, Aeronavais e de Fuzileiros Navais.
Os Sistemas de Apoio à Decisão (SAD) auxiliam no processo de obtenção de
soluções para as principais inquietudes de natureza operativa e administrativa. Estes sistemas
incorporam uma filosofia abrangente que, por possuir firmes alicerces na Engenharia de
Software, se constitui numa arquitetura aberta à permanente evolução e ao atendimento das
necessidades de novos clientes.
Entre os Sistemas de Apoio à Decisão dedicados aos problemas de caráter
administrativo, podemos mencionar o SAD-GP, voltado para questões relativas à Gerência de
Pessoal. Esta ferramenta auxilia o gerenciamento do complexo sistema de pessoal da Marinha,
permitindo, por exemplo, determinar as necessidades de admissão de pessoal nas diferentes
qualificações existentes. Este programa executa projeções para horizonte de até dez anos,
possibilitando conhecer os impactos futuros de políticas de pessoal adotadas nos dias atuais.
Para tal, empregamos modernas ferramentas matemáticas com o propósito de simular a
admissão e progressão funcional dos cerca de 50 mil componentes dos diversos quadros e
qualificações da Marinha. Este Sistema foi comercializado para o Exército e para a Força
Aérea Brasileira.
Nossa equipe está habilitada a desenvolver sistemas como este, capaz de organizar
imensa massa de dados, de maneira inteligente, para que os decisores, conhecendo o impacto
no futuro, possam fazer as melhores opções no presente.
Centro de Análises de Sistemas Navais
Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro
3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil
Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332
e-mail: [email protected]
XIV
Capítulo
ESTUDO DO CAMPO DE VENTO DE SUPERFÍCIE SOBRE O
ATLÂNTICO SUL USANDO DADOS DO ESCATERÔMETRO DO ERS
Marlos C. Baptista 0, José L. Stech +, João A. Lorenzzetti +
0
Oceansat Tecnologia Espacial para Monitoramento Ambiental S/C Ltda
Incubadora de Empresas – Sala 15 e 16 – Cidade Universitária – Ilha do Fundão
CEP: 21945-970 - Rio de Janeiro – RJ
+
Instituto Nacional de Pesquisas Espaciais (INPE)
Av. dos Astronautas, 1758, Jardim da Granja
CEP: 12227-010 São José dos Campos – SP
Resumo
Este trabalho estuda a variabilidade temporal e espacial do campo de vento
para o Oceano Atlântico, setor 20ºN à 40ºS, a partir dos dados do escaterômetro dos
satélites ERS 1/2. A base de dados utilizada foi obtida junto ao IFREMER, para o
período de dezembro de 1991 a novembro de 1998. Blocos de dados do escaterômetro,
correspondentes a três dias, foram usados para a interpolação em uma grade
geográfica regular de 1º x 1º. Uma interpolação espacial, envolvendo um processo
iterativo com correção de valores médios de erros ponderados, foi utilizada. A
avaliação deste algoritmo foi feita comparando o resultado com ventos medidos
pelas bóias do projeto PIRATA e os dados de ventos de reanálises do NCEP. As
diferenças RMS da intensidade do vento da bóia menos escaterômetro (P-S) e bóia
menos NCEP (P-N) foram: posição 0-35o W (P-S=1.13 m/s; P-N=1.11 m/s); posição
10o S-10o W (P-S=0.72 m/s; P-N=1.83 m/s) e 15o N-38o W (P-S=0.99 m/s). Os resultados
dos campos de vento descrevem as principais feições dos ventos alísios de Sudeste e
Nordeste. A ITCZ e o centro de alta pressão semi-permanente nos sub-trópicos são
claramente detectados nos campos médios.
170
Pesquisa Naval Nº 15, Setembro de 2002
1 - Introdução
Um dos responsáveis pela absorção de dióxido de carbono por parte dos oceanos
é o cisalhamento dos ventos na sua superfície. Além da troca de gases entre a atmosfera
e o oceano, o vento também é responsável por determinar algumas das maiores feições
oceânicas. Segundo Harrison (1984), os ventos quando interagem com os oceanos
determinam direta ou indiretamente muitas de suas correntes de superfície, sendo
também responsáveis pela transferência de energia entre o oceano e a atmosfera, e
pelo estado das ondas de superfície.
Atividades como o planejamento de rotas de navegação, pesca e exploração de
óleo em alto mar, entre outras, requerem dados apropriados de vento, para que possam
se tornar seguras, econômicas e até mesmo viáveis. Além disso, informações dos
ventos sobre a superfície dos oceanos poderão ser usadas como parte da assimilação
nos sistemas de previsão do tempo para calcular o desenvolvimento do tempo a curto
e a longo prazo.
Assim, há uma grande necessidade de se medir rotineiramente os ventos sobre
a superfície dos oceanos. Convencionalmente, o vento é medido por meio de navios
ou bóias. Porém, a implantação e a manutenção de um sistema de coleta deste tipo tem
um custo muito alto. Além disto, essas medidas estão restritas a pequenas áreas e são
esparsamente distribuídas particularmente em áreas remotas, tais como às dos oceanos
do Hemisfério Sul. Entretanto, para muitas aplicações não é suficiente ter dados deste
tipo, sendo necessário que as medidas de vento sejam em pontos de grade regular e se
estendam a grandes áreas (ESA, 1995).
O principal objetivo deste trabalho foi obter campos de vento sobre a superfície
do oceano Atlântico em pontos de grade regular utilizando os dados do escaterômetro
do ERS 1/2, a partir disto comparar os resultados encontrados com outras fontes, que
no caso foram os dados das bóias do projeto PIRATA e reanálises do NCEP.
2 - Material e Método
A área de estudo, abrangendo grande parte da bacia oceânica do Atlântico
Tropical e parte do Atlântico Sul, (20º N - 40º S e 20º E - 60º W), foi dividida em
subquadrados de 1º de latitude por 1º de longitude, constituindo assim a base espacial
do trabalho, ver Fig. 1.
Pesquisa Naval Nº 15, Setembro de 2002
171
Fig. 1: Área de estudo gradeada.
Os dados utilizados neste trabalho foram obtidos junto ao Centre ERS
d’Archivage et de Traitement (CERSAT) do Institut Français de Recherche pour
l’Exploitation de la MER (IFREMER) e correspondem aos períodos de dezembro de
1991 até novembro de 1998. Do satélite ERS - 1 foram utilizados dados do período
compreendido entre dezembro de 1991 e março de 1996, e para o satélite ERS - 2 foram
utilizados dados de abril de 1996 até novembro de 1998.
Como o campo de um dia não permitia uma cobertura espacial suficiente da
área de estudo, optou-se por reagrupá-los em campos de três dias. Obteve-se então
uma cobertura espacial suficientemente boa para executar uma interpolação nos dados
e com isto gerar campos de vento em pontos de grade regular. Na Fig.2 é mostrado o
padrão de cobertura do escaterômetro para o campo de três dias.
Fig. 2: Padrão de cobertura em três dias do escaterômetro do ERS.
172
Pesquisa Naval Nº 15, Setembro de 2002
Além da cobertura espacial de um dia ser insuficiente, e o fato dos dados
coletados pelo satélite estarem distribuídos espacialmente ao longo de sua órbita,
houve a necessidade de um processo de interpolação para a geração de campos de
vento em pontos de grade regular. Para tal processo, foram utilizados campos que
estavam agrupados a cada três dias dentro de cada mês, atribuindo o resultado da
interpolação ao dia central da série de três dias. A metodologia utilizada para a
interpolação dos dados do escaterômetro foi a desenvolvida por Allender (1977). Esta
técnica é similar à utilizada por Cressman (1959) e inicia-se com um first guess (suposição
inicial) para cada componente do vento, sendo que este é obtido de uma média
aritmética de todos os valores dentro de um determinado raio no passo de tempo
inicial. Um novo campo é calculado ponto a ponto corrigindo o first guess:
**
U ( x,y ) =U
*
 ' 2
1 N L −
+ ' ∑ 2
N m=1 L +
2
d ( x,y )
d ( x,y )
m
2
m
obs
(U m −
U
*
 (1)
),


onde d( x, y)m é a distância entre o ponto de grade a ser interpolado e a mth (enésima)
amostra dentro de um raio, L é chamado o raio de varredura, e N’ é o número de pontos
dentro do raio L de (x,y). Assim a correção é um valor médio de erros ponderados,
tornando este tipo de interpolador um método de análise objetiva. A nova componente
calculada U** é realocada para U*, o raio de varredura é então reduzido, e uma nova
correção é feita. Este procedimento é repetido três ou quatro vezes até que o interpolador
converge. A cada passo de iteração o raio de influência foi dividido pela metade.
Depois de várias simulações com diferentes valores iniciais para o raio de influência L,
verificou-se que para o presente trabalho um raio de 5º foi o que apresentou melhores
valores para sair do laço de interpolação e conseqüentemente convergir mais
rapidamente.
Como critério de convergência do algoritmo de interpolação foi utilizada uma
modificação da norma apresentada por Simpson e Gobat (1994), sendo que a cada
passo de iteração foi calculado uma nova norma e comparada com a norma anterior. O
critério de saída baseado na norma se deu quando o resultado da comparação da
norma atual com a anterior foi inferior a 10 %.
Finalizado todo o processamento de interpolação surgiu à necessidade de
agrupar os campos gerados de uma forma na qual pudessem ser melhor interpretados.
Para cada estação do ano foram feitas médias aritméticas simples para cada componente
do vento (zonal e meridional). As estações do ano foram definidas como sendo: Verão
(dezembro, janeiro e fevereiro), Outono (março, abril e maio); Inverno (junho, julho e
agosto); Primavera (setembro, outubro e novembro).
As comparações feitas neste trabalho entre os dados do escaterômetro, os
dados fornecidos pelas bóias do projeto PIRATA e reanálises do NCEP, foram para
avaliar o desvio dos dados de vento interpolados do escaterômetro. As análises de
Pesquisa Naval Nº 15, Setembro de 2002
173
variabilidade foram feitas através do root-mean-square difference (rmsd), mais
conhecido como RMS. Uma adaptação da formulação do RMS descrito por Brandt
(1976) foi utilizada. Esta metodologia utilizada por vários autores entre eles Chu et al
(1999), se mostrou bastante útil na estimação da variabilidade de um mesmo tipo de
dado proveniente de diferentes fontes.
N
RMS =
(
∑ xi − yi
i =1
( N − 1)
)
2
(2)
onde, xi é um dado valor para as observações do satélite, yi é um dado valor para as
observações das outras fontes (modelo, bóia ou navio) e N é o número de observações
a serem comparadas. As comparações entre as distintas fontes foram realizadas ao
longo do ano de 1998 e foram feitas com os dados médios de três dias.
3 - Discussão
Na Fig.3 é apresentado o campo de vento médio derivado dos dados do
escaterômetro para o oceano Atlântico Tropical e parte do Sul para os meses de verão
austral (dezembro, janeiro e fevereiro) dos anos 1992 a 1998. O campo de vento
resultante descreve as principais feições como os alísios de Nordeste e os de Sudeste.
Pela análise da Fig. 3, a zona de convergência inter-tropical e o centro semi-permanente
de alta pressão do oceano Atlântico Sul podem ser claramente observados.
Observando-se também a Fig. 3, acima da ITCZ tem-se a incursão dos alísios do
Hemisfério Norte com ventos soprando de Nordeste. Este padrão de direção do vento
se mantém constante durante toda esta estação, variando apenas em intensidade, com
ventos de aproximadamente 6,0 a 7,0 m/s e desvio padrão com valores entre 1,5 e 2,0
m/s.
Fig. 3:- Campo de vento médio para o verão austral (dez., jan. e fev.).
174
Pesquisa Naval Nº 15, Setembro de 2002
Estes resultados estão de acordo com Young e Holland (1996), que descrevem
para esta região e neste mesmo período um campo de vento com a mesma direção
característica, ventos de Nordeste, e com intensidade variando de 5,0 a 10,0 m/s. Estes
autores utilizaram dados de fontes distintas para obter estes resultados, sendo que as
direções do vento foram obtidas através de reanálises do European Centre for Medium
- Range Weather Forecasts (ECMWF) e as intensidades dos ventos foram obtidas
através do sensor altímetro do satélite GEOSAT.
Na Fig. 4 é apresentado o mapa do campo de vento médio para o inverno
austral: junho, julho e agosto. Nesta Figura uma característica marcante é a posição da
ITCZ mais ao Norte. Em sua marcha anual a ITCZ tem um deslocamento meridional e no
inverno austral atingi a sua posição mais ao Norte. Hastenrath e Heller (1977)
determinaram como sendo 8º N a posição mais ao Norte atingida pela ITCZ. Isto pode
claramente ser verificado através da Fig. 4, com a ITCZ atingindo a latitude aproximada
de 8º N.
Fig. 4: Campo de vento médio para os meses de junho, julho e agosto
Serão apresentados a seguir gráficos onde se discutirá os resultados das
comparações entre o campo de vento gerado pelo processo de interpolação dos dados
do escaterômetro e os dados de bóias e de reanálises. Estas comparações se deram
somente em três localizações, que são as posições das bóias do projeto PIRATA. Duas
destas foram coincidentes com os pontos de grade dos dados de reanálises do NCEP.
As localizações são: 10º S e 10º W, equador e 35º W, e 15º N e 38º W. Foram comparados
os dados de vento das três fontes (bóias, reanálises e interpolação) que se encontram
em médias de três dias ao longo do ano de 1998. Apesar de somente três pontos serem
comparados estas localizações se mostram com características no campo de vento
bastante distintas, o que torna a comparação bem diversificada.
Foram executadas também, comparações entre os dados interpolados do
satélite e os dados de reanálises ao longo de toda a área de estudo e entre os anos de
1992 e 1998. Os resultados de rms encontrados ficaram entre 1 e 2 m/s, sendo que os
Pesquisa Naval Nº 15, Setembro de 2002
175
maiores valores encontrados eram resultantes da comparação dos dados nas regiões
de médias latitudes.
Na Figura 5 é apresentado um gráfico da série temporal da intensidade do
vento dos dados de bóias, dados de reanálises e os dados interpolados do satélite.
Estes dados se estendem de 1º de fevereiro a 30 de novembro de 1998. Foram calculados
os valores de RMS da diferença dos dados de intensidade e direção do vento entre os
dados de bóias e os dados interpolados do satélite, e entre os dados de bóias e os
dados de reanálises do NCEP. A posição desta comparação foi no equador e 35º W.
Pela análise desta figura é possível observar um comportamento bem distinto entre as
três fontes de dados.
Fig. 5: Gráfico da série temporal da velocidade do vento na posição 0º e 35º W.
Para as comparações de intensidade do vento os valores de RMS são os
seguintes: 1,13 m/s e 1,11 m/s, para as comparações entre as bóias e os dados
interpolados, e as bóias e os dados de reanálises, respectivamente. Estes valores de
RMS para a intensidade do vento estão compatíveis com os encontrados na literatura.
Inúmeros trabalhos na área de escaterometria apresentam valores equivalentes de
RMS. Para o RMS da direção do vento os valores são os seguintes: 24º e 41º, para as
comparações entre as bóias e os dados interpolados e as bóias e os dados de reanálises,
respectivamente. Este alto valor de RMS para a direção do vento está associado a uma
região de alta variabilidade. Nesta região os ventos predominantes são os alísios que
dependendo da época do ano podem ser de Nordeste ou Sudeste.
Na Figura 6 é apresentado um gráfico da série temporal da intensidade do
vento dos dados de bóias e os dados interpolados do satélite. A posição desta
comparação foi: 15º N e 38º W. Esta figura apresenta somente a comparação entre os
dados da bóia e os dados interpolados do satélite. Isto se deve ao fato da coordenada
longitudinal da bóia, 38º W, não coincidir com o ponto de grade dos dados de reanálises
do NCEP.
176
Pesquisa Naval Nº 15, Setembro de 2002
Na Figura 6 é possível observar uma grande concordância na intensidade do
vento entre as duas fontes de dados, que no caso são dados de bóia e interpolados do
escaterômetro. Existem poucas diferenças nas duas séries temporais, mas as que
ocorrem estão principalmente nos cavados onde as intensidades foram menores do
que 4,0 m/s. Foram calculados os valores de RMS para a intensidade e direção do
vento entre estas duas fontes. Os valores obtidos foram: para a direção 26º e para a
intensidade 0,99 m/s. Este último resultado de RMS, para a intensidade do vento,
poderia ser melhorado caso o satélite adquirisse ventos com intensidade abaixo de 4,0
m/s, pois é possível observar na Figura 6 dois grandes cavados com intensidade
abaixo de 4,0 m/s nos dados adquiridos pelas bóias, um no início do mês de fevereiro
e outro em meados de setembro. Como o satélite não recupera ventos de baixa
intensidade estes cavados não foram acompanhados pelos resultados do interpolador.
Mesmo assim os resultados se encontram muito bons como demonstra os baixos
valores de RMS.
Fig. 6: Gráfico da série temporal da velocidade do vento na posição 15º N e 38º W.
Na Figura 7 é apresentado o último gráfico da série temporal da intensidade
do vento dos dados de bóias, dados de reanálises e os dados interpolados do satélite.
Nesta figura são apresentadas as séries temporais da intensidade do vento para a
posição 10º S e 10º W. É possível observar nesta figura uma sobre – estimação dos
dados de reanálise em relação aos dados de bóias e uma pequena subestimação,
principalmente nos meses anteriores a julho, dos dados interpolados do satélite em
relação às bóias.
Os valores de RMS encontrados para a direção do vento foram: 19º e 16º, para
as comparações entre os dados de bóias e de reanálises e os dados de bóias e os
interpolados do satélite, respectivamente. Para a intensidade do vento foram encontrados
valores de RMS da comparação entre a bóia e a reanálise na ordem de 1,83 m/s, e entre
Pesquisa Naval Nº 15, Setembro de 2002
177
a bóia e os dados interpolados do escaterômetro ficou em 0,72 m/s.
Fig. 7: Gráfico da série temporal da velocidade do vento na posição 10º S e 10º W.
Através destes valores de RMS encontrados nas figuras 5, 6 e 7,
principalmente os encontrados na última comparação, foi possível observar
satisfatoriamente que a metodologia empregada na interpolação dos dados do
escaterômetro se mostrou bastante robusta, e também que os dados de vento coletados
pelos satélites ERS são de alta qualidade. A prova disto está nos baixos valores de
RMS encontrados, quando se comparou os resultados da interpolação com as
“verdades” de campo, que neste caso foram os dados de bóias. A seguir serão
apresentados vários trabalhos que calcularam RMS dos dados de ventos obtidos por
satélite, e será possível então verificar a eficiência da metodologia empregada neste
trabalho.
Boutin et al (1999) utilizando dados de dois escaterômetros e um radiômetro
obtiveram dados de vento e fizeram comparações com medidas in situ em regiões de
baixa velocidade do vento no Oceano Pacífico Equatorial Leste. Os cálculos mostraram
excelente agrupamento entre os dados do NSCAT e das bóias (bias de 0,3 m/s) enquanto
ERS-2 foi subestimado em 1,3 m/s e SSM/I ficou superestimado por 0,7 m/s. Rufenach
(1995) utilizando dados do escaterômetro do ERS – 1 e dados de bóias fez comparações
entre os ventos na região do oceano Pacífico Equatorial e em latitudes médias. Os
valores de RMS para a região de latitudes médias foram em média 1,39 m/s e para a
região equatorial no ano de 1992 foi de 1,69 m/s, e em 1993 foi de 1,40 m/s.
Bentamy et al (1997) geraram campos de ventos semanal e mensal sobre todos
os oceanos a partir dos dados do escaterômetro do ERS – 1 para o período de agosto
de 1991 até abril de 1996. A resolução espacial do campo de vento resultante foi de 1º
de latitude por 1º de longitude. O cálculo foi baseado em uma técnica geo-estatística
denominada método kriging. Esta técnica varia o vetor vento obtido pelo escaterômetro
em tempo e espaço usando funções de estrutura temporal e espacial para os parâmetros
do vento de superfície. A acurácia do vetor vento resultante foi avaliada por comparação
178
Pesquisa Naval Nº 15, Setembro de 2002
com medidas de bóias. Dois tipos de dados de bóias foram utilizados: o primeiro foi
fornecido pelo National Data Buoy Center (NDBC) da National Oceanic and
Atmospheric Administration (NOAA); o segundo foi fornecido pelo NOAA Pacific
Marine Environmental Laboratory (PMEL) referenciado como o array de bóias Tropical
Atmosphere Ocean (TAO).
Estes autores utilizaram o cálculo do RMS para verificar a acurácia dos dados
de ventos, e a região de comparação foi o Oceano Pacífico Equatorial. Na tabela 1 são
apresentados os resultados das comparações feitas por estes autores entre os dados
de intensidade do vento nos campos gradeados derivados do escaterômetro e os
dados de bóias, bem como as posições onde se deram tais comparações.
É possível observar pela tabela 1, valores bem distintos de RMS para a
velocidade do vento. Tais valores variam de 0,68 m/s a 1,19 m/s, sendo que os menores
valores ocorrem na borda Leste do oceano Pacífico Equatorial. Na tabela 2 são
apresentados os resultados das comparações feitas por Bentamy et al (1997) entre os
dados de direção do vento dos campos gradeados derivados do escaterômetro e os
dados de bóias, bem como as posições onde se deram tais comparações.
TABELA 1 – RMS entre as velocidades do vento das bóias e dos dados gradeados do
escaterômetro
9N
1.00
8N
1.04
5N
0.81 0.92
2 N 0.92 1.09 1.03 0.85 0.86
0N
0.86 0.75 0.87 0.80
2S
0.97 0.83 0.86 0.77
5S
0.77 0.68 0.80 0.89
8S
0.89
95 110 125 140 155
w
w
w
w
w
1.13
0.89
1.09 0.95
1.07
0.85
1.19
1.16
0.76 0.73 0.88 0.92 0.84
1.02
0.89
1.16 1.06
1.03
170 170 165 156 154 147 143 137
w
e
e
e
e
e
e
e
Adaptada de Bentamy et al (1997, p. 1190).
É possível observar pela tabela 2 valores bem distintos de RMS para a direção
do vento. Tais valores variam de 14º à 76º, sendo que os menores valores ocorrem na
borda Leste do oceano Pacífico Equatorial.
Pesquisa Naval Nº 15, Setembro de 2002
179
TABELA 2 – RMS entre as direções do vento das bóias e dos dados gradeados do
escaterômetro
9N
36
8N
33
5N
24 17 26 31
2 N 34 33 19 14 22 28
0N
26 28 22 19 33 52
2S
27 21 23 18 25
5S
20 19 22 28
8S
23
95 110 125 140 155 170 170
w
w
w
w
w
w
e
40
54
62
62
62
39
54
76
63
55
73
63
42
165 156 154 147 143 137
e
e
e
e
e
e
Adaptada de Bentamy et al (1997, p. 1190).
Pela observação dos valores de RMS para a intensidade e direção do vento
encontrado por Bentamy et al (1997), mostrados através das tabelas 1 e 2, com os
resultados de RMS encontrados neste trabalho, foi possível verificar que houve uma
grande concordância entre estes trabalhos. Apesar das regiões de comparação não
serem as mesmas, elas se encontram sobre a influência da ITCZ o que apresenta
características idênticas do campo de vento, como por exemplo, a convergência dos
alísios de Nordeste e Sudeste. Isto valida a técnica de interpolação dos dados utilizada
neste trabalho, e também comprova a sua eficiência.
4 - Conclusões
Com o avanço da tecnologia espacial, e conseqüentemente o lançamento de
satélites de sensoriamento remoto, tornou-se mais fácil estudar o ambiente terrestre.
Com o desenvolvimento deste trabalho foi possível observar a atual necessidade dos
dados de vento para monitoramento de várias atividades no país. Estes dados se
mostraram úteis tanto para fins comerciais, por exemplo, no planejamento de operações
off-shore, e de pesquisa, para assimilação em modelos de previsão do tempo e circulação
oceânica.
Uma dificuldade para utilizar dados coletados por satélites está no fato de sua
aquisição ser ao longo da órbita. Para alguns tipos de estudos isto não é suficiente,
requerendo dados de forma mais regular, ou seja, em pontos de grade. Para solucionar
tal fato foi implementado um método de interpolação linear para gerar dados de vento
em pontos de grade regular de 1º de latitude por 1º de longitude. Esta metodologia se
mostrou bastante robusta e eficiente, principalmente quando os resultados da mesma
180
Pesquisa Naval Nº 15, Setembro de 2002
foram comparados com outras fontes de dados.
Com os dados do satélite em pontos de grade regular foram geradas médias
para cada estação do ano (verão, outono, inverno e primavera). Estes campos médios
foram analisados e então discutidos as suas variações sazonais. Foi possível observar,
através das figuras do campo de vento médio, as principais feições como, por exemplo,
a Inter-Tropical Convergence Zone (ITCZ) e o centro de alta pressão semipermanente.
Foi possível observar também o deslocamento ao longo do ano da ITCZ, no verão a
mesma se encontrava na sua posição mais ao Sul e no inverno mais ao Norte.
Observou-se também o deslocamento do centro de alta pressão
semipermanente ao longo das estações do ano. Para o verão o mesmo se encontrava
mais concentrado, enquanto que no inverno houve um deslocamento em direção à
Noroeste e o mesmo se tornou mais alongado.
Outra característica importante foi a zona de divergência do vento de superfície
próximo à costa Nordeste do Brasil, sendo esta zona importante na determinação da
zona de bifurcação da Corrente Sul Equatorial. No verão esta zona fica na latitude de
aproximadamente 15º S e no inverno observa-se que esta zona avança para cerca de 20º
S. Isto pode indicar que a zona de formação da Corrente do Brasil pode ter sua origem
deslocada ao longo do ano com um posicionamento mais ao Sul no inverno.
A eficiência da metodologia empregada na interpolação dos dados
provenientes do escaterômetro pode ser comprovada pela comparação com outras
fontes de dados. Os resultados destas comparações apresentaram baixos valores de
RMS, tanto para direção quanto para intensidade do vento. Estas comparações foram
realizadas, principalmente, ao longo do ano de 1998 por disponibilidade de dados.
Foram utilizados para comparação dados de bóias do projeto PIRATA e dados de
reanálises do NCEP, com os dados de bóias assumidos como “verdades de campo”.
Os valores das diferenças RMS para a intensidade do vento entre os dados de bóias e
os dados gradeados do escaterômetro variaram de 0,72 m/s à 1,13 m/s. Para a direção
do vento os valores RMS variaram de 19º à 26º. Estes valores de RMS estão compatíveis
com valores apresentados na literatura, como por exemplo os trabalhos de Siefridt et al
(1993) e Bentamy et al (1997).
Vale a pena salientar que este estudo teve um caráter inovador, onde se
buscou demonstrar a aplicabilidade destes dados. A partir disto pode-se pensar, num
futuro próximo, em obter tais dados em tempo real. Para isto seria necessário um
estudo mais aprofundado principalmente na transformação dos dados brutos
adquiridos pelo satélite em informações de intensidade e direção do vento. Os resultados
destes trabalhos poderão ser usados para melhorias nos modelos de previsão do
tempo e de ondas e modelos de circulação oceânica.
5 - Referências Bibliográficas
ALLENDER, A.H. Comparison of model and observed currents in lake michigan.
Journal Of Physical Oceanography, V. 7, P. 711-718, SEP. 1977.
Pesquisa Naval Nº 15, Setembro de 2002
181
ARCHER, O.; BENTAMY, A.; DUPONT, L.; FIRING, J.; FLAMENT, P.; GRIMA,
N.; HARSCOAT, V.; LOUBRIEU, F.; MARONI, C.; POULIQUEN, S.;
QUILFEN, Y. Mean surface wind fields from the ERS-AMI and ADEOS-NSCAT
microwave scatterometers. [CD-ROM]. In: WOCE Conference, Halifax, 1998.
BENTAMY, A.; GRIMA, N.; QUILFEN, Y. Wind climatology from ERS
Scatterometer. In: ERS-1 Symposium on space at the service of our environment,
3., Florence, Mar. 1997. Proceedings. Italy: ESA, 1997. v. 3, p. 1187-1193.
(ESA SP-414).
BOUTIN, J; ETCHETO, J.; RAFIZADEH, et al. Comparison of NSCAT, ERS-2
active microwave instrument, special sensor microwave imager, and Carbon
Interface Ocean Atmosphere buoy wind speed: Consequences for the air-sea
CO2 exchange coefficient. Journal of Geophysical Research, v. 104, n. C5, p.
11375-11392, May 1999.
BRANDT, S. Sampling. Statistical and computational methods in data analysis.
2.ed. New York: North-Holland, 1976. Cap. 6, p. 92-132.
CHU, P.C.; LU, S.; Liu, W.T. Uncertainty of South China Sea prediction using
NSCAT and National Centers for Environmental Prediction (NCEP) winds during
tropical storm Ernie, 1996. Journal of Geophysical Research, v. 104, n. C5, p.
11273-11289, May 1999.
CRESSMAN, G.P. An operational objective analysis system. Monthly Weather
REVIEW, v. 87, p. 367-374, 1959.
European Space Agency (ESA) New views of the earth: scientific achievements of
ERS-1. Noordwijk: Estec, 1995. 162 p. (ESA SP-1176/I).
HARRISON, D.E. Ocean surface wind stress. In: Gautier, C.; Fieux, M. ed. LargeScale Oceanographic Experiments and Satellites. Dordrecht: D. Reidel, 1984. P.
99-115.
HASTENRATH, S; HELLER, L. Dynamics of climatic hazards in Northeast Brazil.
Quartely Journal of the Royal Meteorological Society, v. 103, n. 435, p. 77-92,
1977.
RUFENACH, C. A new relationship between radar cross-section and ocean surface
wind speed using ERS-1 scatterometer and buoy measurements. International
Journal of Remote Sensing, v. 16, n. 18, p. 3629-3647, Aug. 1995.
SIEFRIDT, L.; LEGLER, D.M.; BARNIER, et al. Mapping ERS-1 wind fields over
north west atlantic using a variational objective analysis. In: ERS-1 Symposium
on space at the service of our environment, 2., Hamburg, Oct. 1993. Proceedings.
Paris: ESA/ESTEC, 1993. v. 2, p. 1017-1021. (ESA SP-361).
SIMPSON, J.J.; GOBAT, J.I. Robust velocity estimates, stream functions, and
simulated lagrangian drifters from sequential spacecraft data. IEEE Transactions
on Geoscience and Remote Sensing, v. 32, n. 3, p. 479-492, May 1994.
YOUNG, I.R.; HOLLAND, G.J. Atlas of the oceans: wind and wave climate.
Oxford: Elsevier, 1996. 241 p. Cap. 7. Global wind and wave statistics, p. 67229.
Instituto de Pesquisas da Marinha
SICAV
O SICAV é um sistema de monitoração e controle de avarias que tem por base o uso
eficiente e confiável das informações dos sensores de alagamento, fumaça, temperatura e abertura
de portas estanques. Além disso, o sistema também inclui um módulo de apoio à decisão para
rotas de pessoal e de extração de fumaça.
Em sua primeira versão (CAVFRAG), está destinado às Fragatas brasileiras da classe
“Niterói”. Porém, a abordagem utilizada no projeto permite a sua aplicação a diversos tipos de
instalação como plataformas de petróleo e navios mercantes. A instalação do primeiro sistema foi
iniciada em agosto de 2002. Abaixo é mostrada uma das telas apresentadas no console do SICAV.
CARACTERÍSTICAS PRINCIPAIS
•Console Principal duplo;
•Estações Secundárias do tipo “work
station” com “touch screen”;
•Comunicação por rede Ethernet entre o
console principal e as estações
secundárias;
•Arquitetura VMIC padrão VME com
microprocessador Pentium Intel;
•Sistema Operacional QNX.
DADOS GERAIS•
Dimensões do Console Principal (mm):
399(A), 533(L), 537(P).
•Peso do Console Principal: 27,5Kg.
•Temperatura de Operação: 0°C a 55°C
•Dimensões da Estação Secundária (mm):
315(A), 335(L), 130(P).
Instituto de Pesquisas da Marinha
Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador
CEP 21931-090 – Rio de Janeiro – RJ – Brasil
Fone: (021) 3386-2710 – Fax: (0*21) 3386-2788
XV
Capítulo
SOBRE A REPRODUÇÃO FIEL EM CORES
Prof. TEODORO ONIGA, PhD
Ex-Analista Sênior do CASNAV
Resumo
A reprodução por meio da tricromia, recurso tão largamente utilizado na
imprensa colorida, padece de duas grandes distorções: uma, devida ao fato das
características óticas dos filtros utilizados na extração dos três clichês serem bastante
diferentes das características óticas das tintas utilizadas na impressão; outra,
decorrente da utilização de apenas três cores básicas, o que simplesmente elimina o
relevo cromático. Para restabelecer a fidelidade da reprodução em cores, estas duas
distorções devem ser corrigidas.
Para eliminar a primeira distorção, o único caminho possível consiste em
deixar de utilizar filtros coloridos na obtenção dos clichês por transparência e
recorrer, em vez disso, a painéis pintados com as mesmas cores básicas que serão
utilizadas na reprodução, fazendo a extração dos clichês por meio de reflexão. A
captação de cada imagem parcial requer a mobilização de certos recursos
tecnológicos especiais: células foto-elétricas no caso da exploração punctiforme
(ou por “pixels”), espelhos semi-prateados e cilindros xerográficos especiais no
caso da exposição simultânea de toda a superfície a ser reproduzida, mas é
perfeitamente possível garantir a fidelidade cromática, tanto na operação pontual
de “scanning”, quanto na reprodução integrada.
A segunda distorção é bem mais sútil e sua eliminação requer o
conhecimento exato das coordenadas óticas de cada ponto colorido: o matiz, a
pureza e a tonalidade. Se o “ pixel “ (ou ponto colorido) se encontra na zona clara
do hexaedro cromático (ou seja, no tetraedro A1A2A3B, A1,2,3 sendo as três cores
184
Pesquisa Naval Nº 15, Setembro de 2002
básicas e B o branco), deve-se acrescentar uma porcentagem de branco e se o “ pixel
“ estiver situado na zona escura (ou seja, no tetraedro NA1A2A3 , N sendo o preto),
deve-se acrescentar uma porcentagem definida de preto, para restabelecer o relevo
cromático. No caso da exploração por pontos (operação de “ scanning”), um
mecanismo calculador permite definir os quatro coeficientes kj de ponderação de
cada cor Aj (j = 1, 2, 3 ou 4, com 4 = B ou N). Já na reprodução superficial integrada
por meio de clichês, se a confecção dos clichês C1,2,3 não parece apresentar maiores
dificuldades, a obtenção dos clichês complementares CB e CN depende de certas
técnicas inteiramente novas de utilização dos cilindros xerográficos, a fim de
aproveitar a presença simultânea do “ positivo “ (A+) e do negativo (A-) de uma
imagem eletrostática A, para realizar a soma eletrostática ∑ das três cores A1,2,3 (já
que a somação ótica é inexequível) e a diferença, eletrostática também, entre ∑ + e
o original A- para o clichê CB e entre A+ e ∑ - para o clichê CN .
Palavras-chave: cor de reflexão, fidelidade colorimétrica, reprodução cromática.
Abstract
The tri-chromatic reproduction of colored documents is a very largely used
technology, but it presents two great distortions: one, due to the sensible differences
between the optical characterisctics of the colored filters used for the extraction of
the three clichés and those of the inks used in printing; and another, as the consequence
of the limitation to only three basic colors, which simply eliminates the chromatic
relief. In order to restore the fidelity in color reproduction, these two distortions
must be corrected.
As to the first distortion, the only way for its elimination consists in the
abandonnement of the filters used to produce clichés via transparency and have
recourse to panels printed with the same inks used in the printing, the clichés being
obtained through refletion. In order to seize each partial image, it may be necessary
to mobilize certain special technologies: photo-cells in the exploration by pixels,
half-silvered mirrors and special xerographic cylinders in the simultaneous exposure
of all the area to be reproduced, but it is very possible to guarantee the chromatic
fidelity either in the operation of scanning, or else in the integrated reproduction of
the original via clichés.
The second distortion is more subtle and for its elimination it is necessary to
know the exact optical coordinates of each clored point: hue, chroma and value. If
the pixel A sits in the clear zone of the chromatic hexahedron (i.e. inside the
tertahedron A1A2A3B, A1,2,3 being the three basic colors and B the white), one must add
a certain percentage of white and if the pixel sits in the dark zone (i.e. inside the
tetrahedron NA1A 2A3 , N being the black), it will be necessary to add a definite
percentage of black, in order to restore the chromatic relief. In the case of the scanning,
a computing mechanism will define the four ponderation coefficients kj of the colors Aj
(j = 1, 2, 3 or 4, with 4 = B or N). Now in the integrated superficial reproduction
throught clichés, if the confection of the clichés C1,2,3 doesn’t seem to face greater
Pesquisa Naval Nº 15, Setembro de 2002
185
difficulties, the obtention of the complementary clichés CB and CN depends upon
certain new utilization forms of the xerographic cylinders, in order to profit of the
simultaneous presence of the “ positive “ (A+) and of the “ negative” (A-) of the
electrostatic image A, and perform the electrostatic summation ∑ of the three colors
A1,2,3 (since the optical addition is ineffective) and the difference, also in electrostatic
terms, between ∑ + and the original A - for the cliché CB and between A+ and ∑ - to
obtain the cliché CN .
Key-words: reflected-colors, colorimetric fidelity, chromatic reproduction.
1- Introdução
A reprodução em cores, principalmente das obras de arte, constituiu-se, desde
longa data, em um dos principais veículos de difusão cultural, pelo enriquecimento dos
“ museus imaginários “ (na acepção de André Malraux [11]) com reproduções
pretendidamente fiéis das obras primas existentes em igrejas, museus e coleções
particulares. Um exame atento dessas cópias mostra, entretanto, serem elas bastante
distorcidas em relação às obras originais, devido á imperfeição dos meios gráficos
empregados, sobretudo da tricomia, tão largamente utilizada em quase todas as revistas
publicadas atualmente.
De fato, uma cor de reflexão qualquer apresenta três características
fundamentais , que podem ser tomadas como as coordenadas para figurá-la num espaço
cromático tridimensional: o matiz, caracterizado pelo comprimento de onda da cor
espectral dominante; a pureza cromática, medida pela aproximação da cor pura espectral
correspondente ou pelo afastamento em relação à cor neutra ou cinzenta; e a tonalidade,
expressa em termos de luminosidade equivalente na escala dos cinzentos. Assim, no
sistema A . H . Munssell [12] de classificação das cores e com referência à fig. 1:
o matiz (“ hue “) é medido pelo ângulo m, que por sua vez pode ser deduzido da
posição em relação à divisão do plano em dez regiões: R-RP-P-PB-B-BG-GGY-Y-YR (onde R = “ red “, vermelho; P = “ purple “, púrpura; B = “ blue “,
azul; G = “ green “, verde; e Y = “ yellow “, amarelo), cada região sendo
subdividida em dez,o que corresponde a 3,60 por subdivisão (na prática
sendo realizados apenas quatro passos: 2,5 – 5 - 7,5 - 10, abrangendo 90 por
passo circunferente);
a pureza (ou intensidade) da cor é medida pelo cromatismo c (“ chroma “), que
varia desde /0 para os cinzentos (eixo neutro) até /16 ou mais para as cores
espectrais, com passos de 2 em 2; e
a tonalidade é medida pelo valor (“value”) v, variando desde 0/ para o preto, até
10/, para o branco.
186
Pesquisa Naval Nº 15, Setembro de 2002
Fig. 1 – Coordenadas de um ponto A, representativo da cor (A),
no espaço cromático tridimensional.
Fig. 2 – Hexaedro delimitando as cores que podem ser obtidas
a partir de (A1), (A2), (A3), (B) e (N)
Pesquisa Naval Nº 15, Setembro de 2002
187
Fig. 3 – Triângulo das cores espectrais no diagrama (x, y) de
cromaticidade, estabelecido desde 1931 pelo Comitê Internacional de
Iluminação, com a designação das cores proposta por Kelly (1940) (Fig. 39 do
tratado [6] de D. Judd) e uma sugestão de escolha das três cores básicas A1,2,3.
Das coordenadas cilíndricas (m, c, v) do ponto figurativo A (fig.1) pode-se
facilmente passar para um sistema cartesiano tri- retangular (x, y, z) mediante fórmulas
extremamente simples:
x = c cos m, y = c sen m ,
z=v
O mesmo pode ser dito, pelo menos em princípio, quanto a outros sistemas de
classificação das cores, tais como os de A . Maerz & M. R. Paul (1930 e 1950) [10] , W.
Ostwald (1931) [2] , A . Kornerup & J. H. wanscher (Methunen, 1961) [8] , etc.
188
Pesquisa Naval Nº 15, Setembro de 2002
Dadas duas cores (A1) e (A2), figuradas no espaço cromático pelos pontos A1
e A2 (fig.2), será possível obter qualquer cor intermediária (D) cujo ponto figurativo se
situe no segmento de reta A1A2, misturando adequadamente (A1) e (A2):
(D) = k1 (A 1) + k2 (A2), onde
k1= DA2/A1A2,
k2 = A1D/ A1A2,
k1+ k2=1.
Introduzindo uma terceira cor (A3), de ponto figurativo A3, será igualmente
possível, mediante combinação adequada, obter qualquer cor (A0) situada no interior
ou na periferia do triângulo A1A2A3:
(A0) = k1 (A1) + k2 (A2) + k3 (A3), onde
k1=A0A2A3/A1A2A3, k2 = A0A1A3/A1A2A3,
k3=A0A1A2/A1A2A3, k1 + k2 + k3 = 1.
Uma delas, em particular, estará situada no eixo neutro e representará o cinzento
(C0), de modo que (A0) poderá também ser obtida por combinação de (D) e de (C0) . Em
caso algum, porém, será possível representar, por combinação das três cores (A1),
(A2) e (A3), uma cor qualquer situada fora do plano figurativo A1A2A3 ou, neste plano,
fora do triângulo A1A2A3.
Uma litografia, pelo seu próprio modo de confecção, é normalmente multiplicada
mono, bi ou tricromaticamente, mas um quadro pintado nunca será reproduzido fielmente
através da tricromia, pois nenhum pintor aceitaria trabalhar com uma paleta contendo
apenas três cores. Pode-se reafirmar, portanto, que todos os álbuns de arte são enganosos
e as reproduções de quadros famosos, feitas sob a égide dos grandes museus, são
cromaticamente deformadas se comparadas com os respectivos originais. As únicas
reproduções fidedignas são aquelas feitas por (futuros) grandes pintores ao copiarem
quadros famosos (caso típico foi o de Goya copiando “ Las Meninas “ de Velasquez, ou
o de El Greco reproduzindo, em escala menor, seu próprio quadro “ O Santo (a cavalo)
e o mendigo “ , as duas obras se encontrando na National Gallery de Washington). Fora
disso, todas as reproduções tricromáticas e todas as fotografias em cores são falsas,
incompletas e sem relevo cromático, o que acaba, inclusive, distorcendo a apreciação
visual do mundo através da tricromia.
Para estender as combinações possíveis e representar cores situadas fora do
plano e do triângulo A1A2A3, torna-se necessário recorrer a uma quarta cor, que poderá
ser o branco (B), no caso do ponto figurativo A estiver situado acima de A1A2A3, na
zona clara, ou o preto (N), se o ponto figurativo A’ se encontrar abaixo de A1A2A3, na
zona escura do espaço cromático. Utilizando apenas três cores, como se faz correntemente
na imprensa, força-se uma distorção de todo o espaço cromático, reduzindo-o
praticamente a duas dimensões apenas, as do plano A1A2A3.
É bem verdade que na tricromia impressa utiliza-se , indiretamente, uma quarta
cor, que é a do suporte, na grande maioria dos casos constituído pelo papel branco, mas
aí surgem pelo menos três outras fontes de distorção:
Pesquisa Naval Nº 15, Setembro de 2002
189
- uma, devida ao efeito de superposição dos clichês sucessivos (vermelho, amarelo,
azul) e à consequente imperfeita mistura das tintas superpostas, o que acaba
favorecendo a última tonalidade impressa;
- outra, proveniente do fato de o branco do papel (ou a cor do suporte) diferir do branco
original e de não ser possível dosar corretamente a proporção de branco na cor
resultante;
- a terceira, e não a menos importante, causada pela diferença entre os espectros de
absorção do filtro utilizado para extrair uma cor (vermelho, amarelo, azul) do quadro
original na preparação do respectivo clichê e da tinta empregada na impressão da
mesma cor no papel (ou no suporte). Com os mesmos clichês e utilizando tintas
primárias com diferenças mínimas obtêm-se reproduções completamente diferentes
entre si (veja-se, por exemplo, a seção 9 do catálogo de cores da Néochrome de
1950 [13] e as três reproduções tricromáticas de um mesmo quadro, representando
uma marina de Mary Ribeto; ou, ainda, a diferença entre exemplares de uma mesma
revista pendurados nas paredes de um quiosque de jornaleiro), o que mostra
definitivemente a indiscutível infidelidade da reprodução tricromática.
Poder-se-ia pensar na adição de um outro clichê, destinado a reproduzir apenas
o preto (e, por mistura com o branco do suporte, os cinzentos intermediários) para
restituir o “ relevo” das cores, mas esta técnica redundaria na substituição de B por C
(V.fig.2) e a obtenção de um ponto A” diferente de A; todos os pontos situados acima
do plano A1A2A3 sairiam mais escuros e os abaixo mais claros que o original, de modo
que a reprodução seria infiel por reduzir ou aumentar, em proporções variáveis, o relevo
cromático.
As três cores primárias (A1), (A2) e (A3) devem ser escolhidas entre as que
possuem uma pureza elevada, o que significa que elas deverão situar-se na periferia do
espaço cromático, perto dos limites definidos pelas cores espectrais extraídas do triângulo
das cores (cf. fig.3), a fim de assegurar uma área A1A2A3 tão grande quanto possível. E,
para evitar a distorção acima assinalada, provocada pela diferença entre as curvas de
absorção espectral dos filtros e as da distribuição espectral das tintas utilizadas na
impressão, torna-se imperativo substituir os filtros por superfícies de reflexão pintadas
com as próprias tintas (A1), (A2) e (A3) que serão utilizadas na fase de reprodução dos
pontos coloridos (ou “ pixel s”) do documento original.
2 – Processo de Análise e Síntese dos “ Pixels “
A fig. 4 mostra a distribuição espectral da energia luminosa refletida por uma
superfície iluminada normalmente, em função do comprimento de onda do espectro
visível (que se estende desde 380 mµ , no violeta, até 780 mµ, no vermelho do espectro),
quando essa superfície é um corpo branco puro ideal (V), três cores primárias quaisquer
(V1,V2,V3), uma superfície branca real (VB) e uma superfície preta (VN). Uma superfície
muito próxima do branco puro E pode ser obtida por uma camada de óxido de magnésio
190
Pesquisa Naval Nº 15, Setembro de 2002
(MgO), cuja refletância média é de 0,976 (a título de comparação, a refletância do papel
branco é de 86%). Já o branco real (B) poderá ser obtido, na prática, a partir de uma
supensão coloidal de óxido de zinco (ZnO) ou de titânio (TiO2, rútilo), de amalgama de
prata, ou de outra substância que se aproxime do branco ideal, sem que constitua , no
entanto, uma superfície simplesmente refletora (tipo espelho). A cor preta (N), que será
utilizada na reprodução, resultará de uma suspensão coloidal de negro de fumo, que se
aproxima bastante da distribuição do corpo negro ideal, a qual se confunde com o eixo
horizontal (absorção total, reflexão nula).
A medição desses fluxos luminosos pode ser feita por meio de células
fotoelétricas (ou fotocélulas), cujo princípio de funcionamento é indicado na fig. 6 para
uma célula
foto-emissiva à base de césio e amplificação por triodo (que pode ser
substituído por um transistor): o fluxo incidente kj gera a corrente ij = fkj; a queda de
tensão Rij abaixa o pontencial da grelha do triodo T, o que provoca uma queda ∆Ij da
corrente de placa, podendo-se escrever:
∆Ij = I0 – Ij = T.Rij
(T sendo o fator de amplificação do triodo, que varia de 100.000 a 500.000),
donde:
Ij = I0 – T.Rij = I0 –TRfKj ,
o que mostra ser Ij uma função descrecente de Kj, que será linear se T e F forem
constantes.
Conforme esquematizado na fig. 5, o fluxo V (que corresponde ao branco puro)
é, primeiro, refletido por um difusor perfeito E (equivalente ao mesmo branco puro), em
seguida pelas cores (A1), (A2), (A3), (B) e (N), podendo-se inverter (B) com E e (N) com
E.
Seja agora K a distribuição espectral da cor (A) de um dos pontos (“pixels”)
explorados, quando iluminado normalmente (seja pela luz do sol, seja pela fonte “ C “ da
fig. 3, que é o ponto x = y = z = 1/3 do CIE) e sejam K1, K2, K3, KB e KN as distribuições
resultantes da reflexão de K pelas superfícies de referência, conforme exemplificado
esquematicamente pela fig. 7. A medição destes fluxos pode ser feita pelas mesmas
fotocélulas, apenas substituindo o difusor perfeito E pela superfície colorida (A),
conforme esquematizado pela fig. 8. Note-se que, se fosse conhecido v, não seria
necessário medir os fluxos KB e KN, pois admitindo curvas VB e VN (fig.4) sensivelmente
horizontais, ter-se-ia: KB/ K ≅ VB /V = b e KN/K ≅ VN/V = n, o que significa que os fluxos
KB e KN podem ser deduzidos de VB e VN, multiplicados pela proporção K/V = v (isto é,
KB =VB.v, KN =VN.v).
Esta proporção v mede, de certa forma a refletância global da cor (A), que
pode ser assemelhada à sua tonalidade (coordenada z = v do espaço cromático). Se o
Pesquisa Naval Nº 15, Setembro de 2002
191
ponto A se encontrar no tetraedro superior (claro), sua projeção no plano A1A2A3,
vista do ponto B, será A0 (V. fig.2). Já se A estiver no tetraedro inferior (escuro), ponto
A’ da fig. 2, sua projeção vista de N será também A0. É importante, então, conhecer a
coordenada v da cor (A) do “pixel” e calcular a coordenada v0 do ponto A0, que servirá
de referência para situar a cor (A) na zona clara, A, ou na zona escura, A’, do hexaedro
NA1A2A3B. O cálculo de v0 pode ser efetuado conforme indicado a seguir:
(A) = kB . (B) + k0. (A0) , ou
v = kB.b + k0.v0 ,
com
kB = A0A + v – v0 , donde
A0B b – v0
v0 = v - b.kB .
1 - kB
puro E
e VN)
Fi.4 – Distribuição espectral da energia luminosa refletida por um corpo branco
(linha V) e pelas cores (A1), (A2), (A3), (B) e (N) (respectivamente V1, V2, V3, VB
Fig.5 – Esquema de mediação dos fluxos V e Vj
192
Pesquisa Naval Nº 15, Setembro de 2002
Fig.6 – Princípio de funcionamento de uma fotocélula
v=
k kB
,
≅
v vB
Fig. 7 – Distribuição espectral K de uma cor qualquer (A) e distribuições Kj
resultantes da reflexão de K pelas superfícies coloridas (Aj )
Fig.8 – Esquema de medição dos fluxos K e Kj
Pesquisa Naval Nº 15, Setembro de 2002
193
A expressão geral de v é a seguinte:
v = k1v1 + k2v2 + k3v3 + k4v4,
onde 4 = B e v4 = b, no tetraedro A1A2A3B (claro)
e 4 = N e v4 = n, no tetraedro NA1A2A3 (escuro),
os kj devendo verificar a relação:
k1 + k 2 + k 3 + k 4 = 1 .
Substituindo kB (= k4) = 1 - k1 - k2 - k3 na expressão de vo, vem:
v0 = k1v1 + k2v2 + k3v3 + k4 b – b k4 = Σkjvj (j = 1, 2, 3).
k1 + k2 + k3
kj
Há, contudo, um pequeno problema decorrente da impossibilidade gráfica de
medir diretamente o fluxo total K, conforme sugerido pela fig.8, devido à ausência ,
dentro do aparelho de medição dos fluxos luminosos, de uma superfície E equivalente
ao branco puro, já que a superfície de referência (B) será a de um pigmento branco de
fácil utilização na prática da impressão, que não será o branco ideal. Não dispondo do
valor de K, não poderão ser conhecidos de imediato os valores normalizados kj = Kj/K,
nem o valor de v = K/V. É possível, no entanto, conseguir para vo uma expressão
equivalente em termos apenas de kj, que foram (ou estão sendo) medidos:
v0 =
k1v 1 + k 2v 2 + k 3v 3
= ∑ k ′j v j . (j = 1, 2, 3),
k1 + k 2 + k 3
K ′j =
KJ
K1 + K 2 + K 3
Por outro lado, mesmo desconhecendo momentaneamente o valor de K,
pode-se obter para v uma boa aproximação escrevendo:
os dois valores KB e VB tendo já sido medidos, KB no momento da análise da cor (A), VB
por ocasião da escolha e calibração inicial das cores de referência. (*)1
v=
k kB
≅
v vB
Assim sendo, pode-se comparar v com vo e então deduzir os valores de ko, kj
(j = 1, 2, 3) e finalmente de kB ou de kN, conforme indicado a seguir.
194
Pesquisa Naval Nº 15, Setembro de 2002
v ≥ v0
(A) = k0 (A0) + kB (B)
v = v’ < v0
(A’) = k0 (A0) + kN (N)
k0 = AB = b – v
A0B b – v0
k0 = NA’ = v’ - n
NA 0 v0 - n
kB = A0A = v – v0 = 1 – k0
A0B b – v0
kN
v = k0v0 + (1 – k0) b =
=
b – v . v0 + v – v0 .b
b – v0
b – v0
kj = b – v .
Kj
b - v0 K1 + K2 + K3
A’A0 = v0 - v’
NA 0 V0 - n
=
1 – k0
v’ = k0v0 + (1 – k0) n =
v’ – n .v0 + v0 – v’
v0 – n
v0 – n
=
kj = v’- n .
v0 – n
(j = 1, 2, 3)
kB = v – v0 = 1 – k1 – k2 – k3
b – v0
=
Kj
K1 + K2 + K3
(j = 1, 2, 3)
kN
=
v0 – v’ = 1 – k1- k2 – k3
v0 – n
A fig, 10 é um fluxograma de cálculo dos coeficientes kj (j = 1, 2, 3, B, N), em
função das entradas I1,I2,I3 e IB e das medições prévias de VJ.
Se v >v0, o ponto A situa-se na zona clara do espaço cromático e as três cores
(A1), (A2), (A3) deverão ser completadas com uma fração kB de branco (B); se v < v0 , o
ponto A ocupa a posição A’, na zona escura, devendo então ser adicionada uma fração
kN de preto (N); o caso v = v0 corresponderia ao plano A1A2A3, quando (e somente
quando) o ponto resultará como combinação tricromática.
3 – Aparelho para Reprodução Fiel em Cores
Conhecidos os valores de kj, será possível dosar as cores (Aj) e reconstruir a cor
verdadeira (A) de cada “pixel”. Uma das possíveis realizações de um aparelho capaz de
fazer tanto a operação de análise quanto o acionamento dos comandos de abertura,
proporcionalmente a esses kj, de cada recipiente de cor (sob a forma de uma suspensão
coloidal de pigmentos) e a impressão no suporte escolhido, está devidamente descrita
Pesquisa Naval Nº 15, Setembro de 2002
195
na referência [14] e não será reproduzida aqui, por se tratar meramente de detalhes
técnicos. Cabe, entretanto, examinar a qualidade da reprodução em cores sob um outro
aspecto, que é o da continuidade dos “pixels” assim reconstituídos.
Fig. 9 – Distribuição espacial do fluxo luminoso refletido (Lei de Lambert)
Fig.10 – Fluxograma do dispositivo calculador dos coeficientes kj
A escolha do tamanho mais adequado desses “pixels” deve resultar do
compromisso entre uma boa definição ótica (o que exige pontos pequenos e densos) e
as possibilidades práticas de miniaturização. Assim, por exemplo, um clichê reticulado
de 50 a 40 malhas por centímetro linear fornece uma resolução considerada muito boa,
mas a superfície elementar resultante é de apenas 1/2500 a 1/1600cm2 e o fluxo luminoso
196
Pesquisa Naval Nº 15, Setembro de 2002
refletido será ínfimo. Considerando, no entanto, que a reprodução pelo processo aqui
sugerido é praticamente contínua (em contrapartida à reprodução por meio de clichês
reticulados, onde a superfície é descontínua), a definição resultante para o mesmo grau
de decomposição será bem melhor, o que sugere a consideração de uma área de cerca de
1/2000 cm2 a 1/900 cm2, equivalente à área elementar de uma retícula de 45 a 30 linhas/cm.
Observe-se que , no caso de superfícies elementares tão pequenas, a iluminação deverá
ser muito intensa para que se possa obter um fluxo refletido detectável; mas, por outro
lado, o fator de concentração deverá ser limitado, a fim de evitar a danificação pelo calor
da superfície explorada, sugerindo-se, inclusive, o emprego de vidros recobertos por
uma fina camada de óxido de estanho ou de índio, que filtram os raios infra-vermelhos,
o que permitirá aumentar a concentração da parte visível do espectro (que gera pouco
calor). Visto que o poder separador (ou acuidade visual) do olho humano normal é da
ordem de 1’, o que corresponde a (π /180).1/60 = 0,000291 radianos, uma malha de 1/45
= 0,0222 cm a 1/30 = 0,0333 cm deixará de ser percebida individualmente, em perfeitas
condições de iluminação, a partir de uma distância de (0,0222 a 0,0333) ÷ 0,000291 = 76,3
a 114,4 cm, que será reduzida para cerca de metade desses valores nas condições
normais de iluminação (5000 lux), aproximando-se, assim, da distância habitual de leitura
(30 a 45 cm).
Esta área 2 (V. fig. 12), fortemente iluminada por uma mini-lâmpada central 4,
munida de refletor parabólico 3 (ou de um outro concentrador equivalente) e por quatro
mini-lâmpadas laterais, inclinadas a cerca de 450, também previstas com concentradores,
mesmo que apresente algumas asperidades (o que ocorre normalmente quando se trata
de superfícies pintadas), receberá uma luz uniforme, o que evitará distorções cromáticas.
A luz das mini-lâmpadas deverá ser tão próxima do branco ideal quanto possível,
podendo inclusive ser substituída pela luz solar direta, que fornece um iluminamento da
ordem de 100.000 lux (ou lumens por metro quadrado).
Fig.11 - Vista de frente, segundo II da fig. 12, de um dispositivo detector e
analisador das cores elementares que entram na composição de um “pixel”.
Pesquisa Naval Nº 15, Setembro de 2002
197
Fig. 12 Corte segundo I-I da fig. 11 do mesmo dispositivo detector e analisador
de cores.
198
Pesquisa Naval Nº 15, Setembro de 2002
O fluxo incidente sobre a superfície 2 do “ pixel “ é parcialmente refletido em
todas as direções (a parte não refletida sendo absorvida pela própria superfície iluminada)
e uma fração do fluxo refletido é interceptada, em partes iguais, por quatro superfícies
trapezoidais 6, das quais três estão pintadas com uma das cores básicas (A1), (A2), (A3)
e a quarta (B) está revestida de uma substância que se aproxime do branco ideal.
Sabe-se que uma superfície difusora elementar tem uma distribuição espacial
das intensidades em forma de esfera tangente (fig.9), pois numa direção qualquer, medida
pelo ângulo α , ter-se-á I α = I senα (lei de Lambert). O ângulo esférico correspondente
a uma variação ∆α do ângulo plano α sendo ∆ϕ = 2 πcos α ∆ α, o fluxo elementar terá
a expressão ∆k = I α ∆ϕ e sua integração entre os limites α1 e α 2 fornece: k = π I (sen2
α2 - sen2 α1). O fluxo total será obtido com α1 = 0 e α2 = 900 : k max = π I.
Para α1 = 300 e α 2 = 600, o fluxo interceptado será sensivelmente 50% de k max
e para α1 = 200 e α 2 = 700 ele alcançará 76,5% de k max, sendo, desta forma, possível
contar com pelo menos 64%, ou seja, 16% de k max para cada superfície interceptadora 6,
desde que α1 ≤ 250 e α 2 ≥ 650.
O fluxo luminoso interceptado por essa superfícies 6 é, por sua vez, parcialmente
refletido sobre quatro superfícies foto-sensitivas 7 de quatro foto-células, que recebem,
conforme o caso, uma fração kj (= k1, k2, k3 ou kB) do fluxo refletido. Para que estas
frações sejam as mais elevadas possíveis, as cortinas 9 e os voletes laterais 10, além de
impedirem a penetração de qualquer luz direta sobre as superfícies 6 e 7, têm suas partes
internas refletoras e o ângulo γ agudo; com δ ≤ 300 e ε ≤ 900, a perda de fluxo não
ultrapassará a fração (30/180). (90/180) = 1/12, de modo que a fração incidente sobre 7,
se bem que inferior à fração teórica restante 11/12, representará, assim mesmo, pelo
menos ¾ do fluxo refletido por 6.
O fluxo recebido por cada superfície foto-sensitiva 7 será um pouco inferior
aos 16% de k max, podendo-se admitir uma perda de, no máximo, 25%, restando, pois, 12
% do refletido pelos 1/2000 = 0,0005 cm2 de cada superficie de referência 2. Sendo esta
última submetida a um iluminamento diretro de 105 lux (luz solar) e a quatro iluminamentos
oblíquos a cerca de 450 (sen 450 = 0,707), totalizando assim 100.000 (1 + 4 × 0,707) =
382.800 lux, a energia recebida será de
cm2 . 1 m2 = 0,01914 Lm.
382.800 Lm . 1
2
m
2000
104 cm2
Uma célula foto-emissiva à base de césio pode gerar entre 10 e 80 µA/Lm.
Tomando o valor intermediário f ≅ 50 µA/Lm, a corrente gerada i sera da ordem do microampère. Esta corrente, conforme visto na seção anterior, pode ser amplificada entre cem
mil e quinhentas mil vezes, conduzindo, portanto, a correntes Ij diretamente operativas
de 0,1 a 0,5 ampères. Estas correntes entram no dispositivo calculador esquematizado
na fig.10, que fornece, na saída, os coeficientes kj sob a forma de correntes proporcionais
às intensidades relativas das cores de índice j (abrangendo, desta vez, também o preto
N) que deverão ser misturadas para reconstituir a cor original (A) do “ pixel “ explorado.
No dispositivo calculador, os dois valores do coeficiente k0 são calculados e
somados, mas o resultado da comparação v: v0 só ativará um dos termos da soma.
Pesquisa Naval Nº 15, Setembro de 2002
199
Além de comandar a impressão das quatro cores que reconstituirão cada “pixel”,
as correntes kj 99oderão alimentar, acessoriamente, um dis99ositivo registrador de cinco
cabeças para gerar, como subproduto, um registro gráfico ou magnético completo do
campo explorado pelo dis9ositivo varredor e analisador, servindo como re99ositório
9ara arquivos (“scanner”).
O mecanismo dosador de cores tem exemplificada uma 99ossível forma de
realização na fig. 13. A cuba 14 contém a cor (Aj) sob a forma de um líquido (água, óleo
ou um solvente adequado) no qual se acha dispersado ou dissolvido o respectivo
9igmento. Um visor 26 permite controlar o nível de líquido na cuba, o enchimento desta
sendo feito através do tubo 27, abrindo a torneira 28, de99ois de fechar a válvula 29, que
põe a cuba em contato com um reservatório 30 de ar comprimido, destinado a manter
uma pressão uniforme sobre o nível do líquido e igual nas cinco cubas. Na parte inferior
a cuba 14 tem uma abertura 16, fechada pela placa móvel 15, provida de outra abertura
17; esta placa esta normalmente mantida em 99osição fechada 9ela ação da mola 25,
fixada na 9arede da cuba e numa proeminência 24 da placa 15; a corrente kj alimenta,
através dos bornes 19, um eletro-ímã cuja armação 20 está isolada da parede da cuba 99or
meio de uma placa 21; um cilindro 22 de ferro mole, solidário à proeminência 23 da 9laca
15, é atraído pela armação do eletro-ímã com uma força 9ro99orcional à corrente kj,
produzindo um deslocamento da 9laca móvel 15 e a abertura progressiva da área de
passagem comum às aberturas 16 e 17 (que coincidirão quando kj atingir seu valor
máximo). A forma dessas aberturas e seu movimento relativo (que 99ode ser a translação
ou de rotação) 99odem ser combinados de maneira a corrigir qualquer falta de
9ro9orcionalidade entre o valor de kj e o deslocamento corres99ondente da peça 22.
O fluxo de líquido colorido será pro99orcional à área deixada livre pela abertura
17 e sairá da cuba através do tubo capilar 18, para desembocar no pavilhão concentrador
de seção quadrada 31, onde as cores se misturam parcialmente entre si e intimamente
com o ar aspirado 99or força dos esguichos de líquido. O lado do quadrado 31 na saída
do pavilhão concentrador será, em 9rincípio, igual ao da superfície elementar 2 do “
9ixel “, podendo, contudo, ser menor em caso de redução (36) ou maior em caso de
ampliação (37) do quadrado original.
O dis9ositivo analisador e esquadrinhador 99oderá também funcionar
inde9endentemente como analisador, identificador e classificador automático de
quaisquer amostras de cores, pois uma vez conhecidos os kj e as coordenadas mj, cj e vj,
determinam-se as coordenadas cartesianas equivalentes xj, yj e zj e então têm-se para as
coordenadas da cor analisada (A):
x = c cos m = Σ kjcj cos mj
y = c sem m =Σ kjcj sen mj
z = v = Σ kjvj

j =1, 2, 3, 4 (4 = B ou N)
200
Pesquisa Naval Nº 15, Setembro de 2002
donde se tira:
c=
x2 + y2
e
m = arc tg y
x
v = z.
Os kj podem ser , por outro lado, calculados diretamente a partir das coordenadas
(xj, yj, zj), mediante as fórmulas:
kj = ∆j / ∆, em que
∆=
1 x1 y1 z1
1 x2 y2 z2
1 x3 y3 z3
1 x4 y4 z4
= 6 × vol. A1A2A3A4 e
∆j = ∆ em que a j-ésima linha (1 xj yj zj) foi substiuída por (1x y z).
4 – Incovenientes do Processo Pontual e Procura de uma Solução Integrada
O processo e aparelho descritos nos capítulos anteriores 2 e 3, ainda que
permitindo reproduzir fielmente as cores contidas no hexaedro NA1A2A3B da fig.2, tem
um grande inconveniente prático, que é o de exigir um tempo muito grande, devido à
necessidade de dividir a área a ser explorada e copiada em “pixels” muito finos (com
“pixels” de 0,316 mm de lado seriam necessários 107 – dez milhões – de “pixels” por
metro quadrado). As cópias assim obtidas seriam fiéis, porém muito caras, logo pouco
acessíveis.
As pesquisas mostraram que é possível proporcionar a obtenção de
reproduções fiéis de quaisquer quadros pintados ou documentos coloridos, quer por
meio de cinco clichês reticulados que reproduzem a superfície inteira e não apenas
“pixels” sucessivos, quer por meio de cilindros foto-sensitivos como os utilizados na
reprodução xerográfica, tornando desta forma as cópias incomparavelmente mais baratas
e, portanto, mais acessíveis ao grande público e contribuindo, assim, para a difusão da
cultura artística e o aprimoramento da educação visual dos apreciadores de artes plásticas
em geral e de pintura e outros trabalhos coloridos em particular. O novo processo,
baseado numa pentacromia xerográfica, foi detalhadamente descrito na referência [15] e
será resumido no capítulo seguinte. Antes, porém, cabe fazer uma análise do processo
xerográfico de reprodução, já de domínio público, que servirá de base para a confecção
dos cinco clichês acima mencionados.
Pesquisa Naval Nº 15, Setembro de 2002
201
O processo xerográfico, esquematizado na fig.14, pode ser decomposto em
sete fases:
fase I: deposição de cargas elétricas positivas na superfície 11 do cilindro,
que é revestida de selênio ou de outra substância foto-sensitiva (ou
foto-condutora, ou foto- receptora), tal como: tri-seleniato de arsênio,
polivinilcarbazol e trinitrofluorenona, ftalocianina, óxido de zinco,
sulfeto de cádmio, devendo-se apenas, na escolha da substância
fotosensitiva, levar em conta as curvas de sensibilidade dessas
substâncias às várias cores do espectro, a fim de evitar desequilíbrios
óticos entre as cores (Aj), cf. fig. 15 da ref. [16] (p.810);
fase II: exposição da superfície foto-sensitiva à imagem do original a ser
copiado e sua transformação em imagem eletrostática latente;
fase III: revelação da imagem latente por meio de um “ toner “ Tj carregado
positivamente por um corotron 22, o borne negativo da pilha 23 sendo
ligado ao eletrodo-base 17; o “ toner “ é um pó finíssimo, da cor que se
quer imprimir, suficientemente condutor para receber cargas de
corotron e podendo conter um lubrificante para facilitar a aderência ao
suporte e a fusão posterior;
fase IV: transferência da imagem revelada para o suporte 26 (papel, plástico,
etc), podendo este receber uma carga de sinal contrário à do ‘toner’, a
fim de facilitar a passagem do pó;
fase V: fixação do pó no suporte 26, quer por simples pressão, através dos
rolos 25, quer por ligeiro aquecimento em 27;
fase VI: limpeza do cilindro, para retirar os 10 a 30% de pó não aderido; e
fase VII: neutralização, por meio de um banho de luz, das cargas eventualmente
remanescentes, deixando o fotoreceptor pronto para iniciar um novo
ciclo.
Um cilindro xerográfico como o da fig.14, carregado positivamente, quando
exposto à luz projetada da imagem do original (A), produz uma imagem latente que
representa o “ negativo “ desse original em cargas positivas (A-), ou o “ positivo “ do
mesmo (A+) em buracos (ausência de cargas). Se o cilindro estivesse sido carregado
negativamente, a imagem latente do original (A) seria o “negativo “ do original (A-) em
cargas negativas, ou o “ positivo “ do mesmo (A+) em buracos (ausência de cargas).
Portanto, qualquer que seja o sinal (+ ou -) das cargas superficiais, a imagem latente
abrange tanto o “negativo” quanto o seu complemento, que é “positivo” do original,
bastando usar o sinal adequado na carga do “ toner “ para extrair o resultado desejado.
Este fato não parece ter sido explorado na confecção das máquinas de reprodução
xerográfica, mas é fundamental quando se trata de efetuar comparações de imagens,
como se verá em seguida.
202
Pesquisa Naval Nº 15, Setembro de 2002
Fig. 14 As sete etapas (I a VII) que caracterizam o processo de reprodução
xerográficadooriginalA j.
Fig. 15 Obtenção da imagem original (A) sobre uma tela (Aj) e, por reflexão,
sobre um suporte neutro.
Pesquisa Naval Nº 15, Setembro de 2002
203
Fig. 16 Sistema ótico convergente isento de aberrações e astigmatismos.
Fig. 17 Esquema de extração das cinco imagens parciais Aj
5 – Utilização do Processo Xerográfico para Extrair os Cinco Clichês de Reprodução
Fiel em Cores
O processo de reprodução fiel em cores por meio de pentacromia xerográfica
abrange duas fases distintas:
- na primeira, extraem-se do original colorido (A) a ser reproduzido cinco clichês Cj (j =
1, 2, 3, B, N), que representam as proporções em que as cores (Aj) entrarão na
composição de cada ponto colorido (“ pixel “) do original;
- na segunda fase, usam-se os clichês Cj para efetuar impressões sucessivas sobre um
mesmo suporte, preferivelmente neutro (que pode ser transparente, ou então de
uma leve cor cinzenta de meia intensidade), das cinco cores (Aj), seja transformando
esses clichês xerográficos em clichês reticulados que serão depois utilizados numa
impressora comum, seja utilizando tais clichês para alimentar cinco cilindros
xerográficos, cada um imprimindo, em sequência, uma das cores (Aj) sobre o suporte
escolhido.
204
Pesquisa Naval Nº 15, Setembro de 2002
Corrigir e completas-se-á, desta forma, a tricromia, que agora aparece como
decorrência de uma simplificação forçada, devida à incorreta interpretação do triângulo
das cores espectrais de emissão (fig.3), que não leva em conta a tonalidade (ou valor,
ou luminosidade) dar cor refletida , para a reprodução da qual torna-se necessário
misturá-la com uma quarta ou quinta cor, que será o branco ou o preto, conforme o
caso.
Note-se que, aos serem empregados os clichês reticulados, corre-se o risco de
pequenas superposições de cores, o que poderá favorecer a última cor impressa, ou
então a mais intensa, e só a prática poderá recomendar a melhor sucessão na impressão
dos clichês. A grande vantagem deste processo, no entanto, é a de garantir a
durabilidade das matrizes, que poderão ser usadas cada vez que houver uma demanda
de reproduções. Já no caso dos clichês xerográficos, visto ser a definição eletrostática
muito mais fina que a dos reticulados, haverá menos risco de superposição das cores,
mas em compensação sua durabilidade será limitada devido à desbotadura pela luz e às
alterações ocasionadas por fatores vários (umidade, calor, etc.). A cor de cada clichê
poderá ser a cor a ser impressa, para evitar confusões, mas nada impede que os clichês
xerográficos sejam impressos em preto sobre um suporte neutro ou incolor, ou mesmo
branco, com indicação inequívoca da cor que corresponde cada um.
A extração dos clichês C1,C2 e C3 das três cores fundamentais escolhidas (A1),
(A2) e (A3) é efetuada segundo o esquema da fig.15, onde o original (A), apoiado no
suporte 1, forte e uniformemente iluminado por um conjunto de lâmpadas 6 e refletores
7 convenientemente dispostos na frente de (A), é projetado oticamente, através da
lente 2, sobre um suporte 4, que é pintado com cor a (Aj) que se quer extrair. Da imagem
de (A) sobre 4, a camada de cor (Aj) refletirá apenas os “ pixels “ de cor j do original, os
demais sendo simplesmente absorvidos, de modo que um observador, olhando para 4,
verá uma imagem monocromática traduzindo a presença da cor j em cada um dos
pontos iluminados.
Trata-se agora de captar essa imagem e transformá-la em outra imagem
eletrostática equivalente. A captação será conseguida projetando a imagem sobre um
suporte horizontal transparente 5, mediante a interposição de um espelho semi-prateado
3, inclinado a 450. Este espelho terá um coeficiente de transmissão r1 e outro de reflexão
r2; admitindo que a absorção da luz através do vidro do espelho será medida por um
coeficiente r3 desprezível, ter-se-á r2 = 1 – r1, já que r1 + r2 + r3 = 1. A imagem formada no
suporte 4 terá então a intensidade luminosa reduzida para r1 (Aj) e a nova imagem
refletida sobre 5, que é a imagem captada, terá a intensidade r2r1(Aj). Para que esta
última tenha o valor máximo, dever-se-ia escolher r2 = r1 = ½ e então r2r1 = ¼, mas
dificilmente se obterá um prateamento exatamente na proporção de 50%, de modo que
o produto r2r1 será sempre um pouco inferior a 1/4, podendo-se aceitar, para efeitos
práticos, um valor r2r1 ≅ 0,2. Historicamente, este tipo de espelho foi utilizado por
Fizeau, no século XIX, quando mediu a velocidade da luz (299.796 km/s), e pouco
Pesquisa Naval Nº 15, Setembro de 2002
205
depois na célebre experiência de Michelson e Morley em 1887 para avaliar o efeito do
movimento da terra sobre a velocidade da luz, cujo resultado negativo deu origem à
teoria da relatividade (Lorentz, Einstein).
A fim de corrigir as imperfeições devidas às aberrações (esférica, cromática) e
astigmatismos, a lente simples 2 será substituída por um sistema ótico como o
exemplificado na fig. 16, que é o de uma objetiva duplamente anastigmática e sem
aberrações, contendo, de cada lado, duas lentes convergentes 8 e 9 e uma divergente
10.
A produção dos três clichês C1,2,3 se completará com a transformação da imagem
captada no suporte 5 em uma imagem eletrostática e a revelação desta última mediante
deposição e fixação de um “ toner “ sobre o suporte neutro ou transparente escolhido,
utilizando para isso o cilindro 11 e uma copiadora xerográfica comum, segundo
detalhadamente mostrado na fig. 14 e descrito na seção anterior (4).
Normalmente, o “ toner “ Tj (21) é carregado negativamente e então ele se
deposita naquelas regiões da superfície foto-sensitiva 16 que ainda possuem cargas
positivas. De fato, após a passagem do cilindro 11 por baixo do original (Aj) iluminado,
os fótons oriundos deste destroem as cargas superficiais que se encontram na sua
frente, de modo que as regiões claras, do tipo aj, deixam passar a luz, enquanto as
regiões escuras permanecem carregadas, atraindo em seguida os grãos de “ toner “ e
produzindo finalmente uma imagem revelada que é o “positivo” do original. Já na fig. 14
os grãos só se depositarão nas regiões foto-sensitivas isentas de cargas (porque tendo
recebido, por hipótese cargas positivas do coroton 22, estas serão repelidas pelas
cargas positivas superficiais), ou seja, nas regiões do tipo aj, que são iluminadas pela
cor (Aj) , de modo que, finalmente a imagem revelada será o “ negativo “ de Aj no
original, que é exatamente o que se quer para gerar o clichê Cj. Conforme já assinalado,
a cor do “ toner “ poderá ser a própria cor (Aj) – mas, neste caso, o recipiente 21, que
contém o “ toner “, deverá ser substituído nas três tiragens sucessivas – ou então uma
cor preta comum, com indicação precisa da cor para qual o clichê será usado.
Para obter os dois clichês restantes, CB e CN, deve-se fazer uma operação de
soma e outra de subtração de cores, que não poderão ser efetuadas oticamente, devendose obrigatoriamente recorrer às imagens latentes eletrostáticas. Eis os raciocínios:
- visto tratar-se da adição de branco (B) ou de preto (N), a coordenada-chave de cada
cor (Aj) será sua tonalidade vj (ou seja, sua posição no eixo vertical dos cinzentos
nos espaço cromático);
- fazendo a soma ponderada das tonalidades das três cores (A1), (A2) e (A3), obter-seá a tonalidade v0 = k1v1 + k2v2 + k3v3 do ponto A0 da fig.2, ou então do seu
correspondente C0 no eixo NB;
206
Pesquisa Naval Nº 15, Setembro de 2002
- se v0 < v = v’A , deve-se adicionar (v - v0) ao valor v0 obtido como soma ponderada das
tonalidades , ou seja: vB = vA – v0; isto é a mesma coisa que dizer: sendo a soma
ponderada das tonalidades das três cores inferior à tonalidade do original (A), o
resultado da superposição das três cores é mais escuro que o original e então, para
corrigir a tonalidade, deve-se adicionar uma determinada proporção de branco;
- se v0 > v = v’A, subtrair-se-á de v0 a diferença (v0 – v), isto é: v’B = v0 – v’A; ou ainda,
em termos comuns: sendo o resultado da superposição das cores de uma tonalidade
mais clara que a do original, deve-se corrigi-lo adicionando determinada porcentagem
de preto.
Os clichês C1,2,3 já trazem, em si, a ponderação kj (Aj) das respectivas cores.
Trata-se agora de somar, para cada um dos pontos do original (A), as três tonalidades
ponderadas e comparar o resultado com a tonalidade do original. Para tanto, na fig.17
está representada a presença de mais quatro cilindros xerográficos, além de Aj: 12 (Σ+),
13 (A-), 14 (A+) e 15 (Σ-). Estes cilindros têm os “toners” 21 e os receptores 26 desligados,
recebem inicialmente cargas superficias positivas (12 e 14) ou negativas (13 e 15) e, em
seguida:
—o cilindro 12, girando no sentido normal, recebe sucessivamente as imagens
(A1), (A2) e (A3), que iluminam a mesma área e provocam descargas
superpostas, o que equivale dizer que finalmente as três imagens terão sido
somadas quanto às suas tonalidades, encerrando, em cargas positivas
superficiais, o “ negativo “ de Σ (isto é, Σ-), ou, o que é mais importante, uma
imagem complementar que consiste na ausência de cargas e que é o “ positivo
“de Σ (ou Σ +);
—o cilindro 15, girando em sentido contrário, também recebe em sucessão as
imagens (A1), (A2) e (A3), mas sendo carregado negativamente, a soma
resultante será também negativa, obtendo-se o “negativo” de Σ (ou Σ-) em
cargas negativas e seu complemento Σ + em buracos (ou ausência de cargas);
—o cilindro 13, carregado positivamente, gira no sentido inverso e recebe a
imagem do original (A) refletida por um painel 4 (V. fig.15) revestido de uma
cor branca pura (suspensão coloidal de amalgama de prata, óxido de zinco
ou de titânio), produzindo a imagem latente que é o “negativo” de A (ou A)
em cargas positivas, ou o seu complemento, que é o “ positivo “ de A (ou
A+) em ausência de cargas (ou buracos);
—o cilindro 14, carregado negativamente e girando em sentido normal, também
reflete a imagem do original (A), produzindo a imagem latente do “ negativo”
de A (A-) em cargas negativas e seu complemento, o “positivo” de A (ou
A+), em buracos, ou ausência de cargas.
Pesquisa Naval Nº 15, Setembro de 2002
207
Aproximando agora os cilindros 12 e 13 para superpor as duas imagens latentes
superficiais (V.fig. 18), uma parte das cargas positivas (+) de A- cairá em cima de cargas
positivas (+) de A – cairá em cima de cargas positivas do “ negativo “ de Σ , não
produzindo ali qualquer eleito qualitativo suplementar (quanto muito uma saturação em
cargas positivas); a outra parte dessas cargas cairá nos buracos de Σ-, introduzindo ou
acrescentando cargas positivas que diminuirão cada buraco de quantia (Σ - A) desejada,
de modo que a imagem latente “ positiva “ resultante no cilindro 12 será exatamente a da
quantia de branco a ser acrescentada para restabelecer o relevo cromático. Uma vez
revelada, ela produzirá o clichê CB.
Da mesma forma, aproximando os cilindros 14 e 15 e superpondo, assim, o Σsobre o A+ (V. fig.19), uma parte das cargas negativas de Σ cairá em cima das cargas
negativas superficiais de A-, sem alterar o sinal resultante, enquanto que a outra parte
encherá parcial ou totalmente os buracos de A+, o resultado desta “ osculação “ sendo
a diferença (A - Σ) de cor preta (N) a ser acrescentada a cada “ pixel “ para restabelecer
o relevo cromático. Revelando essa imagem latente do cilindro 14, resultará o clichê CN.
Como os pontos A e A’ da fig.2 estão em zonas diferentes, não haverá nenhuma
região comum entre os dois clichês, mas isto não quer dizer que CN é o negativo de CB,
porque nas zonas onde não há branco haverá um cinzento de intensidade variável
correspondente ao vB, e não simplesmente uma cor preta (em outras palavras, a densidade
dos pigmentos pretos será variável, de acordo com a tonalidade cinzenta de respectivo
“ pixel “).
Obtidos, assim, os cinco clichês CJ (j = 1, 2, 3, B, N), serão os cilindros 12, 13,
14 e 15 religados, redirecionados e os respectivos recipientes 21 alimentados com “
tornes “ Tj da cor j. Inserindo os clichês Cj nos cilindros 11 a 15, o suporte 26 passará
sucessivamente por cada um e receberá uma das impressões. A ordem recomendada “
a priori “ seria: CN, CB, C1, C2 e C3, supondo que C1 é a cor mais escura e C3 a mais clara
das três fundamentais, mas a prática poderá indicar outras ordens de preferência. O
mesmo se aplica aos cilindros metálicos reticulados utilizados numa impressora comum.
Cabe ainda fazer uma observação relativa ao conteúdo em cor (Aj) de cada
clichê Cj. Com efeito, da imagem projetada sobre o painel 4 da fig.15, a superfície do
painel, pintada na cor (Aj) refletirá não apenas essa cor, mas também a proporção de (Aj)
contida no branco (B) existente em (A). Contudo, na impressão dos clichês sobre o
suporte final, as três porções de cores se recombinarão para restituir o branco que lhes
deu origem, de modo que não haverá excesso de nenhuma das três cores de base,
sendo assim reconstituída a aparência original e garantida a fidelidade da reprodução.
208
Pesquisa Naval Nº 15, Setembro de 2002
Fig.18 Superposição das imagens latentes obtidas nos cilindros 12 e 13 para
produzir o clichê CB
Fig .19 Superposição das imagens latentes obtidas nos cilindros 14 e 15 para
produzir o clichê CN
Pesquisa Naval Nº 15, Setembro de 2002
209
Todas as operações acima descritas poderão ser automatizadas sem qualquer
dificuldade, limitando a intervenção do operador a ligar a máquina, escolher o tamanho
da reprodução e o número de cópias, substituir folhas do suporte mal impressas e
desligar a máquina, além de cuidar do arquivamento correto dos clichês.
Quanto à possibilidade de simplificar a obtenção dos clichês CB e C N,
substituindo simplesmente CB pelo suporte branco e CN pela imagem em preto-e-branco
(mais exatamente: em tons de cinzento) do original (A), deve-se observar que isto
redundaria na substituição de B por C (V. fig.2) e a obtenção de um ponto A” diferente
de A: todos os pontos situados acima do plano A1A2A3 seriam mais escuros e os abaixo
mais claros que o original, de modo que a reprodução seria infiel por reduzir ou aumentar,
em proporções variáveis, o relevo cromático.
6 - Conclusões
A tricromia, tão largamente utilizada na imprensa colorida, introduz duas
grandes distorções nas imagens reproduzidas: uma, devida ao fato das características
óticas dos filtros utilizados na extração dos três clichês serem bastante diferentes das
características óticas das tintas utilizadas na impressão; e outra, decorrente do fato de
com três cores somente ser possível reproduzir as cores existentes no triângulo por elas
delimitado, o que simplesmente elimina todo o relevo cromático. Uma reprodução fiel
em cores deverá, portanto, eliminar essas duas distorções.
Para corrigir a primeira distorção, só existe um caminho: em vez de utilizar
filtros coloridos e obtenção de clichês por transparência, recorrer a painéis coloridos
com as cores básicas que serão utilizadas na reprodução e fazer a extração dos clichês
por meio de reflexão. A captação de cada imagem parcial requer a mobilização de vários
recursos tecnológicos avançados (tais como foto-células, espelhos semi-prateados,
etc.), mas é perfeitamente possível garantir a fidelidade da análise dos “pixels” na
operação de exploração (“scanning”) e da obtenção dos clichês de impressão na
reprodução simultânea de toda a superfície do documento original.
A segunda distorção é um pouco mais sutil e sua eliminação requer o
conhecimento exato das coordenadas óticas de cada “pixel” a ser reproduzido. Se o
“pixel” se encontrar na zona clara do hexaedro cromático (ou seja, no tetraedro A1A2A3B,
A123 sendo as três cores básicas e B o branco), acrescentar-se-á uma porcentagem de
branco, e se o “ pixel “ estiver situado na zona escura (ou seja, no tetraedro NA1A2A3,
N sendo o preto) acrescentar-se-á uma porcentagem de preto, para restabelecer o relevo
cromático. No caso do “scanning” e/ou da reprodução pontual, um mecanismo calculador
permite definir os quatro coeficientes kj de ponderação de cada cor Aj (j = 1, 2, 3 ou 4,
com 4 = B ou N). Já no caso da reprodução superficial integrada por meio de clichês, a
confecção dos clichês C1,2,3 não apresenta maiores dificuldades, mas a obtenção dos
clichês complementares CB e CN depende de técnicas inteiramente novas de utilização
dos cilindros xerográficos, a fim de aproveitar a presença simultânea do “ positivo “
(A+) e do “ negativo “ (A-) de uma imagem eletrostática A, para realizar a soma eletrostática
Σ das tonalidades ponderadas das três cores A1,2,3 (já que a somação ótica é inexequível)
e a diferença, eletrostática também, entre Σ + e o original A- para o clichê CB e entre A+
e Σ - para o clichê CN.
Desta forma, será possível restabelecer a fidelidade cromática e o barateamento
das reproduções, contribuindo, assim, para aprimorar os aspectos estéticos das artes
plásticas e melhorar a apreciação visual do mundo colorido.
7 – Referências Bibliográficas
BOLL, Marcel & DOURGNON, Jean Le Secret des Coulers Paris, PUF, 1956,
Coll. “Que Sais-je? “ 128p.
CONTAINER Corp. of America Color Harmony Manual Chicago, 3 rd ed. 1948
(680 chips) Sistema de W.Ostwald.
CORAL Dulux Guia de Cores e Produtos folheto 16 p., 1998.
FER, Edmond Solfège de la Couleur Paris, Dunod, 1953, 28 p. +14 planches.
JUDD, Deane B. Colorimetry NBS Circular 478 (1950) Washington D.C. 56 +
4 p., 128 ref.
JUDD, Deane B. Color in Business, Science and Industry N. York, J. Wiley &
Sons Inc., 1952, 402 + 8 p., 106 fig., cca 400 ref.
KELLY, K.L. Color Designations for Lights, in: J. Research NBS 31, 271 (1943)
RP 1565 e J. Opt. Soc. Am. 33, 627 (1943).
KORNERUP A . & WANSCHER, J . H. Methuen Handbook of Color, London,
2nd ed. 1963,244p. , incl. 30 plates 8 x 6 chips.
LORILLEUX & Cie, Ch. Catalogue de 3 x 120 coulers, 1950, 15 p.
MAERZ, A. & PAUL, M. Rea A Dictionary of Color Mc Graw-Hill, N.
York, 1950, 2nd ed. 208 p., incl. 56 plates of 6 x 12 colors (7056 cores).
MALRAUX, André Le Musée Imaginaire Paris, Gallimard, 1965, 262 p., 172
ilustrações.
MUNSELL Color Co. Munsell Book of Color, Baltimore, V. I 1929, V.
II 1943, 40 charts.
NÉOCHROME, Soc. Des Encres d’Imprimerie Catalogue (1950) 8 p. + 18
sections.
ONIGA, Teodoro Processo e Aparelho de Reprodução Fiel em Cores,
pat. dep. INPI –RJ n. 7191, de 27/06/2001.
ONIGA, Teodoro Reprodução Fiel em Cores por Meio de Pentacromia
Xerográfica, pat. dep. INPI-RJ n. 1657, 20/02/2002.
Xerografia – V. artigo ELECTROPHOTOGRAPHY (autores: Nicolaus E.
WOLFF, Consultor, e Jonh W. WEIGL, da Xerox Corp.), in:
Encyclopedy of Science and Technology vol. 8, p. 794 – 826.
XVI
Capítulo
JAVAMIX: SISTEMA DE APOIO À DECISÃO PARA AVALIAÇÃO
DE PLANOS DE VARREDURA DE MINAS
CC José Corrêa Paes Filho, MSc.
Centro de Análises de Sistemas Navais
Ilha das Cobras, ed. 8 - 3º Andar - AMRJ
Centro - Rio de Janeiro - RJ
e_mail: [email protected]
Alan Washburn, PhD.
Professor Titular do Departamento de Pesquisa Operacional.
Naval Postgraduate School – Monterey, CA
e_mail: [email protected]
Resumo
JAVAMIX é um Sistema de Apoio à Decisão (SAD), em Java, para varredura
de campos minados marítimos com vários tipos de minas presentes. O SAD usa
simulação de Monte Carlo e é baseado na opção Monte Carlo do SAD MIXER
(Washburn, 1995). A interface homem máquina JAVAMIX permite ao usuário
introduzir diferentes planos baseado nos meios e varreduras disponíveis e nos tipos
de minas esperados. Para limpar o campo minado o usuário deve escolher um arquivo
de parâmetros e estabelecer um plano de varredura. Ao final da simulação, tabelas,
com o resultado da varredura, são apresentadas ao usuário numa janela do DOS,
permitindo uma fácil visualização da aplicação tática do plano. O sistema foi
concebido de modo a permitir futuros desenvolvimentos, tais como a implementação
das outras opões do SAD MIXER e a introdução de novos parâmetros .
212
Pesquisa Naval Nº 15, Setembro de 2002
Abstract
A Tactical Decision Aid (TDA) for mixed minefield clearance, JAVAMIX,
was designed, developed and tested. The TDA uses a Monte Carlo Simulation and it
is based on the Monte Carlo option of the TDA MIXER (Washburn, 1995). The
JAVAMIX GUI allows the user to introduce different plans based on the sweep and
resource types available and mine types expected. To clear the minefield the user is
asked to choose a parameter file and to introduce a plan. Output tables are presented
in a DOS window and permit the user to easily visualize if the chosen plan is tactically
executable. The design of the system permits future developments such as the
implementation of MIXER’s other options and the introduction of new parameters.
1.
INTRODUÇÃO
A guerra de minas é um aspecto da guerra naval extremamente importante.
Apesar de muitas evidências, muitas Marinhas tendem a negligenciá-la. Por exemplo,
nos últimos cinco meses da Segunda Guerra Mundial, a perda de navios japoneses
devido a atuação de minas foi praticamente a mesma que a perda de navios americanos
no Atlântico por ataque de submarinos alemães, durante todo o período da guerra [1].
Apesar da varredura de minas ser uma tarefa extremamente perigosa, este
ramo da guerra de minas muitas vezes não é considerado uma das funções mais nobres
de uma Marinha, principalmente por ser uma tarefa árdua e perigosa. Todas as Marinhas
devem considerar os riscos que as minas impõem as suas esquadras e assegurar a
manutenção e o desenvolvimento de suas capacidades para guerra de minas.
Desde a década de 70, Sistemas de Apoio à Decisão vêem sendo desenvolvidos
para ajudar os planejadores de contra-medidas de minagem. O SAD MIXER (Washburn,
1995) é um exemplo de sistema para varredura de áreas minadas com vários tipos de
minas. Este foi implementado em Fortran e na sua forma atual só é utilizável nas mãos de
especialistas, pelo fato do sistema não possuir interfaces visuais que facilitem sua
utilização pelos usuários.
2. DEFINIÇÃO DO PROBLEMA
O SAD MIXER possui quatro opções e uma delas é uma simulação de Monte
Carlo. Dada a velocidade dos atuais computadores, este tipo de simulação consegue
resultados próximos à realidade mostrando com isso uma boa aplicação tática. Este
trabalho é responsável pelo design e desenvolvimento de um software em Java para
implementação da opção Monte Carlo do SAD MIXER. O sistema resultante é chamado
de JAVAMIX.
Pesquisa Naval Nº 15, Setembro de 2002
213
3. DESIGN DO SISTEMA
O IHM (Interface Homem Máquina) JAVAMIX permite ao usuário a introdução
de diferentes planos baseado no tipo de varreduras e meios disponíveis e no tipo de
minas esperados. Para limpar o campo minado o usuário deve escolher o arquivo de
parâmetros desejado e estabelecer um plano de varredura. Tabelas apresentadas numa
janela do DOS permitem ao usuário uma fácil visualização da aplicação tática do plano.
O sistema permite futuros desenvolvimentos tais como a implementação das outras
opções do SAD MIXER e a introdução de novos parâmetros. JAVAMIX permite ao
usuário fazer as modificações desejadas no plano inicial na própria tela do computador.
Depois de estabelecer seu plano de varredura o usuário pode rodar a simulação e
verificar se o plano é executável. Baseado nos resultados da simulação o usuário pode
decidir que modificações deseja efetuar no seu plano inicial. Todos os parâmetros são
transcritos em arquivos de entrada e o usuário pode escolher qual arquivo desejar.
Esta opção dá ao usuário uma grande flexibilidade por permitir que este use os
parâmetros que julgar necessários baseado nos cenários. A Figura 1 mostra o design
do sistema.
Figura 1. Design do Sistema
4.
CENÁRIOS E PARÂMETROS PARA VARREDURA
Um dos mais importantes aspectos das ações de contramedida de minagem é
a obtenção de um desejado grau de limpeza baseado num plano estabelecido. Para
obter sucesso numa missão o primeiro passo é a definição do cenário. Este, para
JAVAMIX, é uma área retangular que deve ser varrida pelos recursos disponíveis.
Todos os parâmetros necessários são definidos num arquivo de parâmetros onde o
planejador define os dados necessários para o cumprimento da missão. O planejador
então, introduz no SAD JAVAMIX o nome do arquivo de parâmetros e o seu plano. A
214
Pesquisa Naval Nº 15, Setembro de 2002
Figura 2 mostra um plano de varredura com duas raias, uma raia com dois e outra com
três passes.
Figura 2. Cenário: passes e raias.
A “raia” é definida como o ponto de entrada no campo minado por cada tipo
de varredura, sendo que cada raia possui uma determinada posição no campo. O
sistema define ainda “passe” como sendo o número de passagens de ida e volta numa
determinada raia. JAVAMIX então, lê os parâmetros no arquivo selecionado usando a
classe SimpleInput [2], que é um programa em Java desenvolvido para ler palavras e
números de um arquivo texto. O planejador pode alterar o arquivo de parâmetros como
desejado. Durante o processo de leitura, JAVAMIX captura todas as exceções
apresentando ao planejador mensagens de erro indicando a falha. Por exemplo, se um
valor de probabilidade com valor superior a um for introduzido, o sistema mostrará o
erro. O arquivo de parâmetros deve estar no mesmo diretório que todas as classes de
JAVAMIX.
O cenário é definido pelos seguintes dados de entrada lidos no arquivo de
parâmetros com as respectivas variáveis do programa JAVAMIX representadas em
itálico:
a.
Tipos de minas (iMax). Quantidade de tipos minas esperados.
b.
Tipos de meios (kMax). Quantidade de tipos de meios disponíveis.
Exemplo: navios, helicópteros e caça minas.
Tipos de varreduras (jMax). Quantidade de tipos de varreduras possíveis
de acordo com meios disponíveis. Um navio varredor pode ter dois tipos
de varreduras disponíveis (mecânica e acústica).
Contramedida de varredura (ind[j]). Para cada tipo de varredura, ind[j] =
0 indica ação de varredura e ind[j] = 1 indica ação de caça.
Largura (width) do campo minado a ser varrido.
c.
d.
e.
Pesquisa Naval Nº 15, Setembro de 2002
215
f.
g.
Comprimento (length) do campo minado em milhas náuticas.
Fator de ajuste trapezoidal (tr). Fator usado para atenuar as arestas das
curvas de atuação (0 < tr < 1).
h. Tempo de Busca (ht). Tempo, em horas, requerido para localização de
uma mina por um determinado tipo de varredura.
i.
Erro de navegação (sig[j]). Desvio padrão, em jardas, para cada tipo de
varredura.
j.
Uso do meio por tipo de varredura (h[k][j]). O uso conecta o tipo de
varredura e o meio. O uso h[k][j] = 2 indica que a detonação letal destruirá
o varredor e o dispositivo de varredura, h[k][j] = 1 indica que o meio k é
requerido pelo tipo de varredura j, mas não este não é vulnerável e h[k][j]
= 0 indica que o meio k não utiliza a varredura tipo j.
k. Seqüência de entrada no campo minado (seq[j]) de um determinado tipo
de varredura j.
l.
Tempo de guinada (turn[j]). Tempo, em horas, necessário para realização
das guinadas entre passes.
m. Velocidade de varredura (vel[j]) de um varredor j.
n.
Serviço (duty[j]). Fator adimensional usado para converter tempo no
passe para a quantidade de horas realmente requeridas (hours[j]).
hours[j] = duty[j] x (turn[j] + length / vel[j])
o.
p.
q.
r.
s.
Probabilidade de Setagem dos atuadores de cada tipo de mina (act[i]),
onde 0 < act[i] < 1.
Fronteira de Atuação (a[i][j]). Largura da curva de atuação para cada
tipo de mina com valores maiores que zero (a[i][j] > 0).
Probabilidade de Atuação (b[i][j]). Altura da curva de atuação para
cada tipo de mina com valores entre 0 e 1 (0 < b[i][j] < 1).
Fronteira Perigosa (af[i][j]). Distância dentro da qual varrer uma mina
pode ser letal para a varredura, com valores maiores do que 0
(af[i][j] >0).
Probabilidade de Avaria condicionada na Detonação (bf[i][j]), com
valores entre 0 e 1 (0 < bf[i][j] < 1).
5. PLANO DE VARREDURA
Depois de definir o cenário, ao escolher o arquivo de parâmetros, o SAD
JAVAMIX apresenta ao usuário os parâmetros lidos para que este possa checá-los e
proceder para o próximo passo. Caso haja correções a fazer, o usuário deverá modificar
o arquivo de parâmetros e reiniciar o programa. Depois de checar os dados, o usuário
então, introduz seu plano tático. O SAD JAVAMIX orienta o usuário através da IHM e
permite a introdução dos seguintes dados:
216
Pesquisa Naval Nº 15, Setembro de 2002
a.
b.
c.
d.
e.
6.
Quantidade de meios de cada tipo (nu[k]).
Quantidade de raias (ntrk[j]).
Posição das raias (x[t][j]).
Quantidade de passes por raia (runs[t][j]).
Média (kzA[i]) e Desvio Padrão (kzB[i]) para a quantidade de minas
esperadas.
QUANTIDADE DE MINAS PRESENTES
JAVAMIX define o número de minas presente assim como Washburn [4] o faz
no SAD MIXER. MIXER difere dos atuais SAD de guerra de minas por necessitar que
o usuário escolha a quantidade esperada e um desvio padrão para cada tipo de mina. O
desvio padrão indicará o quanto a quantidade de minas poderá estar diferente do valor
escolhido. MIXER interpreta a escolha da quantidade como uma média µ da quantidade
aleatória X de minas realmente presentes na área, sendo σ o desvio padrão e σ ² a
variância de X. Cada repetição da simulação corresponde a um valor diferente de X, mas
que obedece a uma distribuição com média µ e variância σ ².
A variável aleatória X, quantidade de minas de um tipo particular, não é totalmente
determinada pelos dois dados de entrada µ e σ . Alguma assunção sobre sua
distribuição deve ser feita. MIXER considera que X pertence a uma distribuição Katz,
ue estão relacionados a µ e σ pelas
classe esta indexada por parâmetros
equações:
µ = α (1 − β )
(1.1)
σ 2 = α (1 − β )
(1.2)
2
Os requisitos para α e β são e α = 0 e β < 1 , mais uma restrição adicional
para
< 0. As principais propriedades da distribuição Katz são reportadas na referência
[2]. A classe é composta em geral, pelas distribuições binomial negativa (
Poisson (
= 0) e binomial (
> 0),
< 0). A distribuição Katz é fechada quanto a operação
de soma e subtração , fato este que a torna útil para estudos de guerra de minas. Numa
análise mais precisa, suponhamos que cada mina seja removida de maneira independente,
com probabilidade p e que a quantidade de minas removidas seja y. Portanto a quantidade
de minas remanescentes, dado y, continua obedecendo a uma distribuição Katz, mas
σ
Pesquisa Naval Nº 15, Setembro de 2002
217
com seus parâmetros revisados segundo as seguintes equações:
α ′ = (1 − ρ )
(α − βy )
β ′′ = (1 − ρ )β
(1.3)
(1.4)
As equações (1.3) e (1.4) são analisadas na referência [4]. A distribuição Katz
tem mostrado ser a maior classe fechada quanto a operação de soma e subtração,
levando-a a ser conhecida e explorada por vários estudos sobre guerra de minas. A
vantagem de se trabalhar com uma classe fechada, é que se a varredura de minas for
considerada uma sucessão de estágios de soma e subtração, então a quantidade de
minas em cada estágio obedecerá sempre a um tipo de distribuição. Assim sendo, rodar
MIXER várias vezes num processo de varredura é o mesmo que rodá-lo uma vez para
cada estágio da varredura.
Em geral não há restrições para os valores de µ e σ , apenas estes não podem
ser negativos. Para alguns pares ( µ , σ ) não há distribuição Katz. Por exemplo, não
há distribuição Katz se µ = 7,5 e σ = 0, visto que Katz está concentrada em inteiros
não negativos. Ao invés de parar a simulação, nestes casos, MIXER aproxima os valores
para uma distribuição Katz, modificando os valores de . Por exemplo, considerando
( µ , σ ) = (7,5, 0) como dados de entrada, MIXER fará ( α , β ) = (120, 7,5). Isto
corresponde a uma distribuição binomial com 8 provas e probabilidade de sucesso
igual a 15/16, onde a média é 7,5 e a variância é 15/32 ao invés de 0. Tais correções não
serão necessárias se σ ² e” µ . Operacionalmente, o maior defeito da distribuição Katz
é que esta não atribui um peso especial ao número 0, portanto X pode receber um valor
0 ou maior.
7.
SIMULAÇÃO DE MONTE CARLO
A simulação de Monte Carlo é um método que envolve amostragem aleatória,
sendo aplicada a problemas que possam ser formulados em termos de probabilidade e
que normalmente é executada por computador. Na guerra de minas, se aplicada com um
grande número de interações, este tipo de simulação pode ser muito útil.
Depois de ler o cenário e o plano de varredura, o SAD JAVAMIX solicita ao
usuário a introdução do número de repetições, em centenas, desejada. As seguintes
operações são efetuadas pela classe “Monte” durante a execução da simulação:
a.
Para cada tipo de mina, JAVAMIX gera uma quantidade de minas baseado
numa distribuição Katz e designa uma posição transversal (xm[m]) para
218
Pesquisa Naval Nº 15, Setembro de 2002
cada uma e depois soma as quantidades armazenando o valor na variável
mines.
8.
b.
JAVAMIX interpola, aleatoriamente, as minas ao longo da direção
longitudinal da área a ser varrida e considera como minTyp[m]o tipo da
m-ésima mina que os varredores encontrarão durante a varredura.
Inicialmente, JAVAMIX atribui status = -1 para todas as minas ainda não
varridas.
c.
Considerando os tipos de varredura na ordem seqüencial armazenada em
seq[j], JAVAMIX realiza passes de ida e volta pelas raias até que todos os
passes e tipos de varreduras tenham sido executados. Quando uma mina
não varrida é encontrada, o sistema verifica se esta foi atuada. Havendo a
atuação, o sistema verifica se a detonação foi letal para o meio considerado.
Quando um tipo de varredura k é perdido, o sistema reduz o número de
meios disponíveis em nun[k] e se necessário, reduz também o número de
unidades capazes de realizar determinada varredura simultaneamente.
d.
Depois que toda a varredura é executada, o sistema faz passar pelo campo
o tráfego alvo (navios alvos) usando a mesma lógica usada com os
varredores.
e.
Ao final, o sistema coleta todos os resultados em médias e apresenta ao
usuário o resultado da varredura.
RESULTADO DA VARREDURA
O resultado da varredura é apresentado numa janela do DOS (Figura 3) e é
interpretado da seguinte maneira:
a.
O cabeçalho mostra o número de repetições introduzida pelo usuário.
b.
A primeira tabela apresenta a quantidade de passes realizados em relação
ao planejado. Por exemplo, somente 60,60% dos passes planejados, para
a varredura mecânica por helicóptero, foram completados, pois a perda da
varredura pela atuação das minas provocou o fim prematuro desta.
c.
A segunda tabela mostra a eficiência das varreduras para varrer minas.
d.
A terceira tabela mostra a eficiência das minas para destruir as varreduras.
e.
Os últimos três resultados correspondem à Ameaça Seqüencial
(probabilidade o i-ésimo navio alvo ser destruído) para os dez navios que
passaram pelo campo já varrido, a média das perdas dos dez navios alvos
e o tempo médio necessário a realização de todo o plano de varredura.
Pesquisa Naval Nº 15, Setembro de 2002
219
Figura 3. Resultado da Varredura.
9.
APRESENTAÇÃO DA IHM DO SAD JavamixBR (versão em português do SAD
JAVAMIX)
Figura 4. IHM - Página 1.
A Página 1(Figura 4) apresenta as opções e as instruções iniciais ao usuário.
O usuário então, introduz o nome do arquivo de parâmetros desejado e escolhe uma
opção. As opções “Ótimo”, “Ensaio” e “Realidade” não estão disponíveis (em
construção). O usuário seleciona a opção “Monte”, clicando com o mouse.
220
Pesquisa Naval Nº 15, Setembro de 2002
Figura 5. IHM - Página 2.
A Figura 5 apresenta os parâmetros lidos pelo sistema para que o usuário
possa verificar se estes estão corretos.
Figura 6. IHM - Página 3.
A Figura 6 apresenta a segunda parte dos parâmetros lidos pelo sistema.
Figura 7. IHM- Página 4.
Pesquisa Naval Nº 15, Setembro de 2002
221
A Página Figura 7 mostra ao usuário os tipos de meios disponíveis para este
possa introduzir as quantidades desejadas.
Figura 8. IHM - Página 5.
A Página 5 (Figura 8) apresenta ao usuário as varreduras disponíveis de
modo que este possa entrar o número de raias desejado para cada varredura.
Figura 9. IHM - Página 6.
O número de campos disponíveis, para introdução da posição das raias, é
baseado no número de raias escolhido na Página 5 (Figura 8). Cada raia possui uma
posição no campo minado entre a posição mais a esquerda (0) e a mais à direita. Neste
caso, os valores são entre 0 e 1000 jardas.
222
Pesquisa Naval Nº 15, Setembro de 2002
Figura 10. IHM - Página 7.
A Página 7 (Figura 10) apresenta o número de varreduras disponíveis, de
modo o usuário possa introduzir o número de passes por raia. O número de passes por
raia é baseado no número de raias definido na Página 5 (Figura 8). Um passe corresponde
a um passe de ida. Dois passes correspondem a um de ida e outro de volta e assim
sucessivamente. Não é necessário definir o número de passes para os alvos pois estes
só realizam passes singelos.
Figura 11.
IHM - Página 8.
A Página 8 (Figura 11) apresenta os tipos de minas esperados. O usuário
introduz a média e o desvio padrão para cada tipo de mina clicando nas barras de
rolagem. Quando o usuário, por exemplo, seleciona a mina “FNDMAG”, um gráfico
dinâmico, com a distribuição Katz, é apresentado (Figura 12). O gráfico apresentado é
a função de distribuição de probabilidade (F.D.P.) da variável aleatória X (quantidade
de minas) no ponto Xi (valor entre 0 e 1), que representa a probabilidade de uma
determinada quantidade de minas X ser igual ou menor que Xi.
Pesquisa Naval Nº 15, Setembro de 2002
223
Figura 12. Distribuição Katz.
Figura 13. IHM - Página 9.
A Página 9 (Figura 13) apresenta a opção para executar a simulação,
onde o usuário escolhe o número de repetições desejado em centenas.
10. CONCLUSÃO
A descrição do software JAVAMIX, com todos os seus aspectos, quais sejam
as definições de cenários e parâmetros de varredura, o plano de varredura, a quantidade
de minas presentes, a simulação de Monte Carlo propriamente dita e a apresentação do
resultado da varredura, evidenciam a complexidade de um problema de Guerra de Minas.
A gama de parâmetros envolvidos enfatiza também a dificuldade que seria construir um
modelo analítico em detrimento da construção de uma simulação para reprodução do
problema da varredura de minas. A quantidade de parâmetros evidencia ainda, que a
simulação, reproduzida como exemplo, envolve a utilização de diferentes meios, tipos
de minas e tipos de varredura. Os meios por exemplo, são helicópteros, navios varredores
e de caça de minas e mergulhadores de combate. Uma situação como esta para ser
reproduzida na prática envolveria um custo alto de material e pessoal, visto que são
meios com alto índice de sofisticação e que necessitam de alto grau de preparação e
adestramento dos seus operadores. Hoje, a velocidade e a evolução dos computadores
nos permitem simular com grande fidelidade muitos problemas reais, que envolvam
riscos materiais e humanos, como por exemplo, a varredura de minas marítimas.
11. REFERÊNCIAS BIBLIOGRÁFICAS
Hartmann, K., and Truver, S. Weapons that wait, Naval Institute Press, pp.
15-16, 1991.
Barnes, David J. Object Oriented Programming with Java: An Introduction,
Prentice Hall, pp. 366-372, 2000.
Johnson, N., and Kotz. Discrete Distributions, Wiley, New York, pp. 37-43,
1969.
Washburn, A., MIXER: A TDA for Mixed Minefield Clearance, Naval
Postgraduate School Technical Report, NPS-OR-95-011PR, Monterey,
CA 93943, 1995.
Paes Filho, José C., JAVAMIX: A Tactical Decision Aid to Evaluate Minefield
Clearance Plans, Naval Postgraduate School Master’s Thesis,
Monterey, CA, 2001.
XVII
Capítulo
SISTEMA DE APOIO À DECISÃO ESPACIAL PARA ROTEAMENTO DE
VEÍCULOS: APLICAÇÃO NA MARINHA
CC Rogério Pesse
Centro de Análises de Sistemas Navais
e-mail: [email protected]
Roberto Diéguez Galvão
Programa de Engenharia de Produção, COPPE/UFRJ
e-mail: [email protected]
Júlio Francisco Barros Neto
Universidade Federal do Ceará
e-mail: [email protected]
Resumo
Este trabalho apresenta o uso de um algoritmo de roteamento de veículos
com base em busca tabu acoplado a um Sistema de Apoio à Decisão Espacial (SADE),
para roteamento com frota heterogênea em plataforma visual georeferenciada.
Como exemplo de aplicação prática foi utilizado o roteamento da frota de
veículos da Base de Abastecimento da Marinha no Rio de Janeiro, na distribuição do
material necessário às diversas organizações da Marinha em áreas vizinhas.
Abstract
This paper presents the use of a tabu search vehicle routing algorithm
embedded into a Spatial Decision Support System, for routing an heterogeneous fleet
in a visual geo-referenced platform.
As example of a practical application we used the routing of the fleet of
vehicles of the Navy Supply Base in Rio de Janeiro, in the distribution of material to
several Navy organizations in the neighboring areas.
Palavras-chave: Roteamento de veículos; Busca tabu; Sistemas de Apoio à Decisão Espacial.
Key words: Vehicle routing; Tabu search; Spatial Decision Support Systems.
226
Pesquisa Naval Nº 15, Setembro de 2002
1. INTRODUÇÃO
Apesar do crescente desenvolvimento dos computadores, resolver problemas
NP-Completos por métodos exatos ainda é restrito, tornando-se em geral proibitivos os
tempos computacionais requeridos para solução naqueles de maior porte.
De maneira a contornar este fato utilizam-se heurísticas, que buscam obter
soluções próximas à solução ótima com esforço computacional reduzido. No início de
seu desenvolvimento as heurísticas visavam resolver problemas específicos, não sendo
generalizáveis para uma gama maior de problemas. Nos anos 80 começaram a surgir
métodos heurísticos mais abrangentes. A idéia mais interessante surgiu da união entre
os conceitos de Otimização e Inteligência Artificial, resultando daí as Metaheurísticas
ou Métodos Inteligentemente Flexíveis.
Neste trabalho é aplicada a Busca Tabu como técnica para solução de um
problema prático de roteamento de veículos com frota heterogênea (PRVHE). O algoritmo
desenvolvido foi acoplado a uma base de dados georeferenciada, resultando um Sistema
de Apoio à Decisão Espacial (SADE) – o GEOREDES, disponível para aplicação a um
problema de roteamento da Base de Abastecimento da Marinha no Rio de Janeiro
(BAMRJ).
2. BUSCA TABU: CONCEITOS
Um dos métodos desenvolvidos com o objetivo de superar ótimos locais é a
Busca Tabu (Tabu Search); entre os desenvolvimentos pioneiros nesta área podemos
citar GLOVER (1986) e HANSEN (1986). Um Algoritmo Geral da Busca Tabu foi definido
por HERTZ (1992) e é descrito a seguir.
Sejam:
X - conjunto de soluções viáveis;
N(s) - conjunto de soluções vizinhas para cada solução s em X;
VM - subconjunto de N(s) que corresponde às soluções vizinhas (ou
soluções candidatas) de “s” geradas em cada iteração;
s’ = s ⊕ m ∈ VM ⊆ N(s) - significa que s’ é obtido aplicando-se uma
modificação (movimento ou trocas entre os clientes e suas rotas) “m” em s
∈VM;
Critério de Aspiração (Função A) - se “m” é um movimento que está
na Lista Tabu, mas f(s ⊕ m) < f(s), o movimento é realizado.
-
Inicialização
Escolha uma solução inicial s em X;
Escolha nitermax; { nitermax = máximo número de iterações}
s* := s;
{ s* = melhor solução encontrada até o momento}
Pesquisa Naval Nº 15, Setembro de 2002
227
- niter := 0; { inicialização de um contador para iterações}
- Miter := 0; { última iteração onde houve alguma melhora}
- Inicialize Kmax; { limite de iterações sem melhora}
- InicializealistaTabu,T := ∅;
- Inicialize o critério de aspiração (Função A);
Enquanto { niter ≤ nitermax } Faça
Enquanto { (niter - Miter < Kmax) e (f(s) > f(s*) } Faça
- niter := niter + 1;
- Gere um conjunto de soluções VM ⊆ N(s) - T ; ou
- Aplique Aspiração → s’ = s ⊕ m com “m” sendo Tabu porém f(s
⊕ m) < f(s);
- Escolha a melhor solução s’ em VM tal que f(s’) = Min f(s) e s ∈
VM;
- Atualize T { T := T - (solução mais antiga) ∪ [s ⊕ m]};
SE f(s’) < f(s*) então
- s* := s’ ;
- Miter := niter;
- s := s’ ;
Fim Enquanto
Fim Enquanto
Término.
2.1 MECANISMOS DA BUSCA TABU: INTENSIFICAÇÃO E DIVERSIFICAÇÃO
1.
2.
3.
1.
2.
3.
4.
A Intensificação tem por base:
A modificação das regras de seleção para fomentar combinações de movimentos
com características das “boas” soluções encontradas, incorporando atributos das
melhores soluções com a finalidade de gerar melhores soluções;
Voltar a regiões atrativas para examiná-las de forma mais completa;
Diminuir o esforço computacional.
A Diversificação tem por base:
Redirecionar a busca para regiões ainda não exploradas, modificando as regras de
seleção para incorporar atributos de soluções de pouca freqüência de ocorrência
(ao contrário da Intensificação); como exemplo utilizam-se “penalidades” para forçar
determinado movimento;
O recomeço parcial ou total do processo de solução;
O propósito de impedir que os processos de busca entrem em ciclo;
A exploração mais completa do espaço de soluções.
228
Pesquisa Naval Nº 15, Setembro de 2002
Maiores detalhes sobre a Busca Tabu podem ser encontrados nos tutoriais e
revisões bibliográficas produzidos por GLOVER (1989b, 1990a e 1990b).
3. SOLUÇÃO DE UM PROBLEMA DE ROTEAMENTO DE VEÍCULOS COM FROTA
MISTA/HETEROGÊNEA UTILIZANDO A BUSCA TABU
O Problema de Roteamento de Veículos (PRV) foi formulado pela primeira vez
por DANTZIG e RAMSER (1959) e posteriormente por BALINSKI e QUANDT (1964);
CLARKE e WRIGTH (1964) apresentaram o primeiro algoritmo heurístico para sua
solução.
Resolver um PRV básico consiste em construir um conjunto de rotas de custo
mínimo que atenda às necessidades de demanda de todos os clientes, respeitando os
limites de capacidade dos veículos e distâncias máximas a serem percorridas pelos
veículos de entrega (com início e término das rotas nos depósitos). As referências
sobre o assunto podem ser encontradas por exemplo em BODIN et al. (1983) e LAPORTE
(1992).
A Busca Tabu, aplicada a um PRV, tem como base os seguintes passos:
1. Geração de um conjunto de soluções iniciais viáveis (conjuntos de rotas);
2. Armazenamento da melhor solução encontrada;
3. Geração de um conjunto de soluções vizinhas a cada iteração (movimentos);
4. Aceitação de movimentos que melhorem a solução do problema, passando estes
movimentos a fazer parte de uma lista Tabu por determinado número de iterações;
5. Aplicação de critérios de aspiração que retirem movimentos da lista Tabu caso
estes venham a melhorar a solução do problema;
6. Aplicação eventual de mecanismos de intensificação e diversificação da busca;
7. Formulação de um critério de parada.
1.
2.
3.
4.
5.
Uma formulação básica para o PRVHE utilizando a Busca Tabu tem por base:
Um conjunto Ψ = {1,..., K} de tipos de veículos diferentes;
Veículos do tipo k ∈ K têm capacidade Qk;
A disponibilidade de veículos do tipo k é de nk veículos;
O custo de roteamento para ir do cliente i ao cliente j com o veículo do tipo k é
di j k;
A utilização de um veículo do tipo k também implica em incorrer em um custo fixo fk.
No caso do PRVFM – “PRV com Frota Mista” (caso especial do PRVHE),
procura-se determinar uma frota de veículos (tamanho e composição) que minimize a
soma dos custos fixos e de roteamento, relaxando o PRVHE da seguinte forma:
• os custos de roteamento são os mesmos para todos os tipos de veículos, isto é,
di j k = d i j V k, k∈Ψ; e
• o número nk de veículos de cada tipo não é limitado (nk = ∞ , k ∈ Ψ).
Pesquisa Naval Nº 15, Setembro de 2002
229
Dentre as formulações atuais para o PRVHE (onde a frota é imposta) e o PRVFM
(onde a frota é determinada no processo de solução do problema), pode ser destacada
a de OSMAN e SALHI (1996), resolvida por um algoritmo de busca Tabu.
Sejam:
“O” um depósito sem tempo de serviço e com demanda zero;
K = um conjunto de diferentes tipos de veículos, K = {1,...,k max};
Fk = custo fixo do veículo do tipo k, k∈K;
Q k = capacidade do veículo do tipo k, k∈K;
Tk = máximo tempo de viagem para o veículo do tipo k, k∈K;
v = variável de decisão que indica o número total de rotas obtidas;
V = conjunto selecionado de veículos de diferentes tipos, V= {1,..., v}, V ⊆ K;
N = conjunto de clientes, N = {1,...,n};
qi = demanda do cliente i, i∈N;
δi = tempo de serviço para o cliente i, i∈N;
di j = distância entre os clientes i e j, di j = d ji V i, j ∈ N ∪ {O};
di = distância até o cliente i a partir do cliente que o precede;
α k = custo variável por unidade de distância para o veículo do tipo k;
βk = fator de tempo por unidade de distância para o veículo do tipo k;
Rp = conjunto de clientes servidos por um veículo v ∈ V, configurando-se uma
rota de pontos;
σ = função σ: V → K; σ(p) indica o veículo de menor capacidade viável para a
rota Rp;
πp = rota do Problema do Caixeiro Viajante (PCV) que serve Rp∪{O}, envolvendo
clientes e depósito; πp(i) indica a posição do cliente i em πp;
D(π
πP) = distância total da rota πp;
T(π
πp) = tempo total de viagem na rota πp;
C(π
πp) = total dos custos fixos e variáveis (de roteamento) da rota πp;
S = solução viável, definida como S = {R1,...,Rv};
Π = conjunto de todas as rotas de caixeiro viajante em S, Π = {π1,...,πv}.
O problema consiste em:
Minimizar
C (S ) =
∑ C (π
S ,Π ,v
p
)
R p ∪ Rq = N e R p ∩ Rq = ∅
s. a
∑ qi ≤ Qσ ( p )
i∈R p
D (π p ) =
∑
i∈R p ∪{O}
diπ p (i )
V p∈V
(1)
Vp≠q∈V
(2)
V p∈V
(3)
V p∈V
(4)
230
Pesquisa Naval Nº 15, Setembro de 2002
T (π p ) = βσ ( p ) xD(π p ) + ∑ δ i ≤ Tσ ( p )
i∈R p
C (π p ) = α σ ( p ) xD (π p ) + Fσ ( p )
Vp ∈ V
(5)
Vp ∈ V
(6)
A função objetivo minimiza os custos totais de todas as rotas π p ; as restrições
(2) garantem que cada cliente é suprido por uma e apenas uma rota; as restrições (3)
asseguram que a capacidade de cada veículo não é excedida. As restrições (4)
representam a soma total das distâncias de cada rota , enquanto que as restrições (5)
garantem que o tempo máximo de viagem para cada veículo não é excedido. Finalmente,
as restrições (6) representam o custo total de cada rota.
3.1 PROCEDIMENTO DE BUSCA TABU PARA O PRVFM (OSMAN E SALHI,
1996)
Passo 0: Inicialização
Gerar uma solução inicial S para o PRVFM;
Fazer melhor solução corrente Smelhor := S;
Avaliar todos os movimentos na vizinhança N(S);
Fazer TABL := lista Tabu;
Fazer t := tamanho da lista Tabu;
DS := estrutura de dados especial para armazenagem de atributos dos
movimentos, composta de duas matrizes: MATRIZDS e
MATRIZDSINFO;
MaxMelhor := número limite de iterações sem melhoria de Smelhor;
Fazer : nbiter := 0 (contador do número da iteração corrente);
Fazer : melhoriter := 0 (contador do número da iteração da melhor
solução);
Passo 1: Lista de Soluções Candidatas
Determinar, usando a estrutura de dados DS, o conjunto dos melhores
movimentos na vizinhança (lista elite), N*(S) ⊆ N(S);
Atualizar DS após cada iteração;
Passo 2: Seleção Estratégica
Escolher a melhor solução viável S ∈ N*(S);
Fazer Smelhor := S e nbiter := nbiter + 1;
Se C(S) < C(Smelhor), então fazer Smelhor := S e melhoriter := nbiter;
Armazenar na lista Tabu TABL os atributos dos movimentos
executados;
Passo 3: Critério de Parada
Se { (nbiter – melhoriter) > MaxMelhor }, então Pare;
Senão volte ao Passo 1.
Pesquisa Naval Nº 15, Setembro de 2002
231
3.2 ANÁLISE DOS MOVIMENTOS PARA O PRVFM
Dada uma solução corrente S, há três tipos de operadores que geram as novas
soluções S’∈N(S), através de movimentos de trocas (chamados λ-trocas) entre clientes
de 2 rotas Rp e Rq: os movimentos (1,0), (0,1) e (1,1). O movimento (1,0) envolve o
deslocamento de um cliente i∈Rp para a rota Rq; o movimento (0,1) o deslocamento de
um cliente j∈Rq para a rota Rp e o movimento (1,1) a troca entre rotas de i∈Rp para Rq e
de j∈Rq para Rp. Os custos de um movimento dependem do tipo de operador.
No caso do operador (1,0) podemos fazer a seguinte análise quanto aos custos:
sejam os clientes a e b respectivamente o antecessor e o sucessor do cliente i na rota πp
de Rp. Sejam c e e respectivamente o antecessor e o sucessor de i na nova rota do
caixeiro viajante π q de R q onde o cliente i é melhor inserido. As equações de custo
'
'
das novas rotas do caixeiro viajante são as seguintes:
D(π 'p ) = D(π p ) + d ab − ( d ai + d ib ) : nova dist. total da rota π p sem o cliente i; (7)
D(π q' ) = D(π q ) + (d ci + d ie ) − d ce : nova dist. total da rota π q com cliente i; (8)
C (π 'p ) = α σ ( p ) xD(π 'p ) + Fσ ( p ) : novo custo total da rota sem cliente i
(9)
C (π q' ) = α σ ( q ) xD (π q' ) + Fσ ( q ) : novo custo total da rota π q com cliente i;
(10)
∆ (1,0) = [C (π 'p ) − C (π q )] + [C (π q' ) − C (π p )] :variação de custos.
(11)
Os cálculos para o operador (0,1) são semelhantes. Quanto ao operador (1,1),
o movimento pode ser visto como uma combinação de dois deslocamentos simultâneos:
deslocar o cliente i para o conjunto de clientes da rota através do operador (1,0) e
deslocar o cliente j para através do operador (0,1). A mudança no valor da função
objetivo ∆(1,1) devida ao operador (1,1) pode ser facilmente avaliada através dos dados
já armazenados para computar as equações de novos custos dos movimentos (0,1) e
(1,0), tendo-se atenção para alguns casos especiais que necessitam uma análise mais
cuidadosa, como por exemplo no caso de se incluir um cliente i na rota entre dois
clientes c e e da antiga rota onde o cliente j estava incluído.
Depois de calculadas as três variações de custos ∆(1,0) , ∆(0,1) e ∆(1,1), toma-se
a menor delas:
δij = Mínimo { ∆(1,0) , ∆(0,1) , ∆(1,1) } .
232
Pesquisa Naval Nº 15, Setembro de 2002
Executa-se o processo para cada cliente i∈Rp e para cada cliente j∈Rq, de
forma seqüencial em suas rotas. A busca sistemática consiste em escolher o menor dos
δij encontrados entre os pares de rotas (Rp, Rq), que será o valor ∆(p,q); chamemos o
movimento correspondente de 1IMpq (1-intertrocas).
∆ ( p ,q ) = Mínimoδ ij .
i∈R p , j∈Rq
A mudança no valor da função objetivo, ∆ = C(S’) – C(S), é então igual a ∆(p,q)
caso o melhor movimento (1IMpq) seja executado utilizando-se os clientes das rotas (Rp,
Rq).
3.3 O Uso de uma Estrutura de Memória Especial para o PRVFM
Há dois níveis de estrutura de memória:
(i)
O primeiro nível dessa estrutura de memória armazena os custos de todos os
movimentos 1-intertrocas 1IM, nas vizinhanças de S, que não são alterados a
todo momento, como por exemplo o custo total da rota π p (já sem o cliente i),
'
(ii)
C(), que auxiliarão a avaliar custos como no movimento (1,1).
O segundo nível é uma “Lista de Candidatos Elite”, que é principalmente
usada para identificar o conjunto de todos os melhores movimentos 1IMpq,
obtidos após cada iteração, quando todos os v(v +1)/2 pares de conjunto de
rotas (πp, πq), com (Rp, Rq) para todo p< q ∈ V, são considerados através do
mecanismo 1-intertroca para gerar a vizinhança N(S).
MATRIZDSINF é uma matriz {v(v +1)/2} x A, onde A é o número de atributos
requeridos para identificar um movimento em DS. Um valor padrão para A é seis e indica
que seis atributos serão armazenados em MATRIZDSINF. Por exemplo, o melhor
movimento 1IMpq entre (Rp, Rq) é identificado por seu valor ∆(p,q) em MATRIZDS; o
índice “l” associado com o par (Rp, Rq), que é usado para identificar os outros atributos
em MATRIZDSINF, consiste de:
MATRIZDSINF (l, 1) = l, MATRIZDSINF (l, 2) = p, MATRIZDSINF (l, 3) = q,
MATRIZDSINF (l, 4) = i, MATRIZDSINF (l, 5) = j, MATRIZDSINF (l, 6) = ∆(p,q). Nota-se
que tanto MATRIZDSINF (l, 1) quanto MATRIZDSINF (l, 6) poderiam ser ignorados
pois já são arquivados em MATRIZDS, porém são mantidos por conveniência. Se ∆(p,q)
é associado com operadores (1,0) ou (0,1), então os valores de i ou j são substituídos
por ∅ em MATRIZDSINF, de maneira que facilmente é identificado o tipo de operador
aplicado a este movimento. Se necessário o número de colunas em MATRIZDSINF
pode ser aumentado, para que mais informações sejam armazenadas.
Pesquisa Naval Nº 15, Setembro de 2002
233
3.4 CRITÉRIO DE PARADA PARA O PRVFM
Após um número pré-especificado de iterações (MAXMelhor = 5 x n) ser executado
sem melhoria de Smelhor o procedimento Tabu é interrompido. Este é o critério de parada
utilizado e possui a vantagem de poder ser alterado de acordo com a estrutura dos
problemas a serem resolvidos, evitando-se assim subestimar o número total de iterações.
4. ESTUDO DE CASO: APLICAÇÃO NA MARINHA
A Marinha possui um complexo de seis depósitos concentrados na Avenida
Brasil, no Rio de Janeiro, onde é armazenado e distribuído todo o material necessário
às diversas organizações militares das imediações, como por exemplo alimentos,
fardamentos, material eletrônico, sobressalentes diversos. Cada Órgão Distribuidor
(OD) detém portanto um tipo de material com as mais variadas medidas e pesos, a ser
distribuído com determinada periodicidade.
Devido às particularidades inerentes aos materiais de cada depósito (OD) tornouse difícil uma padronização da frota de entrega, pois não há fatores comuns entre, por
exemplo, fardamento e gêneros secos e frigorificados, ou ainda compatibilização de
volumes e pesos entre os diversos itens, que vão desde pequenos sobressalentes
eletrônicos até grandes itens de máquinas. Uma proposta de auxílio ao gerenciamento
da frota seria utilizar um padrão comum de procedimentos em todos os depósitos no
que diz respeito à pesagem do material a ser distribuído aos clientes, adequando-o ao
tipo de veículo utilizado para transporte deste material. Peso é uma restrição comum
que aparece em todos os modelos em que se busca otimizar o transporte de materiais.
Logo, há necessidade de uma estrutura flexível que possa atender a todos os
depósitos e auxilie o gestor a economizar pessoal e outros recursos envolvidos na
distribuição.
4.1 ANÁLISE DA LOCALIZAÇÃO E DEMANDA DOS CLIENTES
Através da visualização das localizações dos clientes pode-se notar os clusters,
que são as concentrações de clientes nas áreas do AMRJ, 10 DN, e BNRJ. O extrato do
cadastro de clientes abaixo também fornece uma estimativa de demanda mensal de
gêneros alimentícios, extraída de diversas listas de requisição de material de consumo
do banco de dados da GLE – Gerência Local de Estoque, para determinado período.
Note-se que não há uma preocupação de levantamento estatístico mais apurado, apenas
o objetivo de introduzir dados para o algoritmo de roteamento.
234
Pesquisa Naval Nº 15, Setembro de 2002
Tabela 1 – Cadastro de Clientes do DepSubMRJ
Nr. Clientes
1 AMRJ
2 NAe
3 Fragata
4 CT
5 Corveta
6 CETM
7 Btl. Nv.
8 HCM
o
9 1 DN
10 SDM
11 EN
12 EGN
13 UISM
14 HNMD
15 LabFM
16 PNNSG
17 CIAGA
18 CEFAAN
19 BNRJ
20 BAMRJ
Demanda
(kg/mês)
21545,7
11000,0
2871,4
3703,8
1098,4
1027,2
1722,0
1200,0
15716,7
550,0
12468,4
5500,0
575,9
12275,4
300,0
847,3
1227,3
917,5
21375,9
3617,3
Coord. SIGX
(longitudeW)
43,1765749
43,1746162
43,1765749
43,1733920
43,1706987
43,173147
43,175351
43,175354
43,178451
43,173239
43,167765
43,167026
43,356959
43,283209
43,247571
43,224803
43,251531
43,267370
43,107253
43,258955
Coord. SIGY
(latitudeS)
22,894145
22,893900
22,892676
22,892921
22,896593
22,8953623
22,8958593
22,8958592
22,8986754
22,8955271
22,9098151
22,9548660
22,9211293
22,9122199
22,8889565
22,9231092
22,8384731
22,8265903
22,1854735
22,8325300
Localização - Área
Ilha das Cobras AMRJ
Cais-atracado AMRJ
Cais-atracado AMRJ
Cais-atracado AMRJ
Cais-atracado AMRJ
Ilha das Cobras AMRJ
Ilha das Cobras AMRJ
Ilha das Cobras AMRJ
Pr Br Ladário s/n 1o DN
Ilha das Cobras 1o DN
Av. Alte S Noronha Centro
Av. Pasteur 480 Zona Sul
Mar Serejo 539 Jacarep.
César Zama 185 Lins
Av. D HelderC 315 Benfica
R Cd Bonfim 54 Tijuca
Av. Brasil 9020 Av. Brasil
Av. Brasil 10000 Av. Brasil
Ilha de Mocanguê
Av. Brasil 10500 Av. Brasil
Na tabela acima o depósito é representado pelo número 20 (BAMRJ). O depósito
tem por vezes que atender diversos tipos de navios em diferentes quantidades, o que
aumenta significativamente o número de clientes a serem incluídos em uma dada
programação da frota de veículos. Um esboço da localização de alguns clientes da
BAMRJ é apresentado na Figura 1.
Pesquisa Naval Nº 15, Setembro de 2002
235
Fig. 1: Mapa de Vias do Rio de Janeiro – Esboço da localização de clientes da BAMRJ
4.3 Proposta de uma solução do Estudo de Caso por meio da Incorporação do
Algoritmo de Frota Heterogênea a um Sistema de Informação Geográfica (SIG)
Um protótipo de Sistema de Apoio à Decisão Espacial, chamado de
“GEOREDES” - Sistema de Apoio à Decisão Espacial para Modelos em Redes
Georeferenciadas, criado no âmbito de Projeto Integrado1 apoiado pelo CNPq, permite:
1- a integração de modelos matemáticos (por exemplo, algoritmos para
resolver problemas de localização e de roteamento) com banco de
dados relacionais e informações das vias da cidade do Rio de Janeiro;
2- a utilização de recursos gráficos para visualização e apresentação dos
resultados;
3- a geração de relatórios.
O GEOREDES foi desenvolvido em ambiente Borland Delphi 5.0 para Windows
95/98/2000, utilizando recursos SIG, programação orientada a objetos e alguns modelos
da Pesquisa Operacional nas áreas de localização de instalações e roteamento de
veículos, propiciando um ambiente de trabalho para utilização por parte de usuários
não-especialistas. A tecnologia SIG nele implementada é a biblioteca MapObjects versão
2.0, desenvolvida pela ESRI, que apresenta diversos procedimentos e funções para
tratamento de mapas digitais.
236
Pesquisa Naval Nº 15, Setembro de 2002
Basicamente, o GEOREDES possui três módulos (ilustrados na Figura 2 para
uma aplicação de roteamento de veículos):
- O Ambiente de Trabalho;
- O Sistema Gerenciador de Banco de Dados Geográficos
(SGBDG);
- Os modelos matemáticos disponíveis.
No módulo SGBDG o usuário é capaz de manipular e gerenciar as informações
contidas nas bases de dados espaciais e de atributos. No módulo de redes, um ambiente
simplificado foi desenvolvido a fim de que o usuário final não necessite conhecer a
fundo os modelos matemáticos utilizados. No ambiente de trabalho, os processos de
visualização, manipulação das propriedades dos mapas, consulta e geradores de
relatórios foram implementados de forma a facilitar o uso do sistema.
Os dados que são utilizados pelo GEOREDES são basicamente a Malha Viária,
Redes de Pontos e Arcos (geradas pelo sistema para aplicação dos algoritmos) e Banco
de Dados de Bairros para a região metropolitana em consideração.
Fig. 2: Ilustração dos Módulos do GEOREDES e seu Inter-relacionamento
(Particularizado para uma Aplicação de Roteamento de Veículos)
Na versão atualmente disponibilizada do GEOREDES utilizamos dados do
município do Rio de Janeiro. A malha viária consiste do mapa digital desse município,
com informações sobre sentido de fluxo, CEP, tipo de logradouro e numeração de início
Pesquisa Naval Nº 15, Setembro de 2002
237
e fim de cada quarteirão. Estão codificados os cruzamentos e quarteirões e o sentido de
fluxo é considerado. Na base de dados dos bairros foram incorporados alguns atributos
obtidos no Censo de 1996 do IBGE.
A partir da rede de pontos e arcos gerada, da localização de clientes e depósito,
e das características dos veículos a serem utilizados no atendimento aos clientes (ver
Figuras 3 e 4 a seguir), pode-se fazer o roteamento utilizando o algoritmo de frota
mista/heterogênea. Antes da utilização do algoritmo há a necessidade do
estabelecimento de critérios de parada e de aspiração para o algoritmo de busca Tabu,
como mostra a Figura 5.
Fig. 3: Definição da Rede de Pontos e Arcos e de Depósito e Clientes
Fig. 4: Definição da Frota de Veículos
238
Pesquisa Naval Nº 15, Setembro de 2002
Fig. 5: Introdução dos parâmetros da Busca Tabu no GEOREDES
Como resultado são geradas as rotas e criado um arquivo .shp (shape) que
apresenta visualmente as mesmas em ambiente gráfico.
4.4 RESULTADOS OBTIDOS
A ilustração de uma solução obtida pelo GEOREDES para o problema
estudado é mostrada na Figura 6.
Fig. 6: Uma Solução para um Problema de Roteamento de Veículos fornecida pelo
GEOREDES em atendimento a clientes da BAMRJ
Pesquisa Naval Nº 15, Setembro de 2002
239
5. CONCLUSÕES
O uso de algoritmos para roteamento de veículos em um ambiente SADE permite
redução nos custos de transporte, através de uma boa utilização da frota, e a facilidade
da utilização de um banco de dados georeferenciado, com visualização da solução em
ambiente gráfico. Os cálculos são desenvolvidos utilizando distâncias reais da malha
viária (diferentemente de quando se obtém rotas a partir de distâncias Euclidianas),
propiciando soluções mais precisas no que diz respeito às distâncias totais percorridas
pela frota.
A utilização do ferramental apresentado neste trabalho permite que a
programação diária da distribuição a partir dos depósitos da Base de Abastecimento da
Marinha no Rio de Janeiro (BAMRJ) seja realizada de modo mais preciso, com evidentes
ganhos de natureza econômica, operacional e permite vislumbrar o emprego de Sistema
de Informação Geográfica em outras aplicações que necessitem a introdução de
algoritmos para apoio à decisão.
REFERÊNCIAS BIBLIOGRÁFICAS
BALINSKI, M. L., QUANDT, R. E., 1964, “On an integer program for a delivery
problem”. Operations Research, vol.12, n. 2, pp. 300-304.
BODIN, L., GOLDEN, B., ASSAD, A . et al., 1983, “Routing and scheduling of
vehicles and crews: The state of the art”. Computers and Operations Research,
vol. 10, pp. 10.
CLARKE, G., WRIGHT, J. W., 1964, “Scheduling of vehicles from a central depot to
a number of delivery points”. Operations Research, vol. 12, pp. 568-581.
DANTZIG, G. B., RAMSER, J. H., 1959, “The truck dispatching problem”.
Management Science, vol.6, n. 1, pp. 80-91.
GLOVER, F., 1986, “Future paths for integer programming and links to artificial
intelligence”. Computers and Operations Research , vol. 13, pp. 533-549.
GLOVER, F., TAILLARD, E., DE WERRA, D., 1993, “Tabu Search”, Annals of
Operations Research, vol. 41, pp. 3-28.
GLOVER, F., 1989b, “Tabu search - Part I”. ORSA Journal on Computing, vol. 1,
pp. 190-206.
GLOVER, F., 1990a, “Tabu search - Part II”. ORSA Journal on Computing, vol. 2,
pp. 4-32.
GLOVER, F., 1990b. “Tabu search: A tutorial”. Interfaces vol. 20, pp 74-94.
HANSEN, P., 1986, “The steepest ascent mildest descent heuristic for combinatorial
programming”. Congress on Numerical Methods in Combinatorial Optimization,
Capri, Itália.
HERTZ, ALAIN, 1992, “Finding a Feasible course schedule using Tabu search”.
Discrete Applied Mathematics, vol 35, pp. 255-270.
LAPORTE, G., 1992, “The vehicle routing problem: An overview of exact and
approximate algorithms”. European Journal of Operations Research, vol. 59, n.
3, pp. 345-358.
OSMAN, I.H., SALHI, S., 1996, Local search strategies for the vehicle fleet mix
problem. Modern Heuristics Search Methods, 1 ed., Chichester, John Wiley &
Sons.
INSTITUTO DE ESTUDOS DO MAR ALMIRANTE
PAULOMOREIRA
BIOACÚSTICA SUBMARINA
(CATÁLOGO DE SONS BIOLÓGICOS)
Com o respaldo da experiência da Seção de Recursos Vivos do Departamento de Oceanografia
do IEAPM, na captura e identificação das espécies que habitam a costa brasileira, surgiu o projeto,
denominado “CATÁLOGO DE SONS DE ESPÉCIMES MARINHOS DA COSTA BRASILEIRA” que
visa a gravação, análise e disponibilização dos sons gerados pelos espécimes marinhos através de meios
adequados ao treinamento de operadores de sonares e de sistemas de escuta submarina. Este projeto
permitirá a criação de um banco de dados de sons característicos dos animais marinhos de nossa costa,
de valioso conteúdo científico e de grande utilidade prática para a Marinha do Brasil, que ainda hoje se
vale de um catálogo de sons estranho à nossa realidade.
O efeito da atividade biológica se faz sentir mais intensamente em águas rasas costeiras do que
em mar profundo, e mais nas zonas tropicais e temperadas do que nas águas geladas. O conhecimento das
áreas insonificadas ao longo de uma costa longa e diversificada como a do Brasil e suas variações
sazonais, deve ser precedido do conhecimento da grande variedade de espécies marinhas que as habitam
e dos sons que cada uma produz.
IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira
Departamento de Oceanografia
Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ
E-mail: [email protected] Telefone: 24-2622-9010
XVIII
Capítulo
MODELAGEM MATEMÁTICA PARA HIDROACÚSTICA EM ÁGUAS RASAS
USANDO O MÉTODO DOS ELEMENTOS FINITOS
Sônia Maria Constantino Ferreira
MSc Engenharia Oceânica
Fundação Universidade Federal do Rio Grande – FURG
Departamento de Matemática
Volnei Andersson
DSc Engenharia Mecânica
Fundação Universidade Federal do Rio Grande – FURG
Departamento de Materiais e Construção
Humberto Camargo Piccoli
DSc Engenharia Mecânica
Fundação Universidade Federal do Rio Grande – FURG
Departamento de Materiais e Construção
Resumo
Neste artigo apresenta-se uma aplicação de elementos finitos para a
simulação da propagação hidroacústica em um determinado perfil do canal de acesso
ao Porto do Rio Grande. Na formulação desenvolvida para o perfil sob investigação,
foram usados elementos isoparamétricos triangulares e o programa foi aplicado ao
domínio considerando freqüências emissoras de 25 Hz e 100 Hz, tendo sido
determinados os tempos mínimos de estabilização do sinal de saída (pressão acústica)
e, nesta condição, os gráficos das frentes de onda, obtidos com as pressões calculadas,
confirmaram o comportamento esperado e que normalmente se obtém em trabalhos
experimentais.
Palavras-Chave – Águas rasas, elementos finitos, simulação hidroacústica.
242
Pesquisa Naval Nº 15, Setembro de 2002
Abstract
This work presents a finite elements method application in order to simulate
the wave acoustic propagation in a determinate profile of the Rio Grande Port access
canal. In the developed formulation were used triangular isoparametric elements and
the program was applied to a domain for transmitted frequencies of 25 Hz and 100 Hz.
The minimum times of stabilization of the output signal (acoustic pressure) was
determined and, in this condition, front waves graphics with calculated pressures
were obtained and confirmed the expected behavior that usually is achieved in
experimental works.
1.
Introdução
O estudo da hidroacústica tem encontrado aplicações práticas tais como em
geofísica marinha, navegação marítima, exploração de petróleo no mar, pesca oceânica,
localização de obstáculos fixos ou móveis e medição da profundidade da água
(ecobatimetria). Os resultados de medições de parâmetros físicos e químicos, envolvidos
em tais aplicações, são usados na formulação de modelos matemáticos que constituem
tentativas ou aperfeiçoamentos de previsões do comportamento hidroacústico. Um
parâmetro muito importante, considerado nestas previsões, é a pressão hidroacústica.
Assim, baseando-se em princípios físicos, deduz-se a equação diferencial da onda
acústica, onde a variável dependente a determinar é a pressão hidroacústica (Robinson
e Lee, 1994).
Os problemas matemáticos a serem resolvidos na hidroacústica envolvem o
conhecimento do domínio onde se busca determinar a função solução, a adequação da
equação diferencial aplicável ao domínio e o estabelecimento das apropriadas condições
iniciais e de contorno. As soluções de tais problemas invariavelmente são numéricas,
exigindo um razoável aporte computacional. Dependendo do tamanho e forma do domínio
sob investigação e das condições iniciais e de contorno, os métodos numéricos
aplicáveis podem apresentar correspondentes resultados com menores erros de
simulação e tempo de computação. O método denominado de Teoria de Raio apresenta
bons resultados para águas profundas e altas freqüências (Urick, 1975). Os métodos
denominados Modos Normais e Integração Numérica Direta são melhores para fundos
oceânicos planos e propriedades físicas e químicas invariáveis com a distância (Clay e
Madwin, 1977).
Com o rápido avanço dos computadores, principalmente no que tange ao
aumento de memória e diminuição do tempo de processamento, implementaram-se outros
métodos mais laboriosos como Diferenças Finitas e Elementos Finitos (Robinson e Lee,
1994). Segundo Murphy e Chin-Bing (1988), a aplicação do método dos elementos
Pesquisa Naval Nº 15, Setembro de 2002
243
finitos na propagação hidroacústica iniciou em 1979 e evoluiu esparsamente até 1988,
devido à necessidade de muitos nós na malha, implicando em alto custo operacional.
Por isso, modelos de propagação hidroacústica, baseados nesse método, são usualmente
restritos a pequenas distâncias e baixas freqüências.
Neste artigo, o método dos elementos finitos é empregado em um domínio
plano de águas rasas, constituído por um perfil do canal de acesso ao Porto do Rio
Grande, de modo a simular a propagação hidroacústica de sons emitidos de uma fonte
localizada em diferentes profundidades do perfil. Na simulação, foram adotadas as
freqüências emissoras de 25 Hz e 100 Hz. A freqüência de 25 Hz foi usada nos trabalhos
de Stephen (1990), Jensen e Ferla (1990) e Ferreira (2000), para corpo de água rasa. A
freqüência de 100 Hz foi usada em simulações conforme os trabalhos de Clay e Medwin
(1977) e Rego e Parente (1998). Valores próximos de 100 Hz também foram usados em
experimentos por Tolstoy e Clay (1966) e Alves (1997).
O objetivo principal deste artigo é mostrar a utilidade do método dos elementos
finitos na determinação de valores numéricos da pressão hidroacústica, em pontos do
domínio discretizado, com a representação das frentes de onda. Mediante tal aplicação,
também se mostra a determinação do melhor valor do intervalo de tempo de integração,
para utilização no programa desenvolvido e do tempo mínimo necessário para a
estabilização do sinal de saída, variando a posição da fonte emissora do sinal de
excitação.
2.
Problema Particular a Resolver
O problema particular a resolver é constituído pela seguinte equação diferencial:
∂ 2 P (r, t )
∂x 2
+
∂ 2 P (r, t )
∂z 2
−
 ∂ 2 P(r, t )
∂ P(r , t ) 

+β
= − 4 π F(r, t )
2
2

∂t 
c (r )  ∂t
1
(1)
onde P(r,t) é a pressão acústica em função do tempo, F (r , t ) = f (r, t ) e −iωt sendo f (r,
t) a fonte unitária, (Clay e Medwin, 1977 e Alves, 1997). Neste trabalho se usou a fonte
pontual da forma F(r, t ) = 1 sen ( ω t ) onde a unidade (1) representa 1 Pa/m2. As condições
iniciais são deslocamentos e velocidades nulos em todos os pontos do domínio e as
condições de contorno consideradas são as seguintes: a) na superfície da água, P=0; b)
no fundo rígido, de reflexão total, ∂P/∂z = 0. A velocidade do som na água, c(r), para o
perfil em estudo, foi calculada usando a expressão de Wilson (1960). No perfil sob
estudo, têm-se as seguintes grandezas que influem no cálculo de c: aceleração da
gravidade (9,81 m/s2), massa específica da água (995 kg/m3), salinidade da água (0 0/00),
temperatura da água (100 C). A velocidade do som calculada é de 1451 m/s.
244
Pesquisa Naval Nº 15, Setembro de 2002
3. Formulação de Elementos Finitos
Para desenvolver a formulação de elementos finitos, foram assumidas as
seguintes hipóteses: inexistência de bolhas de ar; água como um meio homogêneo;
velocidade do som constante; salinidade da água constante; massa específica da água
constante; inexistência de obstáculos no domínio; superfície livre, com pressão nula;
fundo rígido de reflexão total, tendo variação nula da pressão acústica com a
profundidade.
A aplicação do método dos elementos finitos é feita sobre a Equação ( 1 ),
usando um domínio bidimensional discretizado em elementos finitos isoparamétricos
triangulares de três nós (Ferreira et al., 1999) e chega-se à equação:
E* Pi +1 = Fi +1*
*
onde, E =
1
α ∆t
2
E+
(2)
δ
G + H
α ∆t
2
 1

1 ∂ Pi
1
 ∂ Pi
*
− 1
+
+
Fi +1 = Fi +1 + 
Pi  E +
2
2
α ∆t ∂ t
α ∆t
 2α  ∂ t

( 2a )
(2b)
 δ ∆t

 ∂2 P  δ
δ
 ∂P
+ 
− ∆t 
+  − 1
+
Pi  G
2
α
 ∂ t α ∆t 
 ∂t
 2α
sendo P o vetor de pressão acústica nos nós da malha de elementos finitos, E e H,
respectivamente, as matrizes de massa e rigidez da pressão acústica, G é a matriz de
massa multiplicada pelo coeficiente de amortecimento e F é o vetor contendo o termo
fonte e as condições de contorno no nível do mar. E* uma matriz quadrada simétrica e
F* é um vetor. A Equação ( 2 ) fornece os valores das pressões acústicas nodais
relativas,aofinaldeum intervalodetem podeintegração.Com Pi+1 calculado, parte-se
para o próximo instante e repete-se o processo de forma que o vetor Fi+1* é obtido com
Pi no instante anterior. Ao final de cada incremento de tempo é necessário atualizar-se
∂ P ∂2 P
, calcular Fi+1* , que será usado no instante seguinte, para obter-se o vetor
∂ t e ∂ t2
Pi+1 na Equação ( 2 ).
Pesquisa Naval Nº 15, Setembro de 2002
245
Algoritmo desenvolvido para resolver o sistema de equações diferenciais (2)
de segunda ordem:
Passo 1. Construir a malha (discretização do domínio sob estudo).
Passo 2. Determinar a matriz de rigidez e a matriz de massa para cada elemento.
Passo 3. Calcular o vetor fonte (segundo termo da Equação (1)).
Passo 4. Ler as condições de contorno na superfície (ler de arquivo o número
dos nós localizados na superfície, considerando P=0 nos mesmos).
Passo 5. Montar a matrizes globais (matrizes E, G e H).
Passo 6. Construir a matriz final do sistema para integração no tempo (Equação
(2a), matriz E*).
Passo 7. Calcular o vetor total de entrada de dados nos nós (vetor F).
REPITA
Passo 8. Resolver o sistema linear que fornece o valor da pressão acústica
nodal.
Passo 9. Atualizar os valores das derivadas da pressão acústica.
Passo 10. Calcular o novo vetor de entrada de dados nos nós.
Passo 11. Restabelecer as condições de contorno no vetor de entrada de
dados nos nós.
ATÉ tempo de simulação > tempo máximo previsto
Passo 12. Armazenar o vetor final da pressão acústica (vetor P, Equação (2)).
Passo 13. Fim do algoritmo.
246
Pesquisa Naval Nº 15, Setembro de 2002
4. Domínio sob Investigação
Laguna
dos Patos
Perfil
de
estudo
Oceano
Atlântico
Figura 1 – Localização do perfil de estudo (figura cedida pelo LEG, Laboratório
de Expressão Gráfica do Departamento de Matemática da FURG).
Objetivando avaliar o desempenho do modelo implementado, foi selecionado
como domínio de investigação o perfil localizado em uma zona do canal de acesso ao
Porto do Rio Grande com uma das menores larguras e maior profundidade próxima à
margem oeste, junto à orla portuária, evitando lâminas d’água de pouca profundidade e
muito espraiadas. O perfil do canal foi construído com valores reais de profundidades,
baseados em plantas batimétricas fornecidas pela Superintendência do Porto do Rio
Pesquisa Naval Nº 15, Setembro de 2002
247
Grande, parte integrante do Relatório Conclusivo do levantamento batimétrico
realizado no período de 23/01/97 a 30/01/97, após dragagem executada no canal. Na
Figura 1 apresenta-se a localização do perfil de estudo e na Figura 2 a sua correspondente
caracterização geométrica.
O domínio foi discretizado com uma malha não estruturada de elementos finitos,
empregando-se o método de Avanço de Fronte (Alquati, 1994). A malha, composta por
elementos triangulares de três nós, contém 2709 nós e 4536 elementos e foi escolhida
após testar-se outras, inclusive uma contendo 4624 nós e 8099 elementos, e obter-se
resultados idênticos. Localizou-se a fonte pontual de excitação no ponto P com abscissa
250,37 m e profundidade 8,43 m, por ser um dos pontos do trecho de maior profundidade
no perfil em estudo e, aproximadamente, na metade desta profundidade.
z
(m)
Orla
portuária
0
São José
do Norte
-4
-8
-12
-16
0
200
400
600
800
(m) x
Fig. 2 – Perfil do canal de acesso ao Porto do Rio Grande.
Visando pesquisar o valor ideal do intervalo de tempo de integração, para o
método de Newmark, e analisar o tempo mínimo necessário para estabilização do sinal
de saída, foram escolhidos seis pontos, coincidentes com nós da malha de elementos
finitos, usando para cada um os seguintes critérios: distante da fonte à esquerda do
domínio; mais próximo da superfície do que a fonte; com profundidade semelhante a
fonte; sob vertical próxima ao ponto anterior porém mais à superfície; dois pontos com
abscissas idênticas sendo um próximo do fundo do perfil em estudo e ambos
posicionados à direita do perfil.
5. Intervalo de Tempo de Integração
Estudou-se a influência do intervalo de tempo de integração e adotou-se o
valor mais adequado, ∆t=10-4s. Na Figura 3 representam-se gráficos pressão x tempo
para freqüência 100 Hz, de onde se conclui que o tempo mínimo de estabilização do sinal
de saída ocorre a partir de 5 s.
248
Pesquisa Naval Nº 15, Setembro de 2002
tempo (s)
Fig. 3 – Gráficos da pressão acústica no domínio do tempo em seis nós, ∆t = 10-4s e
freqüência 100 Hz.
6. Tempo Mínimo de Estabilização do Sinal de Saída
A análise temporal não é suficientemente precisa para determinar o tempo
de estabilização do sinal obtido com o modelo proposto. É então, indicada a análise
espectral, aplicando-se a Transformada Discreta de Fourier, para investigar o sinal
no domínio da freqüência (Newland, 1995). Dividiu-se então o sinal temporal em
intervalos de tempo sucessivos: i) 7 a 8 s; ii) 8 a 9 s e iii) 9 a 10 s. O objetivo desta
divisão é verificar quando as transformadas se estabilizarão. Calculando as
transformadas nos três intervalos, identifica-se o regime permanente quando as
mesmas forem iguais. A Figura 4 apresenta os espectros do sinal obtido no nó 193
nos intervalos relacionados acima. Como, ao atingir o regime permanente, o único
pico presente no expectro é o correspondente à freqüência da fonte emissora, podese observar que os transientes desaparecem completamente no intervalo 8 a 9 s.
Estabelece-se então o tempo mínimo de estabilização do sinal em 9 s, para o sinal
calculado no nó 193. As transformadas foram calculadas utilizando-se o programa
MATLAB. Para os demais nós, obtiveram-se tempos mínimos maiores que 5 s e
menores ou iguais a 9 s. Conclui-se então que o tempo mínimo de estabilização do
__ 7 a 8 s
__ 8 a 9 s
__ 9 a 10 s
Fig. 4 – Espectro do sinal de saída no nó 193, freqüência 100 Hz,
intervalos de tempo 7 a 8 s, 8 a 9 s e 9 a 10 s.
Pesquisa Naval Nº 15, Setembro de 2002
249
7. Resultados Obtidos de Pressão Acústica
Objetivando analisar as alterações do sinal de saída nas frentes de onda
acústica, foram adotadas as seguintes considerações:
• fonte emissora localizada consecutivamente nas três posições representadas pelos
pontos P (250,37; 8,43), já analisado nos itens anteriores, Q(251,22; 2,06) e R(251,07;
14,81);
• intervalo de tempo de integração do método de Newmark de 10-4 s;
• tempo mínimo de estabilização do sinal de saída de 10 s;
• freqüências emissoras de 25 Hz e 100 Hz.
Nesta aplicação do modelo implementado ao domínio discretizado sob
investigação, são mostradas quatro soluções: as duas primeiras mantendo a fonte
emissora do sinal acústico na posição P com freqüência do sinal emitido em 25 Hz e
depois 100 Hz; as duas últimas, mantendo a freqüência em 25 Hz e posicionando a
fonte em Q e depois em R. É importante observar que os resultados obtidos de pressão
acústica correspondem ao sinal de saída estabilizado (estacionário) após 10s.
Nas Figuras 5 e 6 são representadas as diferentes frentes de ondas das pressões
acústicas obtidas com o modelo de elementos finitos implementado e sob as
considerações apresentadas no parágrafo anterior, para freqüências de 25 Hz e 100 Hz.
z
(dm)
x
(m)
Fig. 5 – Campo de pressão acústica para fonte pontual em P(250,37;8,43), freqüência 25
Hz, pressão acústica em µ Pa.
z
(dm)
x
(m)
Fig. 6 – Campo de pressão acústica para fonte pontual em P(250,37;8,43),
freqüência 100 Hz, pressão acústica em µ Pa.
250
Pesquisa Naval Nº 15, Setembro de 2002
Em função dos resultados gráficos (para freqüências de 25 Hz e 100 Hz), as
seguintes observações podem ser destacadas:
• Para a freqüência emissora de 25 Hz, o número de frentes de onda é bem menor e a
atenuação do sinal de saída estacionário é acentuada nas regiões menos profundas.
• Para a freqüência emissora de 100 Hz o número de frentes de onda é grande e o sinal
de saída estacionário está presente em todas as regiões, ou seja, sem atenuação em
grandes áreas do domínio.
• Na superfície livre tem-se o valor da pressão acústica nula e próximo da superfície,
valores muito pequenos. Estes resultados são coerentes com a condição de
contorno imposta para propagação acústica em um corpo d’água raso, P=0 na
superfície.
• Para a freqüência emissora de 25 Hz, valores de pressão acústica nula e valores
muito pequenos também ocorrem nas zonas laterais à direita e à esquerda da
representação gráfica. Na zona central observam-se pressões acústicas mais
elevadas do que nas laterais.
• O formato da representação das frentes de onda sofre decisiva influência do fundo
tanto no aspecto teórico, condição de contorno no fundo que simula condição de
radiação sendo considerado reflexão total: ∂P/∂z = 0, quanto na forma do domínio
e, sendo um perfil de dimensões irregulares, isto faz com que se obtenha posições
assimétricas. Estes resultados são coerentes com o suposto comportamento
dinâmico da simulação proposta que sofre influência da profundidade e, como
conseqüência, da inclinação do fundo.
• O número de frentes de onda varia assim como a atenuação, ao variar a freqüência
da fonte emissora do sinal.
• O que se observou é coerente com a bibliografia quando a posição da fonte foi
variada, enquanto a freqüência foi mantida. Ao compararem-se os resultados obtidos
conclui-se que a fonte sendo posicionada mais próxima do fundo obtêm-se valores
mais elevados de pressão acústica.
8.
Conclusões
Neste trabalho aplicou-se o método dos elementos finitos para resolver a
equação diferencial parcial da onda acústica. As conclusões mais importantes a destacar
são:
• O modelo implementado foi aplicado a um perfil real do canal de acesso ao Porto
do Rio Grande e foi capaz de calcular o valor numérico da pressão acústica em
pontos (nós) do domínio discretizado.
• Pesquisou-se o melhor valor do intervalo de tempo para a aplicação do programa
desenvolvido, sendo obtido ∆t=10-4 s.
Pesquisa Naval Nº 15, Setembro de 2002
251
• Analisou-se o tempo mínimo necessário para a estabilização do sinal, que
representa a pressão acústica, sendo obtido t=10 s, evitando desperdício de
tempo de processamento.
• O valor da pressão acústica depende da posição da fonte emissora do sinal, dentro
do domínio em estudo.
• A freqüência do sinal emitido influencia no valor da pressão acústica de forma
marcante.
Finalmente, pode-se concluir que é possível simular a propagação acústica em
um perfil de um corpo d’água raso, através de um modelo numérico, tendo uma formulação
de elementos finitos e reproduzir importantes aspectos da propagação acústica.
Agradecimentos
Os autores agradecem ao Prof. Dr. José Milton Araújo pelo auxílio e valioso
empréstimo de material utilizado na formulação de elementos finitos para a equação da
onda acústica em águas rasas, e ao Prof. Dr. Carlos Eduardo Parente Ribeiro pelos
conhecimentos transmitidos e inestimável apoio prestado.
Referências Bibliográficas
ALQUATI, E. L. e GROEHS, A. G., Geração automática de malhas não
estruturadas de elementos triangulares, In: XV CONGRESSO IBERO
LATINO AMERICANO SOBRE MÉTODOS COMPUTACIONAIS PARA
ENGENHEIROS. Belo Horizonte, Anais: v. 1, p. 483-492, 1994.
ALVES, A. M. V., Investigações sobre a propagação da onda sonora por
modos normais em águas rasas, Dissertação de mestrado, COPPE/UFRJ,
Rio de Janeiro, 1997.
CLAY, C. S. e MEDWIN, H., Acoustical oceanography: principles and
aplications. New York, John Wiley & Sons, 1977.
FERREIRA, S. M. C., ARAÜJO, J. M. e PICCOLI, H. C., Modelagem matemática
de propagação acústica em águas rasas, In: IV ENCONTRO DE
TECNOLOGIA EM ACÚSTICA SUBMARINA. Rio de Janeiro, 1999.
FERREIRA, S. M. C., Uma formulação de elementos finitos para a simulação
da propagação acústica em águas rasas, Dissertação de mestrado, FURG,
Rio Grande, 2000.
JENSEN, F. B. e FERLA C. M., Numerical solutions of range-dependent
benchmark problems in ocean acoustics, The Journal of the Acoustical
Society of America, v. 87 (4), p. 1499-1510, 1990.
MURPY, J. E. e CHIN-BING, S. A., A finite-element model for ocean acoustic
propagation, Mathl Computer Modelling 11, 70-74, 1988.
NEWLAND, D. E., An introduction to random vibrations, spectral & wavelet
analysis, Singapore, Longman Singapore Publishers Pte Ltd , 1995.
REGO, V. S. e PARENTE, C. E., Implementação numérica da aproximação
parabólica da equação da onda em acústica oceânica, Pesquisa Naval.
Suplemento Especial da Revista Marítima Brasileira v. 11, p. 191-205, 1998.
ROBINSON, A. R. e LEE, D., Oceanography and acoustics, prediction and
propagation models, New York, American Institute of Physics, 1994.
STEPHEN, R. A., Solutions to range-dependent benchmark problems by
the finite-diference method, The Journal of the Acoustical Society of
America v. 87 (4), p. 1527-1534, 1990.
TOLSTOY, I. e CLAY, C. S., Ocean acoustics: theory and experiments in
underwater sound, New York, McGraw-Hill, 1966.
URICK, R. J., Principles of underwater sound. New York, McGraw-Hill, 1975.
WILSON, W. D., Equation for the Speed of Sound in Sea Water, The Journal
of the Acoustical Society of America, v. 32 (10), p. 1357 1960.
XIX
Capítulo
LOGÍSTICA MILITAR: EFICIÊNCIA NA PAZ E EFICÁCIA NA GUERRA
Eng. Civil João Antônio Junqueira Teixeira
Mestrando do Programa de Pós-Graduação em Engenharia de Produção
da Universidade Federal do Rio Grande do Sul
[email protected]
2º Ten Int Emílio Kerber Filho
Mestrando do Programa de Pós-Graduação em Engenharia de Produção
da Universidade Federal do Rio Grande do Sul
[email protected]
Resumo
A logística militar é, muitas vezes, apresentada em contraposição à logística
empresarial, não guardando com esta nem objetivos comuns nem termos de
comparação de desempenho. Neste documento, os autores sugerem que as “duas”
logísticas podem diferir apenas quanto às funções objetivo com que devem lidar e
propõem a utilização de índices com que se possa comparar o desempenho das mesmas.
Abstract
Military logistics many times is put against business logistics. It’s said they
have neither common objectives nor common performance indexes. In this paper is
suggested that their diferences are rather in the objective functions they must deal
with and the authors propose the use of some indexes to compare their performance.
Palavras-chave: logística; logística militar.
Keywords: logistics; military logistics.
254
Pesquisa Naval Nº 15, Setembro de 2002
Introdução
O conceito original de logística está intimamente ligado às atividades militares.
Tanto é verdade que a primeira tentativa conhecida de definir logística foi feita pelo
Barão Antoine Henri de Jomini (1996), general de Napoleão, que afirmava ser a arte
prática de movimentar exércitos, ou seja, tudo ou quase tudo, no campo das atividades
militares, exceto o combate. Portanto, poderíamos dizer que a logística militar, ao lado da
estratégia e da tática, é, stricto sensu, a parte da administração militar que trata do
suprimento e transporte de tropas em operação.
Após a Segunda Guerra Mundial, como tantas outras técnicas desenvolvidas
durante o esforço de guerra, a logística passou a ser incorporada pelas empresas como
ferramenta agregadora de competitividade. No enfoque empresarial, a logística passa
a ser concebida sob um prisma diferenciado do de guerra: o “combate” entre as
empresas.
O Council of Logistics Management - CLM, com sede em Oak Brook, Illinois,
USA, adota, presentemente, a seguinte definição para logística empresarial:
“Logística é aquela parte do processo da cadeia de fornecimento que planeja,
implementa e controla o eficaz e eficiente, fluxo e armazenagem de bens, serviços e
informação relacionada desde o ponto de origem até o ponto de consumo, com a finalidade
de atender os requisitos dos clientes.”
No presente documento, os autores procuram, à luz dos conceitos de eficácia
e eficiência, estabelecer pontos comuns entre a logística militar e a empresarial para
propor termos de comparação entre as mesmas.
Eficácia/eficiência
Diz-se que um dispositivo, ou sistema, é eficaz se for capaz de cumprir
plenamente certa função, ou atingir determinado objetivo. Por outro lado, diz-se que um
dispositivo é eficiente se for capaz de cumprir determinada função com o menor custo
operacional, isto é, com a maior economia de meios. Deste modo, eficácia/eficiência
estão relacionadas com capacidade de realização (alcance de objetivos) / custos
envolvidos nesta realização.
Se levarmos em consideração o binômio eficácia/eficiência, poderíamos dizer
que a logística militar preocupa-se com a eficácia de suas atividades, em detrimento de
sua eficiência, enquanto a logística empresarial dá ênfase à eficiência, ao lado da
indispensável eficácia de suas atividades.
Os atributos eficácia e eficiência, obviamente, não são mutuamente excludentes.
Assim, se representarmos num gráfico bidimensional, em variáveis booleanas,
os atributos eficácia e eficiência teríamos, como regiões de atuação da logística militar
e da logística empresarial, as assinaladas pelas seguintes convenções.
Pesquisa Naval Nº 15, Setembro de 2002
255
Fig. 1
À luz dos conceitos acima apresentados é que deve ser entendida a afirmação,
contida na doutrina da USAF: “A logística deve ser dimensionada para ser eficaz na
guerra e não para ser eficiente na paz” (DEPARTMENT OF THE AIR FORCE, 1992).
Entretanto, os autores entendem que a referida expressão deve ser mais
adequadamente formulada como: a logística deve ser dimensionada para ser eficaz na
guerra e, também, para ser eficiente na paz, especialmente em países emergentes, onde
os recursos, quer para as atividades militares, quer para as atividades civis de seus
governos são, por definição, escassos. Assim é, que propõem o seguinte exemplo
ilustrativo.
Uma Exemplificação de Transportes: Caso Simples Para a Pesquisa Operacional
Suponha-se o problema objetivo de abastecer a Base Aérea de Manaus (BAMN)
com 800 t de suprimentos, necessários para sua plena operacionalidade como base
principal na defesa do espaço aéreo junto à fronteira com a Colômbia.
Suponha-se, também, que os pontos de origem desses suprimentos, as Bases
Aéreas de Boa Vista (BABV), Porto Velho (BAPV), Brasília (BABR), Guarulhos (BAGR),
Galeão (BAGL) e Canoas (BACO), disponham-nos na proporção mostrada no quadro
abaixo:
256
Pesquisa Naval Nº 15, Setembro de 2002
QUADRO 1
Bases
BABV
BAPV
BABR
BAGR
BAGL
BACO
Dist. a Manaus Carga Mom. de transporte
km
t
t x km
669
80
53.520
754
80
60.320
1.926
120
231.120
2.663
160
426.080
2.809
240
674.160
3.089
120
370.680
Totais:
800
1.815.880
Admita-se, agora, que para o transporte dos suprimentos até Manaus estejam
disponíveis as seguintes aeronaves para cargas: um Avro (C-91) de fabricação Hawker
Siddely, um Bandeirante (C-95) de fabricação Embraer, um Buffalo (C-115) de fabricação
De Havilland Aircraft of Canada, um Hercules (C-130) de fabricação Lockheed e um
Boeing 707 (KC-137), cujas características principais, segundo Guston (1977) e Green e
Swanborough (1978), encontram-se no seguinte quadro:
QUADRO 2
Aeronaves Alcance Veloc. Cap.carga Pot. transp. 1 / pot.transp. Custo h-v
km
km/h
t
t x km / h
h / ( t x km )
R$/h
C-91
2.600
452
5,35
2.418,2
0,0004135
2.080,00
C-95
1.900
341
1,20
409,2
0,0024438
1.040,00
C-115
1.150
420
8,00
3.360,0
0,0002976
2.770,00
C-130
3.800
560
45,00
25.200,0
0,0000397
5.200,00
KC-137
11.000
966
36,00
34.776,0
0,0000288 13.860,00
O potencial de transporte de cada aeronave, constante na quinta coluna, foi
definido como o produto de sua capacidade de carga por sua velocidade de cruzeiro.
O custo da hora de vôo, constante na última coluna do quadro, foi estimado
com base no consumo de combustível horário de cada aeronave.
Circunstâncias Normais: Modelo Orientado à Logística Empresarial
No dia a dia nas organizações militares, um problema de suprimento, como o
apresentado acima deve ser encarado como um problema comum de logística empresarial,
constituindo-se sua solução na alocação dos meios de transportes (as aeronaves, no
caso) em rotas que levem à minimização do custo total envolvido. Esta aplicação
compreende o melhor aproveitamento do transporte de carga, através da escolha
Pesquisa Naval Nº 15, Setembro de 2002
257
adequada do tipo de aeronave em cada rota. Adotada esta solução de custo total
minimizado, pode-se, em seguida, calcular o tempo de atendimento decorrente desta
solução.
Para o problema específico, adotou-se, segundo sugestão de Winston (1993),
um modelo de programação linear, em que as variáveis de decisão são o número de
horas voadas por cada aeronave nas rotas apresentadas e a função objetivo a ser
minimizada é a soma do custo de cada aeronave, produto do custo de hora de vôo pelo
número de horas voadas. Na matriz de custo das horas de vôo, as rotas superiores ao
alcance de determinadas aeronaves foram inviabilizadas pela imputação de um valor
muito alto, o mesmo tendo ocorrido em rotas curtas onde a alocação do Hercules (C130) e do B707 (KC-137) conduziria a índices indesejáveis de produtividade. As restrições,
expressas como o produto das horas voadas pelo potencial de transporte de cada
aeronave, foram fixadas tendo-se em vista o momento de transporte da carga disponível
em cada Base Aérea.O modelo de programação linear foi formulado em planilha Excel e
sua resolução feita através do software What’sBest!, da LINDO Systems, Inc., cujo
resultado consta na seguinte tela do Windows.
Fig. 2
O custo total minimizado, apurado pelo software, foi de
c* = R$ 445.065,00
258
Pesquisa Naval Nº 15, Setembro de 2002
As horas de vôo alocadas às rotas específicas são as constantes do seguinte
quadro:
QUADRO 3
C-91
BABV
BAPV
BABR
BAGR
BAGL
BACO
C-95
0
0
0
0
0
0
C-115
0
0
0
0
0
0
C-130
16
18
0
0
0
0
KC-137
0
0
9
17
27
15
0
0
0
0
0
0
Observe-se que apenas as aeronaves C-115 e C-130 foram programadas. As
demais não foram alocadas a rota alguma, apesar de disponíveis.
Como as aeronaves podem operar simultâneamente, o número de horas de vôo
necessárias para o cumprimento da missão de suprimento é o da aeronave mais utilizada.
Assim ,
t = 9 + 17 + 27 + 15 = 68 horas de vôo
Ressalta-se, aqui, que o valor de R$ 445.065,00 refere-se apenas ao custo das
horas de vôo com carga, isto é, de cada Base Aérea de origem até Manaus. Os percursos
de retorno, feitos “em lastro”, corresponderiam aproximadamente ao mesmo valor.
Entretanto, deixa-se de considerá-lo por aparecer, também, no custo apurado na próxima
formulação com o qual o presente valor será comparado.
Semelhantemente, o tempo de 68 horas de vôo corresponde apenas ao
transporte de carga de cada Base Aérea de origem até Manaus. Os tempos relativos aos
percursos de retorno, às operações de carga e descarga, à manutenção e ao abastecimento
das aeronaves em terra deixaram de ser considerados por aparecerem, na mesma
proporção, na próxima formulação com a qual o tempo atual será comparado.
Circunstâncias Emergenciais: Modelo Orientado à Logística Militar
Imagine-se, agora, o mesmo problema de suprimento encarado sob
circunstâncias emergenciais, quer sejam de uma mobilização geral por beligerância,
quer sejam de apoio aeroespacial ao TO ou de atendimento a catástrofes. Neste tipo de
cenário, faz-se necessário o emprego de uma pronta resposta operacional. A minimização
dos custos cede espaço à minimização do tempo, como fator determinante para uma
tomada de decisão.
Sob tais circunstâncias, o imperativo de eficácia determina que os recursos (as
aeronaves, no caso) sejam alocados em rotas que levem a uma minimização do tempo
total de atendimento. Adotada a solução de tempo total de atendimento minimizado,
pode-se, em seguida, computar o custo decorrente envolvido.
Pesquisa Naval Nº 15, Setembro de 2002
259
Adotou-se, então, o modelo de programação linear em que as variáveis de
decisão são o momento de transporte a ser veiculado por cada aeronave nas rotas
apresentadas e a função objetivo a ser minimizada é a soma dos produtos das variáveis
de decisão pelo inverso do potencial de transporte de cada aeronave nas rotas em
questão. As rotas superiores ao alcance de determinadas aeronaves foram inviabilizadas
pela imputação de um valor muito baixo em seu potencial de transporte, o mesmo tendo
ocorrido em rotas curtas onde a alocação do Hercules (C-130) e do B707 (KC-137)
conduziria a índices indesejáveis de produtividade. As restrições, expressas como a
soma dos momentos de transporte veiculados pelas aeronaves alocadas em cada rota,
foram fixadas tendo-se em vista o momento de transporte da carga disponível em cada
Base Aérea.
Este modelo de programação linear também foi formulado em planilha Excel e
sua resolução igualmente feita através do software What’sBest!, da LINDO Systems,
Inc., cujo resultado consta na seguinte tela do Windows.
Fig. 3
Os momentos de transporte alocados pelo software à cada aeronave nas rotas
específicas são os constantes no seguinte quadro:
260
Pesquisa Naval Nº 15, Setembro de 2002
QUADRO 4
C-91
BABV
BAPV
BABR
BAGR
BAGL
BACO
C-95
0
0
0
0
0
0
0
0
0
0
0
0
C-115
C-130
53.520
60.320
0
0
0
0
KC-137
0
0
0
0
0
0
0
0
231.120
426.080
674.160
370.680
Observe-se que apenas as aeronaves C-115 e KC-137 foram programadas. As
demais não foram alocadas a rota alguma, apesar de disponíveis.
Como as aeronaves podem operar simultaneamente, o número de horas de vôo
minimizado para o cumprimento da missão de suprimento é o da aeronave mais utilizada.
Assim ,
t*emg = (231.120 + 426.080 + 674.160 + 370.680) txkm / 34.776 txkm/h =
= 48,94horas de vôo
O custo decorrente desta alocação é composto de duas parcelas,
correspondentes às aeronaves programadas.
c115 = (53.520 + 60.320) txkm / 3.360 txkm/h X 2.770 R$/h = R$ 93.850,00
c137 = 48,94 h X 13.860 R$/h = R$ 678 344,00
Assim, o custo total foi de:
cemg = R$ 772.199,00
Recorda-se as observações feitas com relação ao custo e tempo apurados na
utilização do modelo anterior.
Índices Comparativos
Da comparação dos resultados da otimização dos dois modelos podemos
estabelecer dois índices com a seguinte conceituação:
Índice de eficácia emergencial = t / t*emg
= 68 horas de vôo / 48,94 horas de vôo = 1,39
O índice de eficácia emergencial, com valores normalmente superiores à unidade,
mede quanto o esforço de mobilização foi exitoso em atingir seu objetivo: prover os
Pesquisa Naval Nº 15, Setembro de 2002
261
suprimentos no menor tempo possível comparado com fornecimentos em condições
normais.
Índice de eficiência emergencial = c* / cemg
=R$ 445.065,00 / R$ 772.199,00 = 0,58
O índice de eficiência emergencial, com valores comumente inferiores à unidade,
mede quanto custaria o cumprimento da mesma missão em condições normais comparada
com o custo associado ao esforço de mobilização.
Conclusões
Assim, tal como propuseram no início, os autores acreditam ter estabelecido
índices que permitam comparar procedimentos da logística militar com os
correspondentes da logística empresarial.
Tais índices podem servir como ferramentas de tomada de decisão no
estabelecimento ou não de procedimentos emergenciais uma vez que podem precisar o
aumento de eficácia e a correspondente perda de eficiência financeira na adoção de tais
procedimentos por autoridades civis e/ou militares.
Há, também, a possibilidade de constituir-se um data warehouse com históricos
de situações concretas de escolha entre otimização de custos “versus” otimização de
tempos e os índices de eficácia e eficiência a elas associadas. Tal sistema de informações
poderia servir como apoio à tomada de decisão.
Em que pese a simplicidade dos exemplos, propositalmente procurada para
não dificultar a compreensão dos conceitos em que se baseiam os índices propostos,
os autores acreditam que os mesmos possam ser aplicados a situações logísticas mais
complexas, envolvendo operações de armazenagem e transportes multimodais
comumente associados na realidade.
Referências Bibliográficas
DEPARTMENT OF THE AIR FORCE. Basic Aerospace Doctrine of the
United States Air Force; (AFM 1-1). Washington DC: Government
Printing Office – 319-219/60157, March 1992.
GREEN, W., SWANBOROUGH, G. The Illustrated Encyclopedia of the
World’s Commercial Aircraft. London: Salamander Books, 1978.
GUSTON, B. The Illustrated Enciclopedia of the World’s Modern Military
Aircraft. London: Salamander Books, 1977.
JOMINI, A.H. The Art of War. London: Greenhill Books, 1996.
WINSTON, W.L. Operations Research; applications and algorithms. 3rd
ed. Belmont CA: Duxbury Press, 1993.
Instituto de Pesquisas da Marinha
GERADOR DE RUÍDO DE 33 KHZ E UM SIMULADOR DE RUÍDO DE NAVIO
COM FREQÜÊNCIA CENTRAL DE 3,5 KHZ
Foram desenvolvidos e montados dois geradores de ruído. O primeiro, de 33 kHz consta
de um circuito impresso, que gera os 33 kHz e um transdutor para altas freqüências. Todo
conjunto é alimentado por baterias. Sua finalidade é a de sensibilizar o torpedo em sua corrida
final para o alvo, garantindo que o mesmo o atingirá.
O segundo de 3,5 kHz, que simulou o ruído de um navio de um eixo navegando a 120 rpm,
utilizou dois transdutores para transmitir esta freqüência. Eles foram montados em um suporte
especialmente desenhado para permitir uma perfeita omnidirecionalidade na transmissão. O
sinal, simulando o ruído de um navio, foi gerado no MATLAB e gravado em CD, sendo enviado
para os transdutores a partir de um sistema de som composto por um CD-player e amplificadores,
montados em um rack. Todo o sistema é alimentado por um gerador de tensão de 5 kVA, com uma
autonomia de 10 horas. A finalidade deste simulador foi a de permitir que o submarino atacante,
detectasse o navio-alvo a uma distância de aproximadamente 12 kjds. A detecção a esta distância
permite que o submarino faça a análise do contato obtido, caracterizando-o como alvo.
Posteriormente, esses dados foram enviados ao sistema de direção de tiro e, em seguida, realizado
o disparo do torpedo e a guiagem até que o torpedo assumisse, por si só, a corrida para o impacto
final (é sensibilizado pelo gerador de 33 khz).
Instituto de Pesquisas da Marinha
Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador
CEP 21931-090 – Rio de Janeiro – RJ – Brasil
Fone: (021)3396-2004 – Fax: (021)3 396-2240
Telex: (021) 53113/4/5
XX
Capítulo
ASPECTOS DE CONTROLABILIDADE DE REATORES
CC(EN) Michel Kireeff Covo, M.Sc.
Comissão Naval Brasileira em Washington
University of California at Berkeley
Department of Nuclear Engineering
4126 Etcheverry Hall
Berkeley – CA 94720 – 1730 – USA
[email protected]
Resumo
Este trabalho expõe aspectos fundamentais para o controle de reatores, tais
como a necessidade de utilizar neutrons atrasados na modelagem e a produção de
elementos extremamente absorvedores, que influenciarão a população de neutrons e
as características de operação de um reator. Para correta compreensão são
introduzidos conceitos básicos de física nuclear e neutrônica, sendo apresentada a
equação de continuidade para balanço de neutrons e modelagem de um reator.
Abstract
This work shows basic aspects for reactor control, such as the need of using
delayed neutrons in the modeling and production of extremely absorbing elements,
which will influence the neutron population and the features of the reactor operation.
For the right comprehension, basic concepts of nuclear physics and neutronics will
be introduced, as the continuity equation for neutrons balance and reactor modeling.
264
Pesquisa Naval Nº 15, Setembro de 2002
1.
Introdução
Com o objetivo de apresentar alguns aspectos pertinentes ao controle de
reatores serão introduzidos conceitos básicos de física nuclear para compreensão do
funcionamento de um reator térmico de fissão, usando como combustível 235U.
2.
Física Nuclear
2.1. Binding Energy
A energia necessária para quebrar o núcleo em seus constituintes (nucleons)
é conhecida como Binding Energy, ou energia de ligação, e está representada na figura
1.
Quanto maior a energia de ligação, mais estável é o núcleo. Em contrapartida
quanto menor a energia de ligação, mais físsil é o material1.
Fig. 1 – Binding Energy por nucleon como função da massa atômica1
1
PRUSSIN, Stanley G.
Nuclear Physics for Applications (Draft).
s./l., s./e., 1999, p. IV.2-3
Pesquisa Naval Nº 15, Setembro de 2002
265
Na natureza, o único material físsil existente é o 235U, que ocorre com a
abundância isotópica de 0.71%2. Existem alguns reatores, moderados a água pesada,
que usam o urânio natural como combustível, mas os reatores mais modernos requerem
urânio enriquecido, que pode ser obtido através da difusão gasosa, centrifugação,
separação a laser, etc.
2.2. Interação de Neutrons
Como o neutron é uma partícula sem carga elétrica, ele não é afetado pelos
eletrons do átomo ou pela carga positiva do núcleo, conseqüentemente o neutron
passa pela nuvem elétrica e interage diretamente com o núcleo. Nessa interação podem
ocorrer uma colisão, elástica ou inelástica; ou uma absorção, sendo que esta última
pode consistir em captura radioativa, produção de partículas ou fissão, entre outras.
Na fissão, o núcleo se divide e libera uma certa quantidade de energia. Assim
é que dada a reação de fissão genérica do 235U em dois produtos B e C:
n + 235U → B + C
a energia liberada (Q) vale:
Q = [ M ( n) + M ( 235U )] − [ M ( B) − M ( C )]
onde M(x) é a massa do elemento x
Esta energia é quase toda recuperável (cerca de 215 MeV por fissão3 para o
U). A recuperação em última instância se dá através da conversão dessa energia em
energia térmica, através da interação dos produtos da fissão com a matéria.
Como ilustração pode-se dizer que a energia liberada na fissão de 1g de 235U
corresponde a 8.64x1010 J, que é a mesma energia liberada por 3,17 toneladas de carvão
ou 2 toneladas de óleo diesel.
A despeito da concepção de que os resíduos da reação nuclear são mais
nocivos à saúde, a quantidade liberada é muitíssimo inferior se comparada a outros
meios de energia. Além disso, esses resíduos podem ser confinados, não agredindo o
meio ambiente. Infelizmente o mesmo não pode ser aplicado para os meios convencionais
de produção de energia e seus efeitos colaterais indesejáveis, entre eles, o efeito estufa,
o alagamento de imensas áreas com destruição da fauna e flora regionais, entre outros.
235
3.
Neutrônica
Com a finalidade de diminuir a perda de neutrons do reator e assim economizar
combustível, o core do reator é envolto pelo refletor, constituído de uma camada de
moderador. Moderador é um material não físsil, que tem o objetivo de diminuir a energia
dos neutrons até a faixa térmica e, no caso do refletor, enviar de volta os neutrons que
iriam se perder.
266
Pesquisa Naval Nº 15, Setembro de 2002
3.1. Fator de Multiplicação Efetivo (keff)
A razão do número de fissões de uma geração sobre o número de fissões da
geração anterior chama-se fator de multiplicação efetivo. Este fator é expresso pela
“fórmula de seis fatores”4 dada abaixo:
Keff = ε ⋅ L f ⋅ P ⋅ Lth ⋅ f ⋅ η
onde:
ε (fast fission factor) – é a fração do número total de fissões sobre aquelas
fissões produzidas por neutrons térmicos;
Lf (fast nonleakage factor) – é a fração de neutrons rápidos que não fogem
do core, i.e., centro do reator;
P (resonance escape probability) – é a fração de neutrons que não são
absorvidos em resonâncias;
Lth (thermal nonleakage probability) – é a fração de neutrons térmicos que
não saem do core do reator;
f (thermal utilization factor) – é a fração de neutrons térmicos que são
absorvidos no combustível; e
η (fission yield) – é o número médio de neutrons produzidos por cada neutron
térmico capturado no combustível.
Assim, para que uma reação em cadeia possa manter um valor fixo de potência
é necessário que o keff seja igual a 1 (reator crítico). Caso keff seja menor do que 1, a
reação em cadeia irá decrescer com o tempo (reator subcrítico). Já no caso em que keff
seja maior do que 1 a reação irá aumentar com o tempo (reator supercrítico).
1
http://www.chem.uidaho.edu/~honors/nucbind.html
http://www.eia.doe.gov/cneaf/nuclear/page/intro.html
3
http://hyperphysics.phy-astr.gsu.edu/hbase/nucene/u235chn.html
4
http://www.physics.isu.edu/radinf/oklo.htm
2
Pesquisa Naval Nº 15, Setembro de 2002
267
Fig. 2 – Gerações de neutrons produzidos1
3.2. Seção Cruzada Macroscópica Total (
∑)
t
A probabilidade, por unidade de comprimento, de que um neutron sofra
algum tipo de interação com a matéria chama-se seção cruzada macroscópica
total. Assim sendo, o caminho médio percorrido por um neutron sem uma colisão é
definido como o inverso deste valor ( λ = 1 /
∑)
t
3.3. Primeira Lei de Fick2
“Se o fluxo de neutrons é maior em uma parte do reator do que em outra, então
haverá um fluxo de neutrons para a região de menor densidade”, obedecendo à relação:
268
Pesquisa Naval Nº 15, Setembro de 2002
Jx = −D
dφ
dx
Onde:
Jx é o número de neutrons que passam por unidade de tempo através da
unidade de área perpendicular à direção x;
Φ é o fluxo de neutrons; e
D é o coeficiente de difusão.
3.4. Equação de Continuidade3
Para um dado volume V o balanço de neutrons é regido pela equação de
continuidade:
Variação no
número de
neutrons em V
=
Produção
de
neutrons
Absorção
de
neutrons
-
-
Fuga
de neutrons
ou
∂n
∫ ∂t dV = ∫ sdV − ∫ ∑
V
V
V
a
ΦdV − ∫ div ( J )dV
V
onde para o volume V:
n é o número de neutrons;
s é a taxa em que os neutrons são produzidos;
∑
a
Φ é a taxa de absorção de neutrons; e
div(J) é a taxa de fuga de neutrons.
Usando a lei de Fick podemos reescrever a equação de continuidade como:
D∇2 Φ − ∑ a Φ + s =
∂n
∂t
A equação de continuidade se divide em várias equações na modelagem de
um reator, cada uma para um grupo energético de neutrons (método da difusão por
grupos). Quanto maior for o número de grupos, tanto maior será a precisão do cálculo
numérico e conseqüentemente maior será o tempo de processamento.
Obviamente, o cálculo passa a ser complexo e se torna necessário o uso de
softwares dedicados, tais como: MCNP4a, MAGGENTA, SCALE 4.3, SIMULATE-E e
Pesquisa Naval Nº 15, Setembro de 2002
269
MAGG-SCALE, entre outros.
Estes softwares normalmente utilizam o método de Monte Carlo4 e permitem a
simulação, análise de transientes e licenciamento de reatores.
4.
Controle
O controle do reator é efetuado através de barras de controle e variação da
concentração de alguns componentes químicos, usualmente o ácido bórico (H3BO3).
O fator de multiplicação efetivo deve ser mantido igual a 1 durante a operação
do reator, com exceção dos momentos de variação de potência em função da necessidade
de demanda de energia.
Este processo é extremamente complexo, pois o fator de multiplicação do reator
sem as barras de controle e os componentes químicos é significantemente maior do que
1 no início da vida útil do reator.
No início de operação de um reator as barras de controle estão imersas,
absorvendo os neutrons e mantendo keff menor do que 1. Para se elevar a potência a um
determinado nível, remove-se lentamente a barra de controle, fazendo keff ficar maior do que
1, e ao atingir a potência desejada, insere-se a barra de controle até keff ficar igual a 1.
Este controle através das barras é delicado, pois a demanda de energia é
flutuante e, além disso, o fator de multiplicação é função do consumo de combustível,
da temperatura, da diminuição da concentração de H3BO3 e da acumulação de produtos,
em particular do 135Xe e 149Sm, cujas seções cruzadas macroscópicas de absorção
( ∑a ) são absurdamente grandes.
4.1. Neutrons Atrasados X Controle do Reator
No estudo do comportamento da população de neutrons em um reator não
crítico (cinética do reator), distinguem-se duas classes de neutrons: prontos e atrasados.
Os neutrons prontos são aqueles que surgem no mesmo instante da reação de fissão, já
os neutrons atrasados são aqueles que surgem após o decaimento dos produtos de
fissão.
Após a fissão, os neutrons são emitidos com alta energia (neutrons rápidos),
em média 2 MeV. Estes neutrons têm de perder energia até a faixa térmica, abaixo de
0.0253 MeV, para então serem absorvidos em reatores térmicos e assim continuar a
reação em cadeia1.
1
http://www.usdpi.org/nuclear_fundamentals.htm#1.16
OLANDER, Donald R.
Nuclear Materials (Reading).
Berkeley, s./e., 2001, p. 4.2.
3
LAMARSH, John R.
Introduction to Nuclear Engineering.
Massachusetts, Addison-Wesley, 1983, p. 196.
4
http://www.npac.syr.edu/users/paulc/lectures/montecarlo/p_montecarlo.html
2
270
Pesquisa Naval Nº 15, Setembro de 2002
O tempo em que o neutron permanece como neutron rápido (tf) é muito curto
comparado com o tempo em que o neutron térmico demora para ser absorvido (td). Em
um reator crítico infinito, consistindo de uma mistura homogênea de 235U e H2O à
temperatura ambiente, o tempo médio de vida de um neutron pronto é de 108 µ s.
Definindo reatividade2 (ρ ) como:
ρ=
k −1
k
assim, demorará aproximadamente 0.1s para o reator acima, modelado sem
neutrons atrasados, aumentar a reatividade em 0.001, conseqüentemente a potência,
que é proporcional ao fluxo, aumentará pelo fator de e10t, portanto em um segundo a
potência será multiplicada por 22026!!!
Agora se for modelado o mesmo reator levando-se em consideração os
neutrons atrasados e se for utilizada a equação geral de reatividade para um grupo de
neutrons atrasados3:
ρ=
onde:
ωl p
1 + ωl p
+
ω
β
⋅
1 + ωl p ω + λ
ρ – reatividade;
lp – tempo de vida médio do neutron antes de ser absorvido ( lp = tf + td);
λ – constante de decaimento do precursor de maior vida;
β – fração de neutrons atrasados; e
ω – freqüência a ser determinada.
será encontrado para o mesmo reator (utilizando ρ =0.001, lp
0.0001, β =0.0065
para 235U e λ 0.1) o valor de ω1 = 0.018143 e ω 2= -55.11814, onde o fluxo obedece:
φ = A1 ⋅ eω1t + A2 ⋅ e ω 2t
Obviamente o fluxo segue o primeiro termo com correspondente período de
55s, uma vez que o segundo cai a zero rapidamente.
Assim é que, levando-se em consideração os neutrons atrasados, a potência
aumentará pelo fator de e0.018143t, portanto em um segundo a potência será multiplicada
por 1.0183, tornando possível o controle do reator.
Na prática, por motivos de segurança, a potência é aumentada em períodos
não menores que 2 minutos e correspondentes a =0.0006.
No caso de uma reatividade negativa, em conseqüência da inserção das barras
de controle, podem ser introduzidos grandes valores, sendo que o valor deω1 1 se
aproxima deλ , i.e., do precursor de maior vida, cujo valor é de 80s. A potência cairá
Pesquisa Naval Nº 15, Setembro de 2002
271
repentinamente seguindo a fórmula4:
e continuará decrescendo seguindo a relação:
Na prática, o valor de Pf2 é de 7% de Pf1 para t=0+, assim não se pode interromper
instantaneamente a potência do reator pela simples inserção de barras de controle.
4.2. Xenon X Controle do Reator
Como foi dito anteriormente a produção de 135Xe tem um papel fundamental no
controle do reator. Quando desligamos o reator mantemos a produção de 135Xe através
do consumo do 135I, seguindo a fórmula:
onde:
λ
respectivamente;
e
λ Xe
são as constantes de decaimento do
135
Ie
135
Xe,
Χe∞ e Ι ∞ é quantidade de 135Xe e 135I existentes quando desligamos o reator; e
t é o tempo decorrido após o desligamento do reator.
KRANE, Kenneth S.
Introductory Nuclear Physics.
New York, John Wiley & Sons, 1988, p. 450
2
http://helios.ecn.purdue.ed
u/~tatjanaj/NUCL310_2002/CNotes16.pdf
3
GREENSPAN, Ehud, VUJIC, Jasmina, KASTENBERG, William E.
Modern Reactor Physics and Analysis (Draft). s./l., s./e., 1999, p. XII.13
4
LAMARSH, John R., ob. cit., p. 288-289
Pode–se perceber que existirá um máximo de 135Xe após o desligamento do
reator . Isto é devido ao fato de não existir mais o decaimento radioativo do 135Xe, pois
não existem mais neutrons para serem absorvidos após o desligamento, conjugado ao
fato de que a constante de decaimento do 135I ( λ I) é um pouco superior à do 135Xe (Xe).
Após o desligamento do reator é necessário aguardar o equilíbrio dos produtos
antes de ser reiniciado, ou poderá ocorrer uma realimentação positiva superior ao sistema
de controle, tornando-o instável.
1
5.
Conclusões
Foram demonstrados alguns aspectos importantes no controle e operação de
um reator, tais como a impossibilidade de zerar instantaneamente a potência de um
reator, a impossibilidade de reiniciar um reator enquanto seus produtos de reação não
estiverem em equilíbrio e a necessidade de levar-se em consideração a existência de
neutrons atrasados na modelagem.
Observa-se assim que o controle seguro de um reator necessita do entendimento
da cinética do reator baseada em códigos de neutrônica. Para modelagem do reator e
sua análise em regime permanente e transitório é fundamental a utilização de um maior
número de produtos de fissão e grupos de neutrons, além da solução simultânea de
equações integro-diferenciais, as quais somente são possíveis através de softwares
dedicados. Modelagem esta que seria inserida em uma malha fechada, proporcionando
a realimentação necessária para validar um sistema de controle desenvolvido.
6.
Referências Bibliográficas
1
FOSTER, Arthur R., WRIGHT, Robert L.
Basic Nuclear Engineering. Boston, Allyn and Bacon, 1968, p. 245-247.
1
PRUSSIN, Stanley G. Nuclear Physics for Applications (Draft). s./l., s./e., 1999,
p. IV.2-3
2
http://www.chem.uidaho.edu/~honors/nucbind.html
3
http://www.eia.doe.gov/cneaf/nuclear/page/intro.html
4
http://hyperphysics.phy-astr.gsu.edu/hbase/nucene/u235chn.html
5
http://www.physics.isu.edu/radinf/oklo.htm
6
http://www.usdpi.org/nuclear_fundamentals.htm#1.16
7
OLANDER, Donald R. Nuclear Materials (Reading). Berkeley, s./e., 2001, p. 4.2.
8
LAMARSH, John R. Introduction to Nuclear Engineering. Massachusetts,
Addison-Wesley, 1983, p. 196.
9
http://www.npac.syr.edu/users/paulc/lectures/montecarlo/p_montecarlo.html
10
KRANE, Kenneth S. Introductory Nuclear Physics. New York, John Wiley &
Sons, 1988, p. 450
11
http://helios.ecn.purdue.edu/~tatjanaj/NUCL310_2002/CNotes16.pdf
12
GREENSPAN, Ehud, VUJIC, Jasmina, KASTENBERG, William E. Modern
Reactor Physics and Analysis (Draft). s./l., s./e., 1999, p. XII.13
13
LAMARSH, John R., ob. cit., p. 288-289
14
FOSTER, Arthur R., WRIGHT, Robert L. Basic Nuclear Engineering. Boston,
Allyn and Bacon, 1968, p. 245-247.
XXI
Capítulo
ANÁLISE PARA ESCOLHA DE MATERIAL DE EMPREGO MILITAR:
UM ENFOQUE MULTICRITÉRIO
Aderson Campos Passos
Indústria de Material Bélico do Brasil – Fábrica da Estrela,
Praça Mal. Ângelo Mendes de Moraes S/N, Vila Inhomirim,
Magé – RJ, CEP: 25935-000, [email protected]
Luiz Flávio Autran Monteiro Gomes
Faculdades Ibmec, Av. Rio Branco no 108, 5o andar,
Centro, Rio de Janeiro – RJ, CEP:20040-001, [email protected]
Resumo:
Este trabalho compara dois métodos analíticos de apoio multicritério à tomada
de decisão para escolha de material de emprego militar, dentro do âmbito do CAEx
– Centro de Avaliações do Exército, uma unidade do Exército Brasileiro. No processo
decisório em questão foi utilizado o Método de Análise Hierárquica – AHP. O outro
método utilizado foi o TODIM (Tomada de Decisão Interativa Multicritério) que traz
em sua estrutura diferentes características, sendo a principal a inclusão da Teoria
da Perspectiva, e por isso permite levar em conta o risco na modelagem dos problemas.
Embora os métodos se baseiem em diferentes paradigmas, o resultado dos estudos
mostrou que ambos os métodos podem ser aplicados em avaliações militares de
mesma natureza.
Palavras-chave:
TODIM, AHP, Teoria da Perspectiva.
274
Pesquisa Naval Nº 15, Setembro de 2002
Abstract:
This paper compares the use of two multicriteria decision analytical methods
used for military material selection. In the decision analysis the Analytic Hierarchy
Process – AHP was used first in order to rank the alternatives in the presence of
multiple criteria. This work was done in CAEx – Army Evaluation Center, a unit of
the Brazilian Army. The other decision analysis method employed was TODIM, which
is based on Prospect Theory, thus allowing to take risks into account in the modelling
stage. Although the two multicriteria methods rely on different decision paradigms,
this application study showed that results were quite similar to justify the use of
either method in the practice of similar military decision making processes.
Keywords:
1.
TODIM, AHP, Prospect Theory.
Introdução
Este trabalho compara dois métodos analíticos de apoio multicritério à tomada
de decisão para escolha de material de emprego militar, dentro do âmbito do CAEx –
Centro de Avaliações do Exército, uma unidade do Exército Brasileiro. No processo
decisório em questão foi utilizado o Método de Análise Hierárquica – AHP. O outro
método utilizado foi o TODIM (Tomada de Decisão Interativa Multicritério) que traz em
sua estrutura diferentes características, sendo a principal a inclusão da Teoria da
Perspectiva, e por isso permite levar em conta o risco na modelagem dos problemas.
Embora os métodos se baseiem em diferentes paradigmas, o resultado dos estudos
mostrou que ambos os métodos podem ser aplicados em avaliações militares de mesma
natureza.
As informações para o modelo foram fornecidas pelo CAEx e vieram da
avaliação do material de emprego militar, que foi feita utilizando o AHP. Baseando-se
nos dados obtidos para o AHP foi montado um modelo baseado no TODIM. Em
seguida, os resultados foram comparados e estudados com o objetivo de analisar
características dos dois métodos.
2.
O Método de Análise Hierárquica [1]
O método foi desenvolvido na década de setenta pelo pesquisador americano
Thomas Saaty e possui esse nome devido às suas características de estruturação onde
os critérios são agrupados segundo uma hierarquia [2].
Assim como o TODIM, o MAH também possui características próprias para
análise de critérios subjetivos junto a critérios quantitativos. Dessa forma, torna-se um
método adequado para esse trabalho de avaliação.
Pesquisa Naval Nº 15, Setembro de 2002
275
A principal característica do MAH é, de fato, a estruturação dos seus critérios
condicionantes sob a forma de uma hierarquia. Nela, o seu nível mais elevado é
representado pelo objetivo do problema que é meta desejável a ser atingida. O objetivo
do problema seria, portanto, a decisão a ser tomada. Quando se pretende tomar decisões
complexas trabalhando com o AHP, selecionam-se alguns critérios assumidos como
relevantes para a análise de decisão. E dentro desses critérios, outros subcritérios
também são escolhidos para a valoração desse critério e assim por diante. Para ilustrar
essas idéias é possível desenhar o diagrama a seguir.
OBJETIVO DO PROBLEMA
CRITÉRIO 1
CRITÉRIO 2
…
SUBCRITÉRIO 1
CRITÉRIO i
…
…
CRITÉRIO n
SUBCRITÉRIO n
Figura 1: Modelo de estrutura hierárquica do AHP
Dentro de cada critério específico é atribuída a um especialista a missão de
opinar para cada alternativa, atribuindo valores aos critérios. É necessário também que
sejam dados pesos aos critérios. Assim, será atribuída a eles a devida importância para
a determinação do objetivo do problema.
Após estruturados os critérios e as alternativas, os especialistas irão opinar
sobre as alternativas dentro de cada subcritério específico. Serão feitas comparações
paritárias com as alternativas que vão determinar quanto cada alternativa possui a mais
que a outra. Para isso serão construídas matrizes quadradas cuja ordem será igual ao
número de alternativas. Após feito isso para cada critério ou subcritério, será feito
também para os subcritérios e critérios entre si, subindo na hierarquia. Essas comparações
paritárias irão fornecer pesos para cada alternativa dentro de cada critério ou subcritério
e para os critérios e subcritérios, quando comparados entre si. Esses pesos, ao final do
processo, irão compor uma função aditiva onde para cada alternativa específica será
atribuído um valor final que possibilitará a ordenação dessas alternativas.
276
3.
Pesquisa Naval Nº 15, Setembro de 2002
A Teoria da Perspectiva
A Teoria da Perspectiva foi desenvolvida na década de setenta por dois
pesquisadores israelenses Amos Tversky e Daniel Kahneman. Ela procura modelar o
comportamento do ser humano em face ao risco no que tange a tomada de decisões. O
método TODIM a utiliza incorporando a curva determinada experimentalmente por
Kahneman e Tversky ao modelo matemático do método.
Os comportamentos observados pelos pesquisadores mostram que nas situações
envolvendo ganhos o ser humano tende a ser mais conservador em relação ao risco e
em situações envolvendo perdas, as pessoas se mostram mais propensas ao risco. Em
outras palavras, quando se estabelece uma situação onde se pode ganhar, prefere-se
um ganho menor, porém certo a se arriscar por ganhos maiores e incertos. Em situações
envolvendo perdas as pessoas preferem se arriscar a perder mais, porém com a
possibilidade de nada perderem, do que ter uma perda menor, porém certa. Este
comportamento do ser humano foi verificado através de experimentos onde foram
montados questionários passados a uma quantidade de pessoas considerada adequada
para o experimento. Abaixo, estão as perguntas do questionário feitas por Kahneman e
Tversky [3] que esclarecem as idéias expostas acima.
a)
−
−
Imagine que os E.U.A. esteja se preparando para a eclosão de uma doença asiática
pouco comum, que espera matar 600 pessoas. Foram propostos dois programas
alternativos para combater a doença. Assuma que a exata estimativa científica das
consequências do programa seja como a seguir:
Se o programa A for adotado, 200 pessoas serão salvas [72% dos votos]
Se o programa B for adotado, existirá 1/3 de probabilidade das 600 pessoas se
salvarem e 2/3 de probabilidade das pessoas não se salvarem. [28% dos votos]
Em qual programa você votaria?
A maioria das pessoas se mostrou avessa ao risco. A perspectiva de salvar
200 vidas se mostrou mais atraente do que a incerteza de ninguém se salvar. Na primeira
pergunta 152 pessoas foram entrevistadas. Dentro da mesma pesquisa, outra pergunta
foi feita para um outro grupo de 155 pessoas.
b) Mesmo enunciado da pergunta anterior
− Se o programa C for adotado 400 pessoas iriam morrer. [22 % dos votos]
− Se o programa D for adotado haverá 1/3 de probabilidade de ninguém morrer, e 2/3
de probabilidade de 600 pessoas morrerem. [78 % dos votos]
A maioria das pessoas se mostrou propensa ao risco na situação de perda de
vidas humanas. As pessoas aceitam menos a certeza da perda de 400 vidas do que a
incerteza de ter as 600 pessoas salvas mesmo com probabilidade de 1/3.
Pesquisa Naval Nº 15, Setembro de 2002
277
Baseando-se nos resultados obtidos foi possível montar o gráfico a seguir que
mostra o grau de satisfação das pessoas no domínio das perdas e dos ganhos.
Valor
Perdas
Ganhos
Fig. 2: Curva da função de valor da Teoria da Perspectiva
A função de valor procura dar valor quantitativo à satisfação das pessoas,
inserindo essa característica de aversão e propensão ao risco, natural da maioria dos
seres humanos. Supondo um investidor que possui um determinado patrimônio. A sua
satisfação em ganhar mais é crescente, porém com o aumento dos ganhos o nível de
satisfação aumenta em taxas decrescentes. Na prática, a diferença de satisfação entre
um indivíduo que possui $100.000 e ganha mais $100.000, é muito maior que a de um
indivíduo que possui $ 1.000.000 e ganha $ 100.000. Em contrapartida, a insatisfação em
perder é muito maior. A diferença de satisfação entre um indivíduo que perde $100.000
e depois perde mais $100.000, é muito maior que a de um indivíduo que perde $ 1.000.000
e depois perde mais $ 100.000. Isso pode ser observado no gráfico.
4. O Método TODIM [4]
O TODIM é um método de análise de decisão multicritério que fornece como
resultado as alternativas em ordem de preferência. A sigla vem do nome Tomada de
Decisão Interativa Multicritério. A formulação atual do método incorpora em seu modelo
a Teoria da Perspectiva (“Prospect Theory”) de Kahneman e Tversky, onde se descreve
graficamente o comportamento do ser humano em face ao risco.
Antes de iniciar a construção do modelo é necessário que os critérios sejam bem
selecionados e que atendam ao pré-requisito de separabilidade. A independência é
necessária para que os critérios não sejam contabilizados mais de uma vez dentro do
mesmo modelo. O método TODIM se baseia na Teoria da Utilidade Aditiva e nela, para
278
Pesquisa Naval Nº 15, Setembro de 2002
que haja separabilidade de um critério em relação ao outro é necessário que os critérios
sejam mutuamente preferencialmente independentes.[5]
Após a seleção dos critérios e alternativas, serão montadas duas matrizes. A
primeira é a Matriz de Desejabilidades Parciais que possui n (número de alternativas)
linhas e m (número de critérios) colunas. Para cada critério serão escutadas pessoas
capazes de opinar sobre as diversas alternativas. Valores quantitativos são facilmente
inseridos nas colunas. Julgamentos subjetivos serão inseridos através da leitura de
uma tabela que relaciona escala numérica com os valores subjetivos. Posteriormente é
feita a normalização através da divisão de cada coluna pelo seu maior valor. A segunda
matriz é a de comparação entre pares de critérios. Nessa matriz os critérios são comparados
entre si da mesma forma como é feito com o Método de Análise Hierárquica [1]. Essa
matriz será normalizada da mesma forma que a anterior.
Poderão ser encontradas inconsistências na montagem dessa matriz de
comparação por pares de critérios. A inconsistência ocorre devido a erros nos
julgamentos de valor. Dados três critérios A, B, C, como exemplo. Para que não haja
inconsistência deve ocorrer que se A é preferível a B e B é preferível a C, então A deve
ser preferível a C. Outro problema que ocorre está relacionado com a intensidade com a
qual um critério é preferível em relação a outro. A inconsistência é comum nos
julgamentos humanos. Dependendo do grau de inconsistência poderá ocorrer a
reavaliação dos pesos atribuídos entre os critérios. Caso os decisores estejam seguros
dos valores então atribuídos, a matriz será então remodelada de forma a retirar a sua
inconsistência [6]
Para que se ordene as alternativas de forma a efetuar a análise de decisão, o
método fornecerá como resultado final o Valor Total das Alternativas. Para que seja
feito esse cálculo, é necessário que, antes, sejam determinadas as dominâncias de cada
alternativa em relação a cada uma das outras. O método TODIM incorpora a função de
valor da Teoria da Perspectiva. Essa incorporação foi feita introduzindo essa função de
valor nas medidas de dominância de uma alternativa sobre a outra. Para o contexto
multicritério as perdas e os ganhos são definidos como diferenças entre os valores wic
estabelecidos na Matriz de Desejabilidades Parciais, para todas as alternativas dentro
de um critério c em particular. As equações passam a ser.
δ (i, j) =
m
∑
c =1
Onde
Φ
c
( i , j ),
∀ (i, j)
(1)
Pesquisa Naval Nº 15, Setembro de 2002
279
 arc (w ic − w jc )
se wic − w jc > 0


∑c arc



se wic − w jc = 0
Φ c ( i , j ) = 0



( arc )(w jc − w ic )
 1 ∑
c
se wic − w jc < 0
−
arc
θ

(2)
(3)
e
δ(i,j) = medida de dominância da alternativa i sobre a alternativa j;
m = número de critérios
c = critério genérico variando de 1 a m;
arc = taxa de substituição do critério c pelo critério r (elemento da matriz de
comparação por pares de critérios);
wic, wjc = pesos das alternativas i e j, respectivamente, em relação ao critério c;
θ = fator de atenuação de perdas
Na prática a função de valor incorporada ao TODIM se torna proporcional à raiz
quadrada da diferença entre os valores wic. Isso significa que dado o aumento da
diferença maior será o valor da função Φ-c(i,j) porém isso ocorrerá em taxas decrescentes,
já que está modelada por uma raiz, que por isso possui derivada negativa. Isso também
é o que ocorre quando se interpreta o conceito da função de valor da Teoria da
Perspectiva e isso indica a aversão ao risco no domínio dos ganhos e propensão ao
risco no domínio das perdas.
Após feitos os cálculos anteriores será montada a matriz quadrada de ordem n
δ(i,j), onde n é o número de alternativas. Esta matriz é denominada Matriz de Dominâncias
Relativas das Alternativas. Os Valores Totais das Alternativas são determinados através
do seguinte cálculo.
n
î ξi =
n
∑ δ (i, j ) − Min ∑ δ (i, j )
j =1
j =1
i
n
n
Max ∑ δ (i , j ) − Min ∑ δ (i , j )
i
j =1
i
j =1
280
Pesquisa Naval Nº 15, Setembro de 2002
O valor ξi são somas de linhas normalizadas da matriz de dominâncias. Após
calculados os valores, estes são ordenados e assim determinam as alternativas a serem
escolhidas.
5. O Problema em Questão
O problema resolvido no âmbito do CAEx possui 6 alternativas e 4 critérios.
Partindo desse princípio serão expostos os resultados do problema de forma que estes
dados possam ser utilizados mais adiante, para a modelagem com o método TODIM.
Com o intuito de manter o sigilo quanto ao trabalho realizado foram utilizados nomes
genéricos para as alternativas e critérios.
5.1. Comparação entre os Critérios
A comparação paritária entre os critérios fornece o peso de cada critério para
a resolução do problema. Dessa maneira, determina-se qual critério é mais representativo
para a seleção das alternativas e se estabelecem valores fundamentais para a ordenação
dessas alternativas. A seguir, no gráfico, estão determinados os pesos de cada critério.
0,556
0,202
0,184
0,058
Critério 1 Critério 2 Critério 3 Critério 4
Fig 3 : Pesos dos Critérios
5.2. Valores das Alternativas dentro dos Critérios
Na formulação de um modelo com o Método de Análise Hierárquica existe um
momento onde especialistas irão atribuir valores para as alternativas tendo em vista um
critério específico. Nessa seção será mostrado quais valores foram estabelecidos para
as 6 alternativas tendo em vista cada critério específico. A seguir serão mostrados
gráficos que ilustram os valores atribuídos para as alternativas dentro de cada critério.
Dentro dos critérios cada uma das seis barras representa uma das alternativas, em
ordem.
281
critério 1
critério 3
0,151
0,183
0,151
0,183
0,167
0,167
0,19
0,115
0,16
0,242
0,129
0,16
critério 2
0,075
0,075
0,054
0,054
0,1323
0,1323
0,1063
0,1063
0,21
0,1883
0,2663
0,531
Pesquisa Naval Nº 15, Setembro de 2002
critério 4
Fig. 4: Valores das alternativas dentro dos critérios
5.3. Resultado Final
O resultado final virá da soma dos valores das alternativas ponderada pelo
peso dos critérios. Dessa maneira, os valores do resultado final estarão representados
pelo gráfico a seguir.
Resultado Final
0,394
0,195
0,093 0,094 0,103 0,147
Alt 1 Alt 2 Alt 3 Alt 4 Alt 5 Alt 6
Fig. 5: Resultado
Final
282
Pesquisa Naval Nº 15, Setembro de 2002
6. Resolução do Problema Utilizando o TODIM
Utilizando os dados fornecidos pelo CAEx será possível resolver o problema
utilizando o método TODIM. Com estes dados é possível montar a matriz de
desejabilidades parciais e obter o vetor de pesos dos critérios. Isso é suficiente para a
resolução do problema. O modelo foi desenvolvido utilizando o fator de atenuação (θ)
igual a 1.
6.1. Matriz de Desejabilidades Parciais e Vetor de Pesos dos Critérios
A matriz de desejabilidades parciais possuirá a seguinte composição:
Alt 1
Alt 2
Alt 3
Alt 4
Alt 5
Alt 6
Critério 1
0,1883
0,2663
0,1063
0,1063
0,1323
0,1323
Critério 2
0,21
0,531
0,054
0,054
0,075
0,075
Critério 3
0,160
0,242
0,129
0,160
0,115
0,190
Critério 4
0,167
0,167
0,183
0,183
0,151
0,151
Tabela 1: Dados do modelo do CAEx
Estes dados foram obtidos dos gráficos de barras anteriormente citados e
foram arranjados de forma a compor a matriz. Entretanto, é necessário aplicar a
normalização de Belton e Gear [7] onde se divide cada coluna pelo maior número da
coluna. O resultado da normalização é o seguinte.
Alt 1
Alt 2
Alt 3
Alt 4
Alt 5
Alt 6
Critério 1
0,707
1,000
0,399
0,399
0,497
0,497
Tabela 2:
Critério 2
0,395
1,000
0,102
0,102
0,141
0,141
Critério 3
0,661
1,000
0,533
0,661
0,475
0,785
Matriz de Desejabilidades Parciais
Critério 4
0,913
0,913
1,000
1,000
0,825
0,825
Pesquisa Naval Nº 15, Setembro de 2002
283
O vetor de pesos dos critérios possui a mesma procedência:
Pesos
0,202
0,556
0,058
0,184
Critério 1
Critério 2
Critério 3
Critério 4
Tabela 3: Pesos dos Critérios
O problema será resolvido partindo-se dos dados anteriores.
6.2. Resolução
Da matriz de desejabilidades parciais serão calculadas as diferenças entre os
valores wic – wjc que são os julgamentos dos especialistas dentro de cada critério
específico. Essa diferença representa a dominância da alternativa i sobre a j e entrará na
equação para fornecer um valor que representará o julgamento modelado pela Teoria da
Perspectiva, o valor final da função acompanhará um formato parecido com a curva a
seguir. Com essa diferença se calculam as dominâncias parciais para cada critério
específico.
valor
Φ1
(wi1 – wj1)
Fig. 6: Função de valor do método TODIM
O critério de referência para o cálculo das dominâncias parciais será o critério 2,
pois ele possui o maior peso. Com ele será possível calcular a taxa de substituição que
será utilizada nas equações de Φc(i,j). Essa taxa de substituição será o quociente entre
o peso do critério de referência e o peso do critério a ser utilizado para o cálculo da
matriz Φc específica. Matematicamente, arc = (peso do critério)/(peso do critério de
referência). A tabela a seguir possui as taxas de substituição dos critérios e foi exposta
como auxilio para os cálculos.
284
Pesquisa Naval Nº 15, Setembro de 2002
Critério 1
Critério 2
Critério 3
Critério 4
Taxas de
Substituição
0,330935
0,363309
1
0,104317
Tabela 4: Taxas de substituição
As equações do método TODIM representam matematicamente o gráfico
empírico da Teoria da Perspectiva. Através dessas equações é possível montar as
matrizes Φ(i,j) para cada critério específico. Essas matrizes Φc(i,j) foram calculadas em
planilha Excel. Nessa planilha são coletados os dados da Matriz de Desejabilidades
Parciais e das taxas de substituição de cada critério pelo critério de referência. Cada
célula processa essas informações seguindo as equações do método.
A função utilizada é bastante simples e utilizará uma das equações anteriormente
citadas, de acordo com o valor da diferença wic – wjc. Partindo das 4 matrizes Φc(i,j)
calculadas será montada a matriz de dominâncias δ(i,j), de mesma ordem, cujos elementos
serão a soma de cada aij das 4 matrizes.
Com essa matriz de dominâncias é possível calcular os Valores Totais das
Alternativas e dessa forma ordená-las de acordo com as preferências do modelo. O
resultado final é fornecido normalizando os valores das somas de cada linha da matriz
de dominância colocando-os entre zero e um. Ao final as alternativas são ordenadas da
seguinte maneira.
Resultado
Alternativa 2
Alternativa 1
Alternativa 6
Alternativa 4
Alternativa 5
Alternativa 3
Tabela 5:
Resultado do modelo
Ao comparar as ordenações calculadas pelo método TODIM e pelo AHP são
obtidos resultados muito parecidos entre si. O problema também foi resolvido utilizando
θ = 5 e 10 e os resultados da ordenação foram exatamente os mesmos. Isso é um
resultado positivo, pois faz com que seja desnecessário o uso de testes estatísticos
Pesquisa Naval Nº 15, Setembro de 2002
285
para determinação de qual valor de θ seria mais adequado para a resolução do problema
em questão. Estes testes seriam feitos através da interpolação de resultados obtidos
utilizando diferentes valores de θ. Em Gomes e Lima (1992) existe um exemplo onde isso
foi feito. Os valores das diferenças entre os valores wic – wjc e os resultados nas
Matrizes de Dominâncias Parciais gerariam nuvens de pontos. Sobre essas nuvens de
pontos seria feita a interpolação dos valores e com eles se acharia o melhor valor de θ
para a resolução do problema.
7.
Análise Comparativa dos Resultados
Os resultados obtidos da comparação dos resultados entre o método
TODIM e o AHP são bastante semelhantes. O quadro a seguir mostra os resultados
obtidos da execução de cada um dos modelos.
ORDENAÇÃO
MÉTODO TODIM
1
Alternativa 2
MÉTODO DE ANÁLISE
HIERÁRQUICA
Alternativa 2
2
Alternativa 1
Alternativa 1
3
Alternativa 6
Alternativa 6
4
Alternativa 4
Alternativa 5
5
Alternativa 3
Alternativa 4
6
Alternativa 5
Alternativa 3
Tabela 6:
Comparação dos resultados dos métodos
Observando a tabela anterior é possível perceber que as três primeiras colocações
foram coincidentes. Nas três últimas colocações a ordenação se manteve com exceção
da alternativa 5 que no método TODIM é a última colocada e no AHP é a quarta
colocada.
Não estavam disponíveis as matrizes de comparações paritárias do AHP. Isso
possibilitaria outros tipos de análise. Desenvolvendo o método TODIM partindo de
informações mais básicas, talvez fossem encontradas diferenças mais expressivas nos
resultados.
Foram testados valores de θ = 1, 5 e 10 e para todos os valores não houve
nenhuma mudança na seqüência dos resultados. Assim, foi utilizado θ = 1 por
simplicidade [6].
286
8.
Pesquisa Naval Nº 15, Setembro de 2002
Análise Comparativa dos Métodos
O Método de Análise Hierárquica é um método antigo e bastante difundido.
Porém, também é alvo de fortes críticas, sendo motivo para pesquisa em todo o mundo.
O método TODIM é um método mais recente e sua principal característica é incorporar
a Teoria da Perspectiva em seu modelo. Em sua construção procurou-se evitar as
deficiências dos outros métodos. Apesar disso recebe algumas críticas. Nessa seção
serão levantados pontos positivos e negativos de ambos os métodos procurando-se
estabelecer uma visão mais crítica sobre eles.
8.1. Pontos Positivos
Inicialmente será mencionado o AHP [8]. Um primeiro ponto a ser citado é a
Estruturação Formal do Problema: o problema a ser resolvido pode ser decomposto em
forma de hierarquia. Assim é possível compreender bem a questão em pauta.
Simplicidade das comparações Paritárias: dessa forma o decisor tem a chance de focar
em vários pequenos pedaços do problema trazendo simplificações dos julgamentos.
Redundância permite que seja avaliada a Inconsistência: se uma alternativa A é três
vezes mais importante que a alternativa B e B duas vezes mais importante que a
alternativa C, era de se esperar que a alternativa A fosse oito vezes mais importante
que a alternativa C. O método solicita ao decisor que avalie mais de uma vez as
comparações paritárias e em um caso como esse a importância relativa da alternativa A
em relação a C pode ser diferente de oito. Inconsistência permite que seja avaliada a
Redundância: quando se calcula o índice de inconsistência de Saaty é estabelecido um
parâmetro onde as pessoas responsáveis pela avaliação podem repensar se realmente
estão atribuindo valores corretos para a resolução do problema. Assim, é possível
voltar e analisar os dados que estão sendo colocados no modelo, contribuindo para
um resultado mais acertado e unânime. Versatilidade: o AHP é um método que possui
aplicações em várias áreas e isso está explícito em vários artigos exemplos, teses,
dissertações e trabalhos por todo o mundo.
Agora serão mencionados alguns pontos positivos do método TODIM [6].
Utilização da Teoria da Perspectiva em sua estrutura: essa é sua principal característica.
O que se procura fazer é transformar os julgamentos humanos em valores de utilidade
compatíveis com a idéia de aversão ao risco no domínio dos ganhos e propensão ao
risco no domínio das perdas, fato esse que ocorre para a maioria dos seres humanos.
Dessa forma, um comportamento inconsciente é modelado de maneira quantitativa e
colocado no método. Minimização da ocorrência de Reversão de Ordem: no método é
utilizada a normalização de Belton e Gear [7] que evita a ocorrência da reversão de
ordem. Cálculo do vetor de pesos com a Matriz de Comparações Paritárias: no Método
da Análise Hierárquica o cálculo do autovetor principal da matriz de comparações
paritárias pode ocasionar graves inversões nos julgamentos dos decisores. O método
TODIM calcula o seu vetor de pesos de maneira distinta evitando esse recurso
Pesquisa Naval Nº 15, Setembro de 2002
287
matemático. Tratamento de alternativas interdependentes: apesar de ser pouco usual
a presença de alternativas interdependentes, o método possui esse importante recurso
para a modelagem desse tipo de problema. Estruturação Hierárquica do Problema: o
método possui, assim como o AHP, uma metodologia para estruturação hierárquica do
problema. Dessa maneira, evita-se que se façam difíceis comparações entre os critérios,
facilitando a análise do problema em partes afins. Simplicidade Matemática: a matemática
presente no método é de fácil entendimento simplificando a sua utilização por pessoas
pouco familiarizadas com os métodos de Apoio Multicritério à Decisão. Resolução de
problemas que envolvam múltiplos agentes de Decisão: problemas complexos, muitas
vezes, requerem a presença de especialistas em aspectos específicos do problema em
questão. O método possibilita que julgamentos desses especialistas sejam agregados
dando caráter mais amplo à resolução do problema e trazendo maior credibilidade a
estes resultados.
8.2. Pontos Negativos
Existem sérias críticas feitas ao AHP. Utilização do método do Autovetor para a
determinação dos pesos dos critérios: em [9] são mostrados alguns exemplos onde são
gravemente distorcidos os julgamentos expostos pelos decisores após o cálculo dos
autovetores principais da Matriz de Comparação por Pares. Quando se determina essa
matriz estão explícitas as relações de dominâncias entre critérios ou alternativas,
dependendo do que esteja sendo comparado. O que se verifica é que após a determinação
dos pesos dos critérios são destorcidas, e algumas vezes invertidas, as relações de
dominância. Isso é um erro bastante grave. O método TODIM contorna esse problema
determinando esse vetor de uma forma alternativa onde não é calculado esse autovetor.
Reversão de ordem devida a inclusão de outra alternativa: esse problema foi mostrado
por Belton e Gear e foi solucionado mudando o tipo de normalização do vetor de pesos
calculados pelas matrizes. A normalização sugerida pelo método é a que divide todos
os elementos pela soma de todos. Para resolver o problema causado por esse tipo de
normalização é sugerido um tipo de normalização que divide os elementos pelo maior
elemento do conjunto. Foi mostrado que dessa forma não haverá a reversão de ordem.
O primeiro artigo de Belton e Gear [7] foi contestado por Saaty [10], que não aceitou as
críticas. Posteriormente Belton e Gear deram a resposta à contestação [11]. No método
TODIM esse tipo de normalização já está incluída no modelo. Possibilidade de grande
número de comparações: as comparações redundantes podem ser uma vantagem, mas
fazem com que seja necessário um grande número de comparações. Isso pode tornar o
método cansativo e provocar erros por fadiga. Imposições de inconsistências pela
escala de 1 a 9: essa escala pode gerar inconsistências. Supondo um critério A três
vezes mais importante que B e este quatro vezes mais importante que C. Isso implicaria
em A doze vezes mais importante que C, o que não é possível devido à escala imposta
pelo método. Conversão da Escala Verbal para a Escala Numérica: alguns autores
discutem se a correspondência entre as escalas numérica e verbal expressam os
julgamentos reais dos decisores.
288
Pesquisa Naval Nº 15, Setembro de 2002
O método TODIM foi elaborado utilizando as observações do meio acadêmico
quanto a defeitos de outros métodos existentes. Isso reduz a quantidade de problemas
encontrados, bastando algumas observações quanto a pontos específicos. Imposições
de inconsistências pela escala de 1 a 9: assim como no AHP o método TODIM utiliza
uma escala de zero a nove para a comparação entre critérios trazendo a possibilidade
de ocorrência dos mesmos problemas. Possibilidade de grande número de comparações:
caso sejam utilizados muitos critérios para a modelagem do problema, serão necessárias
muitas comparações. Conversão da Escala Verbal para a Escala Numérica: a escala
utilizada para o TODIM é semelhante a utilizada para o AHP e alguns autores discutem
a correção da correspondência entre as escalas.
9. Conclusão
Após a análise comparativa dos resultados e dos métodos foi possível observar
pontos importantes de ambos os métodos de análise de decisão. O AHP é alvo de
graves críticas que devem ser consideradas no momento da sua utilização. Dentro do
software Expert Choice (software de análise de decisão que incorpora o modelo do
AHP) existe um recurso, fundamentado nas críticas de Belton e Gear, que evita a
reversão de ordem. A grave crítica feita por Bana e Costa e Vansnick pode ser contornada
com a utilização do método alternativo sugerido por Saaty (e que é utilizado no método
TODIM), em substituição ao cálculo do autovetor principal para a determinação dos
pesos dos critérios.
O método TODIM traz características representativas em sua formulação. Devido
a este conjunto de características torna-se uma alternativa fortemente aplicável para
problemas de avaliação de material de emprego militar.
10. Referências Bibliográficas
SAATY, THOMAS L. “Método de Análise Hierárquica”. tradução de Wainer da Silveira
e Silva. São Paulo: Mc Graw - Hill, 1991.
COVA, C.J.G. “Decisão Orçamentária Pública: uma proposta de metodologia de tomada
de decisão e avaliação dos resultados”. Tese de doutorado, Departamento de Engenharia
de Produção, Universidade Federal do Rio de Janeiro, 2000.
TVERSKY, A.; KAHNEMAN, D. “The Framing of decisions and the psychology of
choice”, Science, vol 211, no 30, Janeiro, pp. 453-458, 1981.
GOMES, L.F.A.M.; LIMA, M.M.P.P. “From Modelling individual preferences to
Multicriteria Ranking of Discrete Alternatives: A Look at Prospect Theory and the
Additive Difference Model”, Foundations of Computing and Decision Science, Vol.
17, No. 3, p.171-184, 1992.
CLEMEN, R.T. “Making Hard Decisions: An Introduction to Decision Analysis”,
Duxbury Press, 1996.
Pesquisa Naval Nº 15, Setembro de 2002
289
MORAES, L.F.R. “Avaliação Multicritério de Projetos de Produção da Indústria de
Petróleo no Brasil”. Dissertação de mestrado, Departamento de Engenharia de
Produção, Universidade Federal Fluminense, 1999.
BELTON, V.; GEAR, T. “On a Short-coming of Saaty’s Method of Analytic Hierarchies”,
Omega, , Vol. 11, No. 3, p.227-230, 1983.
GOODWIN, P.; WRIGHT, G. “Decision Analysis for Management Judgment”, John
Wiley & Sons Ltd., 1998.
BANA E COSTA, C.A.; VANSNICK, J. “ A fundamental criticism to Saaty’s use of the
eingenvalue procedure to derive priorities”. Working Paper Series LSEOR, 2001.
SAATY, T.L.; VARGAS, L.G. “The Legitimacy of Rank Reversal”, Omega, , Vol. 12, No.
5, p.513-516, 1984.
BELTON, V.; GEAR, T. “FEEDBACK - The Legitimacy of Rank Reversal – A Comment”,
Omega, Vol. 13, No. 3, p.143-144, 1985.
Instituto de Pesquisas da Marinha
MINA DE FUNDEIO A INFLUÊNCIA
A MFI é uma Mina de Fundeio de Influência Acústico-Magnética, que tem
como diferença básica da MFC 01/100, um cabeçote que contém uma eletrônica associada
aos sensores acústicos e magnéticos e que processa as informações fornecidas por
estes sensores, promovendo, de acordo com um algoritmo pré-determinado, a detonação
da mina.
Pode atuar em fundos de até 100 metros, fundeando entre as profundidades de
10 e 50 metros. Tem um peso total aproximado de 700 Kg sendo 160 Kg de explosivo.
A MFI é uma continuação natural do desenvolvimento da Mina de Fundeio de
Contato MFC 01/100, realizado no início da década de 90.
Após uma série de estudos preliminares durante os anos 1994 e 1995, inclusive
com o desenvolvimento de um sistema protótipo de aquisição de dados acústicos e
magnéticos e com uma série de levantamentos experimentais com este protótipo, foi
possível determinar-se os requisitos técnicos preliminares para a MFI.
Em 1996, o IPqM, foi contratado pela Diretoria de Sistemas de Armas da Marinha
para o desenvolvimento desta mina, cujo término ocorreu em junho de 1998.
Instituto de Pesquisas da Marinha
Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador
CEP 21931-090 – Rio de Janeiro – RJ – Brasil
Fone: (021) 3396-2004 – Fax: (021) 3396-2240
Telex: (021) 53113/4/5
XXII
Capítulo
QUANTIFYING TRADE-OFFS BETWEEN MULTIPLE CRITERIA
IN THE FORMATION OF PREFERENCES*
Annibal Parracho Sant’Anna
Universidade Federal Fluminense
Rua Passo da Pátria, 156
24210-240 Niterói-RJ Brasil
fax 5521-2748731 - e-mail: [email protected]
Luiz Flavio Autran Monteiro Gomes
Faculdades Ibmec
Av. Rio Branco, 108, 5th floor,20040-001
Rio de Janeiro Brasil - e-mail: [email protected]
Abstract
Our basic assumption here is that tradeoff between different criteria in the
formation of preferences is determined by constant weights. We credit inconsistencies
in the combination of criteria when comparing different options to the variability in
the forms of measurement applied to each criterion. Then we discuss ways to measure
the value given to each option according to each criterion that will allow for the real
tradeoff weights to be elicited. The technique we propose to estimate these weights is
to measure global preferences and partial preferences for a reasonably large set of
options and to fit a linear model relating global preferences to explanatory variables
generated through transformations of the vector of ranks of the options according to
each criterion.
Keywords: multicriteria decision analysis - regression analysis - probability of choice
*
Este artigo foi apresentado pelo segundo autor em ssessão técnica da IFORS 2002, que
se realizou em Edimburgh, Escócia, de 8 a 12 de julho de 2002.
292
1.
Pesquisa Naval Nº 15, Setembro de 2002
Introduction
We model here the composition of preferences derived from ranking according
to multiple criteria. The basic model starts with a linear equation explaining the final
probabilities of choice in terms of the preferences elicited when judgement is based
isolatedly on each criterion.
Alternatives are developed to represent, through transformations of the
explanatory variables, the influence of factors that systematically distort the relation
between the objective partial ranks and the final preferences. Among such factors,
prominence of one criterion over another and magnitude effects conducting to
concentration in the alternatives most advantageous and overestimation of alternatives
Pesquisa Naval Nº 15, Setembro de 2002
293
We consider here one source of distortion: the need to simplify things. Different
effects of the human desire to deal on simpler representations can be systematically
incorporated into the modeling strategy:
a)
prominence effects, that lead to disregard criteria judged less important; we consider
this aspect especially in the case of great divergence between the criteria, risk
aversion inducing a reduction of the chance of being chosen options for which
different criteria present contradictory indications;
b) certainty effects, leading to amplify the probability of choice of the most probable
options;
c)
magnitude effects, leading to equalize the probability of choice of options of very
low probability.
We make these effects appear in the model through changes in the values of
each option initially derived from the isolated application of each criterion. But there are
other modeling alternatives, besides transforming variables, to take into account these
aspects. We may introduce additional explanatory variables in the model to represent
the affective factors. For instance, a measure of dispersion in the vector of partial
preferences can be added to convey the effect of risk aversion.
The coefficients of the preference building equation may also be modeled, in
second level equations, as function of certainty or magnitude measuring variables. If
we try to model also the evolution of these parameters through time, we would finally
have a dynamic hierarchical model (Gamerman and Migon, 1993).
By treating the initial coefficients as second level dependent random variables,
what we do, essentially, is to add an explained component to the variance of the first
level equation disturbance. If we are not able to collect data on variables that might
explain the coefficients evolution through time or among the options, we may just
model them as normal random variables, with unknown expected value and dispersion.
This is equivalent to model the variance disturbance of the first level equation as a sum
of different components, some of them proportional to the same equation explanatory
variables. When fitting such a model, we are accessing the influence of each criterion
on the variability of the final preferences.
We do not follow this approach here because it involves adding new parameters
to the model. Since we are not able to deal with a large number of alternatives jointly
when building preferences, we would in practice run into an excessively large number
of parameters relatively to the number of observations and it would be difficult to
produce statistically significant estimates.
Another approach would be to add explanatory variables representing iterations
between the criteria. Once more, the problem would be the lack of statistical significance
that we ought to expect due to the increase in the number of parameters to estimate and
the correlation between the explanatory variables.
294
Pesquisa Naval Nº 15, Setembro de 2002
3. Model Building
We present, in the following, step by step, the transformations of variables
that we apply in order to derive a final linear representation of the preferences in terms
of partial evaluations according to each particular criterion.
First, we have to choose a starting point, an initial manner of presenting the
results of the application of each isolated criteria. Variables transformation consists in
modifying these initial measurements to reflect the affective influences through which
the final preferences are built.
We take as initial information a full set of coherent preference indications
according to well-defined criteria. By a coherent set of preference indications we mean
an anti-symmetric and transitive mapping onto the set of alternatives under evaluation.
Indifference is admitted, in the sense that ties are allowed: two or more options may
receive the same rank. Empty spaces between successively ranked options, possibly
corresponding to alternatives that are not among those compared, may also be left.
Ties and empty spaces allow for a compromise between purely ordinal and cardinal
classifications. Setting our evaluations always in terms of ranks, instead of
measurements in varying scales, allows for easier numerical determination of
breakpoints for the transformations. This makes them easier to be followed and results
easier to interpret.
We may obtain the needed coherent preference indications by attributing to
each option a value in a previously defined scale where each point corresponds to a
position that is easy to determine according to the criterion that is being applied. We
may also start by comparing pairs of alternatives, according to such criterion, as in
Saaty (1980) or Lootsma (1993), carefully preserving transitivity.
Transformations designed to model the effect of risk aversion must result in
attributing greater importance in the model fit to the observations presenting vectors of
classifications according to the various criteria presenting greater agreement between
the coordinates. In the analysis of investments, traditionally (see, for example, Sharpe,
1964 or Engle, 1993), the risk is measured by the dispersion in the portfolio. We may
incorporate risk aversion into our model, through the inclusion of an explanatory variable
measuring, for each alternative, the dispersion in the vector of original evaluations of
the alternative. For the same parsimony considerations above explicited, we prefer to
work in the transformation of the initial measurements. This is done here, taking
simultaneously into account the prominence effect. We start by ordering the criteria
and modify the values corresponding to the less important criteria whenever they
present values that we identify as very far from the values derived from those that we
have classified as more important.
1)
A concrete formulation for this transformation consists of:
calculate, for each option and each criterion, the distance from the rank of the
option according to the criterion to the average rank of the same option according
to the criteria classified as more important than it,
Pesquisa Naval Nº 15, Setembro de 2002
295
2)
after that, calculate, for each criterion, a measure of the dispersion, for instance, the
standard deviation, of this vector of distances, and, finally,
3)
establish a limit in terms of this dispersion measurement, for instance the 3 sigma or
0.001 probability limit of Shewhart control charts, and shift each evaluation that is
found out of bounds by an amount enough to reduce to such limit its distance to
the average rank referred in step 1.
A simpler alternative consists on only shifting values that are away, from the
nearest among the values supplied by the criteria relatively more important, more than
a previously fixed bound.
Some kind of prominence principle can also be applied within the range of
application of an isolated criterion, to amplify distances between the preferred options
and to eliminate differences between low probabilities. If we replace ranks by
probabilities of choice as the best ones, the options ranked first will be much far away
from those following them than the others. Another way to transform the variables in
the direction of expanding distances between the preferred options is to change from
the arithmetic to the geometric scale. This can be done by treating the ranks as exponents
on a given basis. We do that, by fixing the basis in such a way as to replace ranks by
probabilities belonging to a truncated geometric distribution. The result is very close to
the idea of measuring preferences in powers of two.
This form of measurement of preferences as probabilities of choice that add to
1 may bring difficulties to the inference on the parameters of the linear model. The
hypothesis of independence is violated, as much as the hypothesis of normality. To
circumvent this problem, we change a second time the distances, by applying the
inverse standard normal transformation. Since our highest value, according to the
truncated geometric probability distribution was around one half, this second
transformation has a smoothing effect on the largest and smallest distances.
Our last change consists in slightly raising, to a uniform threshold, all small
probabilities. This final transformation pays attention to the principle of loss aversion,
present in the Prospect Theory (see Kahnemann and Tversky (1979) and Gomes and
Lima (1992)). We associate it to the idea of simplifying reasoning, that may answer for
the attitude of disregarding numerical values when dealing with small probabilities
and huge gains. The transformation we use here to take into account this aspect
consists in equalizing all probabilities in the set of the smallest probabilities responsible,
altogether, for 1/1,000 of the total after all other changes have been made, to the larger
among them.
A simpler alternative to this last transformation would consist in just raising
to a threshold, possibly given by the highest among them, the probabilities of all
options in the last quarter or any other fraction previously chosen of worst ranked
options.
296
Pesquisa Naval Nº 15, Setembro de 2002
4. Model Adjustment
The linear regression model for the formation of the preferences starting from
ranks derived from different criteria and subsequently modified can be formally
represented by:
E (Y | R) = a + ΣbiXi(R)
(3.1)
with the following specifications.
1) Dependent variable: Y.
Yj denotes the final preference for the j-th alternative.
2) Initial explanatory variables: Ri, for i varying from 1 to k, k denoting the
number of criteria.
Rji denotes the rank of the j-th alternative, being these ordered from the most
advantageous to the less advantageous according to the i-th criterion.
3) Explanatory variables transformed due to the effect of prominence among
criteria: Pi(R), i varying from 1 to k.
P1(R) = R1
(3.2)
and, for i >1, Pji(R) = Pji
(3.3)
if Dji < 3*sigma(i),
(3.4)
where Dji = Rji - Average(Rjq: q<i),
(3.5)
the difference between the rank of the j-th alternative according to the i-th criterion and
the arithmetic mean of its ranks according to the criteria that precede the i-th criterion,
and sigma(i) is the standard deviation of the vector = (D1i..., Dni), n denoting the number
of alternatives.
Otherwise Pji(R) = Average(Rjl: l<i) + 3*sigma(i).
(3.6)
1)
Explanatory variables transformed by the effect of prominence among alternatives:
Vi, i varying from 1 to k.
Vji denotes the value of the power of basis Bi and exponent Pji, where Bi is
determined by the constraint that be 1 the sum of the Bis, for s varying from 1 the n.
2)
Explanatory variables transformed due to the reward magnitude equalization effect:
Xi, i varying from 1 to k.
Pesquisa Naval Nº 15, Setembro de 2002
Xji = φ(Vji),
297
(3.7)
if the sum of the Vmi for Vmi<Vji is greater than 0.001 that means, if the value given by the
i-th criterion to the j-th alternative is above the percentile p=0.001. Here φ denotes the
standard normal inverse accumulated distribution function.
Otherwise, Xji = φ (Vpi), p denoting the 0.001percentile. (3.8)
Specified the model, we must decide about the procedures for inference on its
parameters. The transformations that we apply to the initial ranks involve changes,
basically, on extreme values. For this reason, it is important to detect outliers and
eventually correct mistakes in the evaluation of options with discrepant values. An
automatic mechanism to generate information about extreme values is to simultaneously
fit the linear model by least squares and by minimization of the sum of absolute residuals.
As the change of the optimization rule does not involve variables transformations, the
comparison of the results of the adjustments produced by the two algorithms can help
to identify the options where contradictory evaluations, as well as extreme evaluations
according to some isolated criterion, have greater power of affecting the final ranking.
5. An Example
Here we apply the modeling strategy above developed to the formation of
preferences of bettors in horse races. In this case, we know precisely the final preferences
distribution, given by the amount of money bet on each animal. Thaler and Ziemba
(1988), extending results of Ali (1977), have demonstrated that, under general conditions,
longshots are overbet, so that favorites are underbet. But we do not know which
factors combine to produce such preferences. We consider here two criteria: previous
ranking of the animals, provided by the official track handicapper, and ranking of the
jockeys, derived from the number of riding compromises signed throughout the season.
We have chosen to analyze the Rio de Janeiro’s 2000 Selective Proof of the
Latin American Association of Jockey Clubs, one of the few prooves in Rio de Janeiro
races midyear calendar counting with an official previous rank of the competitors.
We applied all the transformations above described to the ranks and fitted the
model by classical least squares and by minimization of the sum of absolute residuals.
Table 1 presents, for each animal and jockey, the final preferences, the initial
ranks according to both criteria and the transformed ranks.
We assumed the first criterion (animal previous rank) prominent with respect
to the second (previous preferences for the jockey). With a standard deviation of 3.15
298
Pesquisa Naval Nº 15, Setembro de 2002
for the vector of deviations of ranks, the shift in the second criterion classification for
highly discrepant evaluations produced a slight improvement in the positions of the
options ranked 14th and 15th according to this second criterion. This was enough to
produce a final reduction of the number of options in the inferior 1/1,000 percentile from
8 to 7.
Table 2 shows the results of the least squares adjustment, first for the model
without variables transformations and, in the second line, for the model with transformed
variables. We can see that, in this example, all adjustment indicators are larger for the
second model. The effect of the second criterion, that was not statistically significant
before the transformations of the data, becomes statistically significant after the
transformations.
TABLE 1. INITIAL DATA AND TRANSFORMATIONS
Animal
Jockey
Absolute Ruler J Ricardo
Preferen Criterion Criterion Transfor Transform II
ce
I
II
mI
27.51
1
1
0.00
0.00
Boudin
C Lavor
16.63
2
3
-0.67
-1.15
Omnium
Leader
Sunshine Way
C G Netto
4.77
3
14
-1.15
-3.30
J Leme
7.37
4
7
-1.53
-2.42
Teeran
J M Silva
5.59
5
15
-1.86
-3.30
Icelander
G F Almeida
15.89
6
9
-2.15
-2.89
Smoky Salmon A Mota
2.96
7
6
-2.42
-2.15
Jarrinho
M Cardoso
4.83
8
2
-2.66
-0.67
Stratum
J Poleti
1.66
9
11
-2.89
-3.30
Insuperável
G Guimarães
6.33
10
4
-3.10
-1.53
ES
Rodrigues
Official Report F Chaves
0.35
11
17
-3.10
-3.30
1.63
12
5
-3.10
-1.86
Tropeiro
J James
0.74
13
12
-3.10
-3.30
Ravaro
M Almeida
0.59
14
8
-3.10
-2.66
Justus Magnus T J Pereira
2.04
15
10
-3.10
-3.10
Corredor Negro A Fernandes
0.32
16
13
-3.10
-3.30
Teddy World
0.80
17
16
-3.10
-3.30
Hot Birthday
J Queiroz
Pesquisa Naval Nº 15, Setembro de 2002
299
TABLE 2. MODELS COMPARISON
Model
Simple ranks
Transformed Variables
t beta0
6,36
8,93
t beta1
3,36
4,74
t beta2
1,73
2,32
F
11,62
26,05
R2
0,62
0,79
6. Final Comments
We sketch in this work some alternatives for the handling of different factors
affecting the formation of preferences. We demonstrate that statistical models based on
the transformation of explanatory variable are able to incorporate the effect of behaviors
suggested by different theories about sources of departures from rational behavior.
The present ideas can be used to advantage in other contexts. The good adjustment of
the statistical model always depends on the existence of a large enough volume of data.
When this is available, however, it provides a path to understand effects so far little
investigated quantitatively.
7. References
ALI, M. 1977. Probability and Utility Estimates for Racetrack Bettors. Journal
of Political Economy 85: 803-815.
ENGLE, R 1993. Statistical Models for Financial Volatility, Financial Analysis
Journal, 49, 23-28.
GAMERMAN, D. E MIGON, H. S. 1993. Dynamic Hierarchical Models. JRSS,
B 55: 629-642.
GOMES, L. F. A. M. AND LIMA, M. M. P. M. 1992. From Modeling Individual
Prefer-ences to Multicriteria ranking of Discrete Alternatives: a Look at
Prospect Theory and the Ad-ditive Difference Model. Foundations of
Computing and Decision Sciences 17: 172-184.
KAHNEMANN, D. AND TVERSKY, A. 1979. Prospect Theory: an Analysis
of Decision under Risk, Econometrica 47: 263-291.
LOOTSMA, F. A. 1993. Scale Sensitivity in the Multiplicative AHP and
SMART. Journal of Multicriteria Decision Analysis 2: 87-110.
SAATY, T. L. 1980. The Analytic Hierarchy Process, Planning, Priority Setting
and Resource Allocation. Mc. Graw Hill: New York.
SHARPE, W. F. 1964. Capital Asset Prices, a Theory of Market Equilibrium
under Con-ditions of Risk. Journal of Finance 19: 425-442.
THALER, R. AND ZIEMBA, W. T. 1997. Parimutual Betting Markets:
Racetracks and Lotteries. Journal of Economic Perspectives. 2: 161-174.
300
Pesquisa Naval Nº 15, Setembro de 2002
Centro Tecnológico da Marinha
em São Paulo
CTMSP – TECNOLOGIA PRÓPRIA É INDEPENDÊNCIA
O Programa Nuclear da Marinha (PNM), iniciado em 1979, foi concebido com o
propósito de gerar capacitação tecnológica no País, para projetar e construir um
submarino nacional de propulsão nuclear, no início do século XXI. É importante ressaltar
que esse programa faz parte de um contexto mais amplo do Programa Autônomo de
Tecnologia Nuclear, o chamado Programa Nuclear Brasileiro, que foi impulsionado,
tendo como metas o domínio completo do ciclo do combustível nuclear e a utilização
pacífica da energia nuclear, de modo a suprir as necessidades do País na área nuclear
não atendidas pelo Acordo Brasil-Alemanha.
O Centro Tecnológico da Marinha em São Paulo (CTMSP) foi criado pelo
decreto nº 93.439, de 17 de outubro de 1986, sob o nome de Coordenadoria para Projetos
Especiais (COPESP), tendo sua denominação alterada para CTMSP em 1995. É uma OM
que trabalha em pesquisa e desenvolvimento, com o propósito de promover sistemas
nucleares e energéticos para propulsão naval. As atividades realizadas pelo CTMSP
visam contribuir para o projeto e a construção de um submarino de propulsão nuclear
nacional, necessário à preservação dos interesses marítimos do País.
INSTALAÇÕES
A sede do CTMSP está instalada no campus da Universidade de São Paulo
(USP), onde se encontram outros importantes centros de pesquisas nacionais. Em
Iperó, na região de Sorocaba, está o Centro Experimental Aramar (CEA), que abriga
instalações de testes, laboratórios de validação experimental e diversas oficinas
especializadas.
CICLO DO COMBUSTÍVEL NUCLEAR
A figura abaixo apresenta as fases necessárias para a fabricação do combustível
nuclear, desde a prospecção do minério de urânio até a utilização do combustível na
planta de produção de energia. O CTMSP recebe o concentrado de urânio (yellow
cake), obtido no beneficiamento do mineral, e produz o elemento combustível que será
empregado no núcleo do reator nuclear, utilizando-se uma técnica completamente
desenvolvida no país.
As fases executadas incluem: conversão do concentrado no gás hexafluoreto
de urânio; seu enriquecimento, utilizando-se a técnica de ultracentrifugação, por meio
da qual aumenta-se a concentração do isótopo físsil 235U; reconversão do gás para a
forma de pastilhas de dióxido de urânio; e montagem destas pastilhas em elementos
combustíveis.
Pesquisa Naval Nº 15, Setembro de 2002
301
O PROJETO DA INSTALAÇÃO DE PROPULSÃO NUCLEAR
Para projetar e desenvolver a instalação propulsora do submarino nacional de
propulsão nuclear, a MB, através do CTMSP, necessitava vencer etapas bem definidas
de desenvolvimento tecnológico: o enriquecimento isotópico de urânio (de modo a
garantir o domínio tecnológico de todo o ciclo de combustível nuclear); e o projeto,
desenvolvimento e construção, em terra, de uma instalação protótipo de propulsão
nuclear, denominada Instalação Nuclear a Água Pressurizada (INAP).
O Projeto de Enriquecimento de Urânio tinha como metas a pesquisa e o
desenvolvimento de ultracentrífugas, para atender à capacitação plena no ciclo do
combustível nuclear, no que tange às necessidades da Marinha.
Após vencida a barreira do enriquecimento, a Marinha passou a enfrentar outras
dificuldades. Apesar de todos os tratados assinados e ratificados pelo País, a venda do
hexafluoreto de urânio natural (UF6) para o CTMSP continuou a ser negada por outros
países.
Essa dependência impôs à Marinha programar o projeto e a construção de uma
unidade de produção de UF6, com capacidade de 40 ton/ano. Essa instalação, prevista
para ser concluída em 2002, permitirá que a Marinha domine, também, a única fase do
ciclo do combustível ainda não desenvolvida no País.
O PNM previu o desenvolvimento de uma instalação protótipo de propulsão
nuclear, com um reator a água pressurizada (PWR) de 11 megawatts-elétricos, a INAP, a
ser construída no CEA, e que é a primeira instalação nuclear de potência projetada no
País.
302
Pesquisa Naval Nº 15, Setembro de 2002
Em uma primeira fase do Projeto da INAP, estão sendo fabricados o reator e seus
internos, além de testados os equipamentos propulsores, turbinas e geradores.
Por ser a tecnologia utilizada nessa instalação essencialmente a mesma que é
empregada em instalações de maior porte, destinadas à geração elétrica (centrais núcleoelétricas como Angra I e Angra II), pode-se prever que, tal como ocorreu em outros
países, a capacitação adquirida no projeto de construção do reator de propulsão naval
possa ser utilizada no projeto e construção de centrais núcleo-elétricas, que viriam
complementar, no futuro, a nossa matriz energética. Cumpre ressaltar que o tipo de
reator nuclear utilizado na propulsão naval, o PWR, é o que, em termos mundiais, tem
maior aceitação e uso na produção de energia elétrica, tendência esta que tem sido
gradativamente ampliada com a incorporação de novos sistemas intrínsecos de
segurança, também integrados à INAP.
CENTRO TECNOLÓGICO DA MARINHA EM SÃO PAULO
PARTICIPAÇÃO DA INDÚSTRIA NACIONAL
Desde o seu início, o programa do CTMSP tem contado com a participação ativa
da indústria brasileira. O entrosamento com empresas de engenharia e fabricantes
nacionais tem propiciado índices crescentes de nacionalização das oficinas, laboratórios,
usinas e protótipos desenvolvidos. Por exemplo, a tecnologia de ultracentrifugação
utilizada para o enriquecimento do urânio é 100% nacional.
Pesquisa Naval Nº 15, Setembro de 2002
303
Como cliente, o CTMSP conta com a parceria de cerca de 150 indústrias nacionais,
junto às quais encomenda a maioria dos produtos utilizados nos seus projetos. No
entanto, alguns desses itens, devido à pequena quantidade ou a sua sofisticação, são
fabricados internamente. Para suprir tais necessidades, o CTMSP montou uma infraestrutura própria de fabricação que, também, pode atender a eventuais necessidades
do setor industrial.
A aplicação dos produtos desenvolvidos pelo CTMSP tem atraído empresas
nacionais para participar do processo de migração tecnológica.
TECNOLOGIA NACIONAL DE ENRIQUECIMENTO DE URÂNIO
A tecnologia de ultracentrífugas, desenvolvida pela Marinha para enriquecimento
isotópico de urânio, também será utilizada pelas Indústrias Nucleares do Brasil (INB)
para fabricação do combustível das usinas Angra 1 e Angra 2.
Em julho de 2000, foi assinado um contrato com as Indústrias Nucleares do
Brasil (INB), para o fornecimento de cascatas de enriquecimento de urânio por
ultracentrifugação, a serem instaladas naquela empresa, em Resende.
Com a duração prevista de 8 anos e investimentos da ordem de R$ 250 milhões,
esse fornecimento, gradualmente, capacitará a INB para atender à demanda da Usina de
Angra 1 e parte da demanda de Angra 2. Com o enriquecimento realizado no País, serão
economizados cerca de U$ 15 milhões ao ano e cerca de U$ 300 milhões ao longo da vida
útil das centrífugas. Representa, também, a transferência, para a indústria, de uma
tecnologia desenvolvida por pesquisadores da Marinha do Brasil, mostrando que o
trabalho dos nossos especialistas é de extremo valor prático.
Nesse ponto, cabe destacar que o Programa Nuclear da Marinha, há muito,
deixou de ser um Programa da Marinha, desenvolvido pela Marinha e para a Marinha.
EQUIPAMENTOS DE ÚLTIMA GERAÇÃO
Como subprodutos decorrentes do PNM, pode-se, ainda, mencionar sua
aplicação em diversos setores do País: agricultura, medicina, biologia e indústria. Na
preservação do meio ambiente são empregados processos e equipamentos nucleares,
visando à reciclagem de produtos.
Além disso, a Marinha tem fornecido urânio enriquecido para o
Instituto de Pesquisas Energéticas e Nucleares (IPEN), para a operação do seu reator
de pesquisa, na produção de radioisótopos, com a aplicação em diversas áreas.
Sem sombra de dúvida, todo esse imenso patrimônio apresenta inestimável
valor estratégico e tecnológico que vem sendo obtido ao longo de todos estes anos,
quase que na totalidade, com grande esforço da Marinha na alocação de recursos
humanos, materiais e financeiros
304
Pesquisa Naval Nº 15, Setembro de 2002
REQUISITOS PARA PUBLICAÇÃO DE TRABALHOS
123-
4-
5678-
Qualquer pessoa, pertencente ou não à Marinha, poderá submeter trabalhos para
publicação.
Não há limite para o número de artigos por autor.
Os trabalhos deverão ser de interesse científico, e não podendo já ter sido
publicados em quaisquer revistas ou periódicos (exceção feita a anais de
congressos). Os artigos deverão ser endereçados ao Comitê Editorial do Suplemento
“Pesquisa Naval”, até 31 de julho de 2003, acompanhados de carta ao EditorChefe, declarando não terem sido publicados em nenhuma revista ou periódico,
autorizando sua veiculação no Suplemento, e fornecendo endereço para
correspondência.
Os trabalhos enviados serão apreciados pelo Comitê Editorial e, em última instância,
pelo Editor-Chefe, sendo rejeitados aqueles que, de acordo com esse julgamento,
não possuírem interesse científico e não obedecerem aos padrões de apresentação
especificados adiante (em 09). Se a discrepância for pequena e houver tempo
hábil, poderá ser solicitado ao autor que efetue modificações.
No caso de haver maior número de trabalhos que um único exemplar do Suplemento
possa comportar, os artigos aceitos serão distribuídos por diversos números.
Os trabalhos, mesmo se rejeitados, não serão devolvidos, exceto para demanda de
alterações, se for o caso.
Os trabalhos, mesmo publicados, não serão remunerados.
A apresentação dos originais deverá obedecer às seguintes regras:
a)
O trabalho deverá ser enviado através de texto escrito e por meio magnético,
podendo ser utilizado o meio eletrônico; deverá ser digitado em PageMaker
6.5 ou Word 97, em espaço simples, e apresentado em 02(duas) vias, em
folhas tamanho A4, num só lado, com margem esquerda não inferior a 03(três)
centímetros e uma mancha de 18cmX12 cm (configurar a página : marg. sup.
6,3 cm, marg. inf. 5,5 cm, marg. esq. e dir. 4,5 cm, cabeçalho 4,6 cm e rodapé
1,25, tamanho de fonte 10, formato Times New Roman), incluindo quadros,
fotografias, etc, inclusos no texto, acompanhados dos respectivos disquetes;
b) Os originais não deverão exceder 12 páginas A4, incluindo anexos;
c) O nome do autor deverá vir seguido do título profissional e do nome da
instituição onde exerce atividade científica;
d) Figuras e gráficos deverão ser encaminhados em disquete à parte com indicação
de localização no texto e respectivas legendas;
e) Os trabalhos deverão conter as Seguintes seções: (1) Resumo (Português) e
“Abstract” (Inglês) com no máximo 150 palavras cada; (2) Introdução; (3)
Metodologia; (4) Resultados; (5) Discussão; (6) Conclusões e (7) Referências
Bibliográficas. Permite-se a omissão da Seção 3 e a fusão das Seções 4 e 5,
quando a natureza do trabalho assim o recomendar; e
Pesquisa Naval Nº 15, Setembro de 2002
305
f) Para aspectos gerais de apresentação, referências bibliográficas, notas e demais
detalhes, Seguir as Normas da ABNT sobre Documentação; especificamente as
Normas NB-62, NB-66 e NB-88.
9- Para quaisquer informações adicionais, escrever para o Comitê Editorial (vide
endereço no item 10).
10- O Corpo Editorial do Suplemento tem a seguinte constituição:
Editor-Chefe :
Editores Adjuntos:
Comitê Editorial:
V Alte Mário Jorge Ferreira Braga
V Alte Lúcio Franco de Sá Fernandes
C Alte (EN) Olavo Amorim de Andrade
C Alte Pedro Fava
C Alte (EN) Alan Paes Leme Arthou
Antonio Freitas, PhD
Carlos Rodrigues Pereira Belchior, PhD
Eliane Gonzalez Rodriguez, DSc
Flavio da Costa Fernandes, PhD
Jorge Muniz Barreto, PhD
José Carlos Albano do Amarante, PhD
Luiz Flavio Autran Monteiro Gomes, PhD
Marcos Cesar Goldbarg, PhD
Maria Augusta Soares Machado, DSc
Reinaldo Castro de Souza, PhD
Coordenação:
Maria Helena Severo de Souza
Editoração:
2o SG Leila dos Santos Riente
Endereço:
Estado-Maior da Armada – Rio
Praça Barão de Ladário, S/Nº, 2º andar,
Centro
CEP: 20010-000
Fax: (0XX21) 3870-5162
Tel: (0XX21) 3870-5113
e-mail: [email protected]
[email protected]
Download

15ª Edição - Marinha do Brasil