ESTADO-MAIOR DA ARMADA
ISSN 1414-8595
REVISTA PESQUISA NAVAL
PATROCÍNIO
ESTADO-MAIOR DA ARMADA (EMA)
EDITOR-CHEFE
Alte Esq JULIO SABOYA DE ARAUJO JORGE
Chefe do Estado-Maior da Armada
EDITORES ADJUNTOS
C Alte (EN) EDUARDO MACULAN VICENTINI
Instituto de Pesquisas da Marinha – IPqM
C Alte (EN) CARLOS PASSOS BEZERRIL
Centro Tecnológico da Marinha em São Paulo – CTMSP
C Alte BERNARDO JOSÉ PIERANTONI GAMBÔA
Centro de Análises de Sistemas Navais – CASNAV
C Alte SERGIO ROBERTO FERNANDES DOS SANTOS
Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM
C Alte MARCOS JOSÉ DE CARVALHO FERREIRA
Subchefe de Logística e Mobilização do EMA
COMITÊ EDITORIAL
Alexandre David Caldeira, DSc – CTA/IEAv
Edmo José Dias Campos – USP
Karl Heinz Kienitz, DSc – ITA
Leonam dos Santos Guimarães, PhD - ELETRONUCLEAR
Luiz Flávio Autran Monteiro Gomes, PhD – UFF/IBMEC
Maria Augusta Soares Machado, DSc – IBMEC
Rajendra Saxena – IPEN
Reinaldo Castro Souza – PUC –Rio
COORDENAÇÃO
CMG LUIZ FERNANDO PEREIRA DA CRUZ
CF (EN) NELSON LUIZ DE PAULA MENEZES MONNERAT
CF JOSÉ FERNANDO DE NEGRI
SO AD-PD MARIA ISABEL ARAUJO SILVA DOS SANTOS
1º SG-ES HILÁRIO JOSÉ BISPO DA GRAÇA
Divisão de Ciência e Tecnologia do EMA
EDIÇÃO
Estado-Maior da Armada (EMA)
CAPA
Selo comemorativo do bicentenário de nascimento do Almirante Tamandaré.
4º Ano Polar Internacional (API) – Homenagem aos 25 anos do Programa Antártico Brasileiro (PROANTAR), criado em
1982, com o objetivo de promover a realização de pesquisas científicas e tecnológicas na Antártica.
Revista Pesquisa Naval
Brasília
A Revista Pesquisa Naval se destina a divulgar os resultados científicos e tecnológicos obtidos sob a
égide da Marinha do Brasil, bem como servir de veículo para intercâmbio com instituições de pesquisa.
Os artigos aqui publicados não refletem a posição ou a doutrina da Marinha e são de responsabilidade
de seus autores.
Revista Pesquisa Naval / Serviço de Documentação da Marinha
v. 1, n. 1, 1988 – Rio de Janeiro – RJ – Brasil – Marinha do Brasil
Anual
Título Abreviado: Pesq. Nav.
ISSN 1414-8595
1. Marinha – Periódico – Pesquisa Científica. Serviço de Documentação
da Marinha
CDU 001.891.623/.9
CDD 623.807.2
Revista Pesquisa Naval
SUMÁRIO
Apresentação
Almirante-de-Esquadra JULIO SABOYA DE ARAUJO JORGE
Chefe do Estado-Maior da Armada ................................................................................................................................................... 7
SISTEMAS DE ARMAS E MUNIÇÕES
Projeto e simulação de controladores de posição para um motor elétrico suportado por mancais magnéticos
Primeiro-Tenente(QC-FN) Aderlan Ricardo Lima Rodrigues, José Andrés Santisteban ............................................................ 9
Análise da variação da tensão gerada e do estado de magnetização em um gerador com ímãs permanentes
André Camargo Mathiazi, Ivan Eduardo Chabu ........................................................................................................................... 16
O desenvolvimento na área inercial – um projeto conjunto da Marinha, Exército e Aeronáutica
Capitão-de-Fragata (EN) Nelson Luiz de Paula Menezes Monnerat, Nelson F. F. Ebecken .................................................... 23
Atuadores magnéticos na redução da vibração para um Rotor de Jeffcot/Laval durante a passagem pela velocidade crítica
Capitão-Tenente (EN) Paulo Henrique da Rocha, Michael Cláudio Porsch, Roberto Moura Sales ......................................... 28
AMBIENTE OPERACIONAL
Análise de métodos para a classificação de sinais acústicos submarinos utilizando tons característicos
Cleide Vital da Silva Rodrigues, William Soares Filho .................................................................................................................... 36
Possibilidade de catástrofe no arquipélago de São Pedro e São Paulo e suas implicações sobre a soberania do mar brasileiro
Capitão-de-Corveta (T) David Canabarro Savi, Susanna Eleonora Sichel ................................................................................... 43
Sistema de Inferência Neuro-Fuzzy Hierárquico: uma solução para a compressão de dados batimétricos
Capitão-de-Corveta Frederico C. Muthz M. Barros ........................................................................................................................ 50
Análise da velocidade e atenuação do som no fundo marinho e sua contribuição para a previsão do alcance Sonar
Capitão-de-Corveta Helber Carvalho Macedo, Alberto Garcia de Figueiredo Jr., João Carlos Machado ............................... 64
Caixa atenuadora de campos eletromagnéticos para avaliação de sensores magnetométricos
Hercules de Souza ............................................................................................................................................................................... 72
PROCESSOS DECISÓRIOS
Ferramenta de simulação de Monte Carlo para solução de problemas de logística
José Corrêa Paes Filho, Ronaldo Cesar E. dos Santos ................................................................................................................... 78
A onda de projeto por meio da análise estatística de extremos a partir de dados medidos por satélite
Flávio Costa Piccinini .......................................................................................................................................................................... 84
Sistema de apoio a decisão com informações georreferenciadas: uma aplicação em software livre
Marcelo Felipe Moreira Persegona, Suboficial (AD-PD) Maria Isabel Araújo Silva dos Santos,
Isabel Teresa Gama Alves ................................................................................................................................................................... 91
O uso da simulação na avaliação operacional da defesa antiaérea de um navio de guerra
Mauricio José Machado Guedes ........................................................................................................................................................ 96
Um sistema de inferência nebuloso para apoio a tomada de decisão do analista de crédito de empresas de crédito pessoal
Paulo Soares Barreto Filho, Maria Augusta Soares Machado ...................................................................................................... 103
Gerenciamento da mudança organizacional
Capitão-de-Fragata (T) Sérgio Luís Dutra de Lamare, Maria Lucia Novaes Simões .................................................................110
SENSORES E GUERRA ELETRÔNICA
Estratégias de detecção multiusuário para minimizar a interferência em sistemas de comunicação sem fio DS-CDMA
Deolinda Fontes Cardoso, Tiago Travassos Vieira Vinhoza ....................................................................................................... 117
Morfologia matemática como ferramenta de análise de imagens infravermelhas
Sergio Rodrigues Neves ....................................................................................................................................................................123
MATERIAIS ESPECIAIS
Efeito da concentração de Co e Ti nas propriedades absorvedoras de microondas de compósitos de
M-hexaferritas de bário com policloropreno
Magali Silveira Pinho, Roberto da Costa Lima, Bluma Guenther Soares, Regina Celi Reis Nunes ........................................ 133
Efeito da temperatura na obtenção de Zn-hexaferritas de bário do tipo Y
Roberto da Costa Lima, Magali Silveira Pinho, Tsuneharu Ogasawara ......................................................................................137
Avaliação da atividade antiincrustante de glicerofosfolipídios isolados de organismos marinhos da região de Arraial do Cabo – RJ
Capitão-Tenente (EN) William Romão Batista, Maria Helena Campos Baeta Neves,
André Luiz Mazzei Albert, Rosangela Sabbatini Cerqueira Lopes, Jarí Nóbrega Cardoso, Cláudio Cerqueira Lopes ......... 140
ENERGIA
Utilização de um modelo homogêneo para estudo de escoamento bifásico em núcleos de reatores nucleares PWRs
Francisco A. Braz Filho, Alexandre D. Caldeira, Eduardo M. Borges ........................................................................................ 147
TECNOLOGIA DA INFORMAÇÃO
Identificação, desenvolvimento e manutenção do conhecimento num órgão da administração direta federal: estudo de caso em uma
Organização da Marinha do Brasil
Carlos Miguel Cordeiro dos Santos, Denise Mesquita de Barros, Renato Porthun, Victor Ramos Caruso ......................... 157
Critérios para seleção e coleta de informações comparativas em um órgão da administração direta federal:
estudo de caso em uma Organização da Marinha do Brasil
Denise Mesquita de Barros, Renato Porthun, Victor Ramos Caruso, Carlos Miguel Cordeiro dos Santos ..........................163
Redes neurais recorrentes aplicadas na detecção multiusuário em sistemas de comunicação sem fio DS-CDMA
Deolinda Fontes Cardoso, Tiago Travassos Vieira Vinhoza ....................................................................................................... 170
Gerenciamento pró-ativo distribuído com garantias fim-a-fim de QoS e tolerância a falhas em serviços multimídia
Capitão-de-Corveta (EN) Marcio Elkind, Jorge Lopes de Souza Leão ..................................................................................... 178
CONTRIBUIÇÕES ESPECIAIS
A análise de registros de maré extremamente longos
Alberto dos Santos Franco, Björn Kjerfve, Claudio Freitas Neves ............................................................................................. 187
Ciência, tecnologia e inovação para a defesa nacional – revisão de alguns conceitos
Capitão-de-Mar-e-Guerra Arthur Lobo da Costa RUIZ ..............................................................................................................197
A Antártica e o Brasil
Contra-Almirante José Eduardo Borges de Souza ...................................................................................................................... 204
Normas para publicação na Revista Pesquisa Naval ...............................................................................................................................214
Apresentação
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 7
7
Centro de Análises de Sistemas Navais
Sistema simulador de guerra naval - SSGN
O SSGN foi desenvolvido para apoiar a condução e a avaliação de Jogos de
Guerra, sendo capaz de simular os diferentes tipos de ações de guerra naval
envolvendo Forças Navais e Aeronavais. Empregando uma interface
essencialmente gráfica, o SSGN retrata eficazmente diversos aspectos do cenário
tático real, a capacidade logística empregada, os resultados dos engajamentos entre
unidades, detecção dos meios, informações geográficas e condições climáticas. Esta
funcionalidade permite aos jogadores coletar rapidamente um grande número de
informações para apoio à decisão, possibilitando o aprimoramento profissional dos
partícipes.
O sistema está estruturado para cumprir as diversas fases de um jogo de
guerra, ou seja, preparação, execução e análise. Sua arquitetura contempla
subsistemas que atenderão a essas fases, o que confere ao sistema larga
flexibilidade, na medida que possibilita uma configuração customizada para
necessidades específicas do usuário, sem prejuízo do efetivo controle do jogo. Tal
estrutura também apresenta a vantagem de possibilitar a evolução escalonada de
funcionalidades, reduzindo consideravelmente os custos de atualização e
manutenção. Em todos os subsistemas, a interface com o usuário é amigável, com
procedimentos em janelas, menus, ícones etc, de forma bastante intuitiva para o
usuário.
Centro de Análises de Sistemas Navais
Praça Barão de Ladário S/N - Ilha das Cobras, AMRJ
Edifício 8, 3o andar, Centro, Rio de Janeiro, RJ - Brasil - CEP: 20091-000
Tel.: (021)2178-6369 Fax: (021)2178-6332
e-mail:[email protected]
internet: www.casnav.mar.mil.br
8
SISTEMAS DE ARMAS E MUNIÇÕES
Projeto e simulação de controladores de posição para
um motor elétrico suportado por mancais magnéticos
Primeiro-Tenente (QC-FN)
Aderlan Ricardo Lima Rodrigues
Batalhão de Comando e Controle – BtlCmdoCt
Engenheiro-Eletricista – Mestrando em Engenharia Mecânica –
Universidade Federal Fluminense
E-mail: [email protected]
José Andrés Santisteban
Universidade Federal Fluminense – Departamento de Engenharia
Elétrica. Programa de Pós-graduação em Engenharia Mecânica
E-mail: [email protected]
Resumo
O desenvolvimento de pesquisas abordando o tema Mancais
Magnéticos pode ser constatado em diversos lugares do
mundo. Uma das principais vantagens destes dispositivos é
a sua capacidade de reduzir drasticamente as perdas por
atrito ao utilizar o princípio de levitação magnética. Entre
outras aplicações, estes podem ser encontrados em
máquinas rotativas nas industrias médicas, alimentícias e
militares. Ao serem utilizados eletroímãs, torna-se necessário
o projeto de controladores que visem manter a parte móvel
ou rotor, numa posição de equilíbrio sem contato com o
estator. Neste trabalho serão apresentados alguns
resultados de simulação de controladores de posição nas
estruturas do tipo descentralizada e centralizada, projetados
a partir da modelagem de um protótipo experimental que
consiste de um motor de indução, disposto na posição
horizontal, suportado totalmente por mancais magnéticos
ativos.
Palavras-chave
Mancais eletromagnéticos. Controladores. Levitação magnética.
Displacement controllers for an electric motor
that uses magnetic bearings – designs and
simulation
Abstract
Magnetic Bearings research can be found in several places
around the world. The use of magnetic levitation principles
explains the strong reduction of friction losses in high
speeds, one of the main advantages of these devices.
Among other applications, in rotating machines, these can
be found in the medical, food and military industries. When
electromagnets are used, active magnetic bearing, it is
necessary the design of appropriated controllers that allow
the rotor to stay in an equilibrium position without contact
with the stator. In this work some simulation results of
position controllers will be shown. Two kinds of control
strategies are tested: decentralized and centralized. These
were designed based on the modeling of an experimental
prototype which consists on an induction motor, operating in
the horizontal position, totally supported for active magnetic
bearings.
Keywords
Electromagnetic bearings. Controllers. Magnetic levitation
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15
INTRODUÇÃO
O desenvolvimento de meios eficientes de sustentação
de rotores tem sido uma preocupação sempre
presente desde a Revolução Industrial. Os dispositivos
normalmente empregados para este fim são os
mancais de rolamento e os mancais hidrodinâmicos,
tendo como característica comum a grande quantidade
de energia dissipada devido a diferentes formas de
atritos existentes. Com a evolução nesta área de
pesquisa, houve o desenvolvimento dos chamados
mancais magnéticos, que tendem a substituir, com
vantagens, os atuais mancais em algumas áreas de
aplicação específicas.
Estes dispositivos, através de forças magnéticas, são
capazes de manter o eixo de uma máquina levitando,
ou seja, completamente livre de qualquer contato
mecânico com componentes estáticos, reduzindo
drasticamente as excessivas perdas causadas pela ação
do atrito. Quando comparados a outras modalidades
de sustentação, os mancais magnéticos apresentam
vantagens em vários aspectos, tais como: a obtenção
de altas velocidades de rotação, a ausência de
lubrificação permanente, autobalanceamento, controle
de vibração, alta confiabilidade e manutenção
reduzida. Por estas razões, estes se mostram
particularmente promissores em diversos segmentos
industriais, tais como Indústrias Alimentícias, Médicas
e Militares.
METODOLOGIA
Descrição do protótipo
Para facilitar a aplicação prática em escala comercial e
a transferência de tecnologia para a indústria nacional,
foi utilizado um motor assíncrono nacional para servir
como instrumento de referência. Durante o
desenvolvimento do projeto, foram mantidas as
características elétricas e magnéticas do motor,
mantendo-o simples e robusto, fazendo com que
9
PRIMEIRO-TENENTE(QC-FN) ADERLAN RICARDO LIMA RODRIGUES, JOSÉ ANDRÉS SANTISTEBAN, D.SC.
todos os componentes utilizados sejam encontrados
no mercado brasileiro para aquisição.
Assim, em cada lado do rotor do motor elétrico, foi
previsto um mancal axial e um mancal radial, os quais,
apesar de fisicamente integrados em um mesmo rotor, possuem funcionamento independente (Figura 1).
Como medida de segurança, foram usados mancais
de rolamento. Esses mancais são necessários para evitar
o contato direto do eixo com os componentes estáticos
do motor e dos mancais magnéticos quando se desliga
o sistema de sustentação ou quando há perdas ou
falhas do controle sobre os mancais (SANTISTEBAN
et al, 2004).
Princípio de funcionamento
Os estatores dos mancais radiais possuem oito bobinas
(quatro pares) uniformemente distribuídas de forma
circular em torno do eixo do motor. Cada par de
bobinas, conectado em série, forma um par norte-sul
de pólos magnéticos, conforme representado na
Figura 3. Os pólos projetam o fluxo magnético no
sentido radial, alinhado com os quadrantes vertical e
horizontal do referido eixo, e os estatores dos mancais
axiais projetam o fluxo magnético no sentido axial do
rotor do motor. Estes são basicamente compostos
cada um por uma única bobina perpendicular ao eixo.
Para cada rotor do mancal existem dois pares de
sensores de indução dispostos radialmente que ocupam
os quadrantes horizontal e vertical, onde são capazes
de captar pequenas variações no posicionamento radial
do rotor e retornar ao controlador uma tensão
proporcional a esses deslocamentos. Estes sensores
podem ser substituídos por observadores de estados,
VELANDIA (2005), proporcionando uma economia
final no projeto do controlador. Em função deste sinal
de entrada, o controlador enviará sinais às fontes de
corrente, as quais alimentarão as bobinas com a
corrente elétrica necessária para fazer com que o rotor
retorne à posição de equilíbrio.
Modelagem do sistema
A modelagem proposta do eixo do motor foi efetuada
de acordo com SCHWEITZER et al 1994, onde o
comportamento dinâmico do sistema é descrito na
Figura 4.
10
FIGURA 1
Componentes do rotor completo.
(a)
(b)
FIGURA 2
a) Acessórios do Motor; b) Protótipo Construído
montado em Bancada.
FIGURA 3
Representação das linhas de Fluxo Magnético dos
mancais magnéticos radiais.
(1)
FIGURA 4
Sistema de Coordenadas.
Onde ZB e fB representam os vetores de coordenadas
e forças radiais atinentes a cada extremidade. Neste
trabalho não serão contemplados os mancais
magnéticos axiais, os quais podem ser modelados
como sistemas simples do tipo duplo integrador,
desacoplados dos eixos radiais aqui estudados
(SANTISTEBAN
e
MENDES
2000;
SANTISTEBAN, MENDES e SACRAMENTO
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15
SISTEMAS DE ARMAS E MUNIÇÕES
2003). Na equação (1) observam-se as matrizes MB e
GB, que são obtidas da modelagem mecânica do eixo
e assumem os seguintes valores:
T
M B = TB MTB
(2)
T
(3)
GB = TB GTB
ém 0
ê0 I
y
M =ê
ê0 0
ê
ë0 0
0
0
m
0
0ù
é0 0
ú
ê0 0
0ú
G=ê
ê0 0
0ú
ê
ú
ë0 - 1
Ix û
0 0ù
0 1ú
úI Z W
0 0ú
ú
0 0û
æ(ibias + ictrlx ) 2 (ibias - icrtlx ) 2 ö
f x = f 4 - f 3 = k ×ç
ç (h - x) 2 - (h + x) 2 ÷
÷ e
0
0
è
ø
éxa ù
éf ax ù
éb - a 0 0 ù
êf ú
êx ú
ê- 1 1 0 0 ú
1 ê
ê b ú f B = ê bx ú
Z
=
ú
B
TB =
êf ay ú
êya ú
b - a ê 0 0 b - aú
ê ú
ê
ú
ê
ú
êf by û
ú
ë
ëyb û
ë0 0 - 1 1 û
De acordo com VELANDIA et al (2005), a equação
(1) pode ser reescrita da seguinte forma:
''
B
-1
B B
-1
B
Z = M f - M GB Z
'
B
(4)
para simplificação adotaremos a seguinte simbologia:
(5)
M B- 1 = M Bi e MG = M B- 1GB .
Assim, temos a seguinte matriz:
M BI
é(ma 2 + I y )
ê
ê mI y
ê(mab + I y )
ê
= ê mI y
ê
0
ê
ê
ê
0
ê
ë
(mab + I y )
mI y
(mb 2 + I y )
mI y
0
0
0
0
(ma 2 + I x )
mI x
(mab + I x )
mI x
ù
ú
ú
ú
0
ú
ú
(mab + I x ) ú
ú
mI x
ú
(mb 2 + I x ) ú
ú
mI x
û
0
A Figura 5 representa o diagrama de blocos do sistema,
constituído por quatro entradas e quatro saídas. As
quatro forças geradas para a sustentação do mancal
magnético possuem características não lineares. Desta
forma, torna-se necessário a linearização destas forças
no ponto de operação desejado, para que se torne
possível o projeto de controladores lineares. Assim,
temos:
æ(i peso + ibias + ictrly ) 2 (ibias - icrtly ) 2
f y = f1 - f 2 = k ×ç
ç
(h0 - y ) 2
(h0 + y ) 2
è
ö
÷
÷
ø
O valor de h0 nas expressões acima corresponde ao
entreferro desejado na posição de equilíbrio; x e y aos
deslocamentos no equilíbrio; ibias à corrente nominal
de referência; icrtlx e icrtly às componentes de correntes
1
fornecidas pelos controladores; k = 4 m0 N ACos a; e ipeso
é uma componente de corrente aplicado em uma das
bobinas que controla o eixo vertical para compensar
o peso do eixo.
2
Linearizando as expressões de fx e fy, observa-se que
estas apresentam uma relação direta para os valores
de corrente e deslocamentos apresentados no sistema
da seguinte forma:
fx(ictrlx,x) = Kix.ictrlx +Ksx.x e
fy(ictrly,y) = Kiy.ictrly + Ksy.y
sendo Ksx, Ksy , Kix e Kiy obtidos a partir da condição
de equilíbrio.
FIGURA 5
Modelo Completo através do Simulink®.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15
11
PRIMEIRO-TENENTE(QC-FN) ADERLAN RICARDO LIMA RODRIGUES, JOSÉ ANDRÉS SANTISTEBAN, D.SC.
Sistema de controle
Para o sistema MIMO (Multiple Input Multiple Output)
proposto, é possível o desenvolvimento de métodos
de controle distintos. Desta forma, para o sistema
apresentado, utilizou-se o projeto de controladores
PID (Proporcional Integral Derivativo) e a técnica de
realimentação de estados, onde o correto
dimensionamento da matriz K de realimentação torna
possível o posicionamento dos pólos do sistema no
Semi Plano Esquerdo de Laplace (SPE), fazendo com
que o sistema passe a ter características estáveis.
outras palavras, o projeto de controladores
descentralizados para sistemas multi-variável, como é
o caso do sistema em estudo, consiste numa técnica
onde são projetados controladores correspondentes
ao número de saídas, sendo necessário o correto
levantamento e emprego dos parâmetros do modelo
adotado.
Para o sistema considerado, a equação (1) pode ser
transformada em equações de estado, considerando
os deslocamentos nodais transversais e rotacionais, e
suas primeiras derivadas como variáveis de estado,
formando então o vetor s , conforme mostrado
abaixo.
s’ = As+Bu
y = Cs+Du
(6)
A entrada u é formada pelas quatro correntes de
controle, ictrx e ictry , nos mancais A e B, e o vetor y de
saída é formado pelos deslocamentos transversais dos
nós correspondentes aos sensores de posição.
Desta for ma, as matrizes A e B podem ser
representadas conforme a equação (7).
é . ù é [0]
[I ] ùéX A ù é [0] ù (7)
êX. A ú = ê
ú.[u ]
ú.ê ú+ ê
êX ú ë[M bi .K s ] [- M bi .GB ]ûëX B û ë[M bi .K i ]û
ë Bû
onde:
.
s = [ XA, XB]; X A = Z B ; X B = Z B e
[u] =[ictrxA, ictrxB, ictryA , ictryB ].
(8)
RESULTADOS
Sistema de controle descentralizado
A técnica de controle descentralizado consiste,
segundo BLEULER (1984), em subdividir o sistema
MIMO, por outros subsistemas menores, que possam
ser controlados localmente, reduzindo assim o esforço
total a ser realizado pelo sistema de controle. Em
12
FIGURA 6
Representação de um sistema Centralizado x
Descentralizado.
Controlador PID
Verificando-se cuidadosamente a modelagem
proposta pela Figura 5, observa-se que a matriz Mbi
apresenta em sua diagonal principal as funções de
transferências diretas. A entrada deste sistema é a
corrente e a sua saída é a posição, para as quatro
direções desejadas. Para o projeto de controladores
descentralizados, adotou-se a velocidade do rotor
como sendo nula ou suficientemente baixa para
considerar que o efeito de GB, na equação (4), tenha
influência quase desprezível.
Uma escolha apropriada de ibias e ipeso permite que o
lugar das raízes das funções de transferência diretas
sejam idênticas, permitindo o projeto de um único
controlador para todas as direções consideradas. A
Figura 7 representa a modelagem do sistema de
controle para o grau de liberdade x e, na Figura 8, é
mostrada a sua resposta ao degrau de posição,
utilizando um controlador PID.
O resultado apresentado pela Figura 8b consiste na
resposta ao degrau de posição de valor 0,1 mm.
Escala horizontal 0,1 s/div.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15
SISTEMAS DE ARMAS E MUNIÇÕES
FIGURA 7
Representação do Controlador para a Direção x.
Sistema de controle centralizado
A técnica de controle centralizado consiste no projeto
de um único bloco controlador, cujo objetivo é manter
todas as saídas do sistema em uma posição de
equilíbrio. Para isto, é tomada como base a equação
(4) e logo transformada em uma representação de
estados, como na forma da equação (6). Na seqüência,
uma matriz de realimentação de estados K deverá ser
encontrada de tal forma que todos os deslocamentos
convirjam para o ponto de equilíbrio.
(a)
FIGURA 9
Representação do Controle Centralizado.
(b)
FIGURA 8
a) Sinal de entrada na direção x(m); e b) Resposta na
direção x(m).
Para o tipo de controle centralizado, a matriz K de
realimentação de estados pode ser obtida através do
método LQR, pelo qual se deseja minimizar a função
de custo:
¥
J = ò xT Qx + u T Ru dx
(
)
(9)
0
O resultado apresentado pela Figura (8b) consiste na
resposta ao degrau de posição de valor 0,1 mm.
Escala horizontal 0,1 s/div.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15
onde Q representa a matriz de ponderação dos
estados, e R a matriz de ponderação da entrada.
13
PRIMEIRO-TENENTE(QC-FN) ADERLAN RICARDO LIMA RODRIGUES, JOSÉ ANDRÉS SANTISTEBAN, D.SC.
O Sistema de controle LQR, tanto pode ser utilizado
para sistemas contínuos quanto para discretos no
tempo. Uma vantagem de utilização desta técnica
consiste em que o sistema será sempre estável, exceto
em casos muito especiais, onde os índices de
minimização quadráticos de desempenho serão
obtidos através da solução das equações de Riccati
(10).
(10)
(b)
Para esta situação, serão apresentados valores diferentes
de K , pois as simulações serão realizadas para o
protótipo operando em baixas e altas velocidades.
Assim, o valor da matriz ótima encontrada para a
velocidade de w = 5.600 rpm foi:
FIGURA 10
a) Resposta do sistema descentralizado; e b) resposta do
sistema centralizado (direção x(m)).
Estas respostas apresentadas são análogas para as
demais direções existentes dos mancais magnéticos.
Escala horizontal 0,05 s/div.
Sistema em altas velocidades (5.600 RPM)
(11)
e para a velocidade nula foi:
(12)
Respostas controle
descentralizado
centralizado versus
(a)
Sistema com velocidade nula
(b)
(a)
14
FIGURA 11
a) Resposta do sistema descentralizado; e b) Resposta
do sistema centralizado (direção x(m)).
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15
SISTEMAS DE ARMAS E MUNIÇÕES
Estas respostas apresentadas são análogas para as
demais direções existentes dos mancais magnéticos.
CONCLUSÕES
•
A modelagem mecânica do rotor do protótipo
em estudo foi realizada com sucesso. Com a
verificação da controlabilidade do conjunto de
equações que descrevem a dinâmica do sistema,
tornou-se possível o projeto de controladores de
posição.
REFERÊNCIAS
BLEULER, Hannes, Decentralized Control of Magnetic Rotor Bearing
Systems.Zurich, 93f. A dissertation for the degree fo Doctor of
Technical Sciencess, submitted to the Swiss Federal Institute of
Techonology, Zurich, 1984.
CHAPETTA, R. A.; SANTISTEBAN, José Andrés; e NORONHA,
Roberto Firmento. Mancais Eletromagnéticos – Uma metodologia de projeto.
Anais do CONEM 2002. João Pessoa, PB, Brasil: Paper CPB 0890.
DAVID, Domingos de Farias Brito. Levitação de rotor por mancais-motores
radiais magnéticos e mancal axial supercondutor estável. Rio de Janeiro, 105f.
Tese de Doutorado em Engenharia Mecânica, COPPE/Universidade
Federal do Rio de Janeiro, Rio de Janeiro. 2000.
OGATA, Katsuhiro., Engenharia de Controle Moderno, 4ª Ed. PrenticeHall do Brasil Ltda, Rio de Janeiro.2003, 788p.
•
Com uma escolha apropriada das correntes de
polarização ibias e ipeso foi possível projetar um
único controlador do tipo PID.
SANTISTEBAN, José Andrés; MENDES, Sérgio R. Alves. Fuzzy Control
of an Axial Magnetic Bearing. Proceedings of the MAGLEV‘2000. The
16 th International Conference on Magnetically Levitaded Systems
and Linear Drives. Rio de Janeiro, RJ, Brasil, 2000.
•
Os resultados para ambos tipos de estratégias de
controle, descentralizado e centralizado,
mostraram-se satisfatórios. Contudo foi
observado que a resposta dos controladores no
modo descentralizado se mostrou mais rápida, o
que pode ser explicado pelo menor número de
cálculos envolvidos na implementação dos
controladores descentralizados.
SANTISTEBAN, José Andrés; MENDES, Sérgio R. Alves ;
SACRAMENTO, Daniel S. A Fuzzy Controlled Electromagnetic Axial
Bearing. Proceedings of COBEM 2003. 17th International Congress
of Mechanical Engineering. São Paulo, SP, Brasil, 2003.
•
A divisão do sistema em subsistemas, caso
descentralizado, apresenta grande vantagem aos
projetistas, proporcionando maior rapidez das
operações e facilidade de implementação.
•
Os resultados aqui mostrados servirão para
comparação com outras estratégias de controle.
SANTISTEBAN José Andrés; NORONHA, Roberto Firmento;
DAVID, Domingos; PEDROSA, José Francisco. Dimensionamento
Mecânico, Fabricação e Montagem de um Protótipo de Motor Elétrico Suportado
por Mancais Magnéticos. In: III Congresso Nacional de Engenharia
Mecânica. CONEM 2004, 2004, Belém, Pará.
SCHWEITZER G.; BLEULER H.; TRAXLER A. Active Magnetic Bearings,
v/d|f Hochschulverlag AG an der ETH Zürich, 1994.
VELANDIA, Elkin Ferney Rodriguez; SANTISTEBAN José Andrés;
NORONHA, Roberto Firmento; SILVA, Victor A. Paiva. Development
of a Magnetically Borne Electrical Motor Prototype. Proceedings of COBEM
2005. 18th International Congress of Mechanical Engineering. Ouro
Preto, Minas Gerais, Brasil, 2005.
VELANDIA, Elkin Ferney Rodriguez. Observador de Estado para a
Estimação de Posição em Mancais Magnéticos. Niterói, 137f. Dissertação
de Mestrado em Engenharia Mecânica, Universidade Federal
Fluminense, PGMEC, Niterói, 2005.
AGRADECIMENTOS
Ao CNPq pelo suporte financeiro a este trabalho.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 9-15
15
ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU
Análise da variação da tensão gerada e do
estado de magnetização em um gerador com
ímãs permanentes
André Camargo Mathiazzi
Engenheiro Eletricista – Centro Tecnológico da Marinha em São
Paulo.
E-mail: [email protected]
Ivan Eduardo Chabu
Professor da Escola Politécnica da Universidade São Paulo
Resumo
Visando analisar o comportamento de um gerador de ímãs
permanentes operando sob carga variável e quantificando o
correspondente estado de seus ímãs, desenvolveu-se um
protótipo com desenho propício à adaptação para
aerogeradores. Como o objetivo é o estudo do
comportamento da magnetização dos ímãs permanentes nos
vários pontos de carga, optou-se pela utilização de ímãs de
ferrite, com valor médio da indução magnética remanente (Br)
igual a 0,39 T, facilitando a avaliação de possível
desmagnetização parcial dos ímãs instalados.
É apresentada uma abordagem analítica de estudo da
desmagnetização dos ímãs permanentes do gerador, bem
como um levantamento experimental do mesmo.
Palavras-chave
Gerador elétrico, ímãs permanentes.
Analysis of generated voltage variation and
magnetization condition in a permanent
magnetics generator
Abstract
Aiming to analyze the performance of a permanent magnet
generator, operating under changeable charge and
quantifying the corresponding condition of its magnets, we
have developed a prototype adaptable to air generators. As
one of the purposes of this work is to study the magnetic
performance of the permanent magnets in several points of
charge, we have chosen ferrite magnets with average
density of permanent magnetic field (Br) of 0.39 T, which
eases the rating of total or partial demagnetization of the
installed magnets.
An analytic approach of demagnetization of the generator’s
permanent magnets is presented, as well as an
experimental survey of it.
Keywords
Electrical generator, permanent magnet.
16
INTRODUÇÃO
A utilização de geradores contendo ímãs permanentes
torna-se interessante nas aplicações onde a simplicidade
e robustez, tanto da máquina como dos circuitos
associados, é um fator importante e determinante do
baixo custo. Notadamente em pequenos
aerogeradores, para uso em locais remotos e sem
assistência técnica, tal configuração se mostra atrativa,
bastando um agente externo para impor movimento
ao sistema. Dentro desse contexto, os ímãs
permanentes enquanto fontes de campo magnético
do gerador são os objetos de maior cuidado e
preocupação, especialmente no tocante à possibilidade
de desmagnetização, que é um fator que degrada a
capacidade de geração da máquina. Com as atuais
tecnologias de fabricação de ímãs permanentes, obtémse compostos (terras-raras) cuja indução magnética
atinge valores bem significativos, acima de 1,0 T [5]
[7]. Neste trabalho, no entanto, optou-se por utilizar
ímãs de ferrite, mais especificamente com estrôncio
em sua formulação, com indução magnética da ordem
de 0,39 T.
A opção por ímãs de ferrite tem base no aspecto custo
e também na disponibilidade de fornecimento,
especialmente no Brasil. Embora máquinas com ímãs
mais nobres tornem-se mais compactas e com maior
disponibilidade de potência, o custo elevado e também
as dificuldades de manuseio durante a montagem
limitam seu emprego nessa aplicação.
Logo, a limitação imposta pela reação de armadura
na desmagnetização [3] dos ímãs é um ponto que
merece atenção no projeto e utilização de máquinas
com esse meio de excitação. Este aspecto deve ser
levado em consideração no projeto da máquina,
visando determinar o ponto de operação [4] [5] limite
até onde o risco de desmagnetização irreversível dos
ímãs passe a ser considerável. Neste trabalho é
apresentada uma metodologia de resolução do circuito
magnético com valores referidos aos ímãs
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22
SISTEMAS DE ARMAS E MUNIÇÕES
permanentes, onde o efeito da reação de armadura
sobre a tensão gerada é considerado, bem como o
efeito desmagnetizante da mesma sobre o estado dos
ímãs.
OBJETIVO
Estabelecer metodologia de análise e cálculo da
variação de tensão gerada com a carga acoplada a
partir de um protótipo de gerador constituído de ímãs
permanentes, observando concomitantemente os
efeitos causados sobre a magnetização dos ímãs,
confrontando dados obtidos a partir do ensaio do
protótipo e cálculos analíticos desenvolvidos.
FIGURA 1
Ilustração do gerador desenvolvido
METODOLOGIA
Originalmente concebido para uso como aerogerador,
com potência nominal de 400 W com rotação de 1000
RPM. A sua potência máxima é de 800 W com rotação
de 1300 RPM (Figura 1).
A partir da escolha das lâminas do estator interno ao
rotor, disponíveis comercialmente e amplamente
utilizadas em ventiladores de teto, desenvolveu-se as
demais especificações deste protótipo. Possuindo estas
lâminas 32 ranhuras, utilizou-se 16 bobinas (Figura1),
optando-se por realizar uma ligação quadrifásica,
sendo, portanto, 04 bobinas por fase com ligação em
série e cada bobina constituída por 140 espiras em fio
de cobre esmaltado com condutor duplo em paralelo,
bitolas iguais 24AWG (2x24AWG). Existem 08 pólos
constituídos por ímãs permanentes de ferrite de
estrôncio, sendo cada um formado por 05 ímãs unidos
entre si e com mesmo sentido de magnetização,
alternando este sentido entre os pólos.
Este gerador possui saída retificada (Figura 2).
Dados referentes à operação em condições normais
(regime):
P = 400W ; ù = 1000 RPM ; V = 350 Vdc ; n° de
fases – 04 ; n° de pólos – 08;
FIGURA 2
Diagrama de ligações do gerador quadrifásico
Considerando o diâmetro do estator interno ao rotor
com o valor de 161,2 mm, a partir das lâminas
mencionadas, adota-se a utilização de ímãs de ferrite
de estrôncio com indução magnética remanente (Br)
da ordem de 0,39T.
A partir dos dados acima, admite-se como referência:
Bg H” 0,25 T
q H” 15000 Acond/m
onde:
Bg = densidade de campo magnético no entreferro
(gap)
q = densidade linear de corrente
Dados referentes à operação em condições de pico:
Calculando o conjugado a partir dos valores de
referência:
P = 800W ; ù = 1300 RPM ; n° de fases – 04 ; n° de
pólos – 08;
C = (2 π ).Bg.(D/ 2).L.i médio.Zc
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22
(1)
17
ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU
onde:
D = diâmetro das chapas do estator;
Zc= quantidade de condutores dispostos na direção
do eixo z;
gerador estudado, os quais serão obtidos graficamente
(Figura 5), e da curva a ser obtida entre pontos
discretos de fluxo magnético (Figura 6).
L = comprimento do pacote de lâminas do estator;
imédio = corrente média de um semi-ciclo
Apresentando em função da densidade de corrente
linear (q) , obtém-se:
P = C.ù =, onde:
(2)
Ù = velocidade angular (RPM);
n = rotação (Hz).
Então, definindo o valor do produto D2.L a partir
dos dados admitidos, tem-se:
P = (4. 2 . B g .q ).D2 L.n = C 0 . D2 L.n
FIGURA 3
Vista explodida e em corte longitudinal do gerador
(3)
Então:
C0=4. 2 .0,25.15000 = 21213 ùs
Portanto:
P = C 0 .D2 L.n Þ D2 .L =
P
C 0 . ωs
Admitindo o pico de carga adotada, tem-se:
D 2 .L =
P
800
=
C 0 . ω s 21213.(1300 60)
Fixando o valor de D = 161,2mm, obtém-se o
comprimento do pacote de lâminas:
Passo da Ranhura=15,90mm
FIGURA 4
Apresentação de corte setorial de chapa de ferro silício
(SAE-1006)
L ≈ 70 mm.
Portanto, tendo especificado um gerador com rotor
externo, sendo o diâmetro interno do rotor de
184,40mm, já considerando entreferro de 1,5mm e a
altura de 10mm dos ímãs, a vista explodida do
conjunto é apresentada a seguir (Figura 3), para melhor
visualização.
Adotou-se a lâmina (Figura 4) estampada em aço SAE1006, tendo outros dados nesta indicados.
Com o auxílio de um equipamento apropriado,
(permeâmetro) desenvolveu-se ensaio para
caracterização de uma amostra dos ímãs montados
no protótipo desenvolvido [6]. Esta necessidade
justifica-se para obtenção dos pontos de operação do
18
FIGURA 5
Ciclo de Histerese do ímã estudado, ferrite de estrôncio
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22
SISTEMAS DE ARMAS E MUNIÇÕES
Para obtenção do ponto de operação do gerador,
conforme circuito magnético apresentado (Figura 4),
calcula-se simultaneamente, para dois valores aleatórios
de fluxo magnético, a curva de operação do gerador
estudado em vazio que apresentará o Ponto de
Operação em vazio. A partir desta, pode-se obter
outros pontos de operação relacionados à carga, ou
seja, pode-se obter a interseção entre a curva de
operação dos ímãs e do gerador, com o objetivo de
observar o comportamento dos ímãs citado em relação
à carga alimentada.
ainda:
Adotando-se Φp = 0,56mWb como primeiro valor
escolhido de fluxo por pólo para cálculo da indução
magnética do entreferro(Bg) [2], tem-se:
Para o cálculo do Fator de Carter, tem-se:
Bg=
Φp
τp.L.Kf
δ=
(bs lg )2
5 + bs / lg
ou seja:
bs = 2,5.10-3 m = abertura da ranhura
então:
δ = 0,42
τs = passo de ranhuras (Figura 2), que pode ser
calculado como demonstrado abaixo:
2πR
(4)
(7)
τs = n°ranhuras
(8)
onde o número de ranhuras é 32, tem-se:
onde:
R = raio da lâmina = 80,60 .10-3 m
τp = passo polar no entreferro = π.D/2.p , sendo:
τs = 15,90 mm
D = diâmetro e p = número de pares de pólos
Finalmente, tem-se:
= 63,90.10 m
Kg = 1,04
Kf = B médio / B pico ~2/ π = fator de forma de
distribuição do campo no entreferro
Kf = 0,637
Com os dados acima, pode-se calcular a Força
Magneto Motriz no entreferro para o valor de indução
calculado (Bg):
L = comprimento dos ímãs do pólo
Fg = 248,30 A
L = 75.10-3 m
Analogamente ao desenvolvimento analítico
demonstrado, procedem-se os cálculos para os outros
componentes do circuito magnético (Figura 4), ou seja,
força magnetomotriz nos dentes do estator (Fds), na
coroa do estator (Fcs) e na coroa do rotor (Fc). Em
posse desses valores, tem-se que a força
magnetomotriz total solicitada do ímã, através da soma
dos valores obtidos de forças magneto motrizes nos
componentes do gerador estudado é:
-3
Portanto:
Bg = 0,20 T
Com os dados acima, pode-se calcular o valor da
força magnetomotriz no entreferro:
Bg
Fg = µ0 . lg .Kg
(5)
Ftotal = Fc+Fcs+Fds+Fg
onde:
Ftotal = 277,30 A
lg = comprimento do entreferro
Referindo-se ao ímã, tem-se:
lg = 1,5.10-3 m
Ftotal = Fímã
Kg = Fator de Carter[1]
Kg =
τs
τs - lg.δ
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22
Portanto:
(6)
Hímã = 27,73 kA/m
Bímã ≅ 0,18T
19
ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU
Adotando-se agora Φp = 1,12 mWb como segundo
valor escolhido de fluxo por pólo, desenvolve-se
analogamente ao primeiro ponto adotado com o valor
de fluxo por pólo magnético, obtendo-se ao final o
valor referido aos ímãs:
Hímã = 60,80 KA/m
Conforme (12), calcula-se o valor da densidade de
campo magnético (Bímã),
Bímã0,38T
Com estes dois pontos, pode-se traçar a curva de
operação em vazio da máquina estudada (Figura 6).
Agora, a partir da curva de carga obtida e do
respectivo ponto de operação, pode-se calcular a
variação deste ponto de interseção, que é formalmente
conhecido como reação de armadura (FA) [1]:
FA =
2.q.N.I.k
π.P
FIGURA 6
Ponto de operação do gerador em vazio.
(13)
onde:
q = número de bobinas por fase = 04
N = número de espiras por fase (em série) = 560
K = fator de enrolamento = 0,894 (já considerando a
inclinação das ranhuras)
I = corrente elétrica a ser definida pela carga aplicada
P = pares de pólos do gerador = 04
Considerando os valores de corrente elétrica para
operação em carga nominal e em pico, pode-se obter
a intensidade da reação de armadura para cada um
destes:
I1= 0,91 Afase (valor de corrente nominal do gerador
estudado)
FA1 = 28,90 kA/m
I2= 1,79 Afase (valor de corrente de pico do gerador
estudado)
FIGURA 7
Pontos de estudo de operação do gerador
Adotando-se a equação (14) e com as considerações
iniciais de projeto, obtém-se o número de espiras por
bobina por fase:
V = 350 Vdc = tensão retificada
Vf = tensão por fase = 138 V
Considerando a potência de operação de pico de
800W, tem-se:
FA2 = 57,00 kA/m
Idc = 2,30 A ∴ Iac = 1,79 A
Conforme circuito apresentado (Figura 4), podem-se
obter os valores da densidade de campo magnético
graficamente (Figura 7).
E=
2 .π.f .N f K e Φ p
(14)
onde:
f = freqüência = 66,6 Hz
Nf = número de espiras/fase
20
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22
SISTEMAS DE ARMAS E MUNIÇÕES
k = fator de enrolamento = 0,894 (já considerando a
inclinação das ranhuras)
A tensão gerada por pólo em cada ponto estudado
pode ser apresentada utilizando a equação (3.16):
Φp = fluxo magnético por pólo = 0,924.10-3 Wb
E0 = tensão em vazio = 136,70 V/fase
Portanto:
N=565
560 espiras/fase
140 espiras/bobina, sendo o total de 4 bobinas por
fase, com fechamento em série.
Considerando o gerador sem ventilação forçada e a
corrente de pico, adotou-se o condutor com 0,40mm²
de seção transversal, formado pelo conjunto de 02
condutores de 24AWG, bobinados em paralelo.
Considerou-se aceitável o valor de 2,27A/mm² como
densidade de corrente para potência nominal e 4,48
A/mm² para potência de pico.
≈
O valor de E0 é menor que o original de projeto, pois
o valor de espiras por fase foi escolhido pouco menor
que o calculado, visando obter valor inteiro para
distribuição entre 04 fases.
Considerando os valores de reatância de dispersão e
resistência de fase apresentados abaixo e, ainda, fator
de potência unitário devido ao retificador, pode-se
calcular as perdas referentes aos diferentes pontos de
operação, conforme corrente solicitada.
Xd = reatância de dispersão = 27,39 Ω/fase
Rf = resistência por fase = 6,86 Ω/fase
Referindo-se ao ímã e sobrepondo conforme circuito
magnético adotado (Figura 4), pode-se calcular a
tensão gerada por fase:
A partir da equação (15), pode-se calcular a variação
no fluxo magnético devido às variações do ponto de
operação. A partir disto é possível obter a tensão
gerada.
B1ímã = 0,31 T
∆φ = [( Bvazio − Bc arg a ) Bc arg a ].φp
(15)
TABELA 1
Valores calculados
Corrente
(Adc)
0
1,30
2,53
Reação
Armadura
(kA/m)
0
28,90
57,00
Campo magnético no
ponto de operação
(kA/m)
52,00
72,60
95,48
Indução magnética no
ponto de operação
(T)
0,31
0,29
0,25
Tensão
Gerada
(Vdc)
348,10
321,11
259,23
RESULTADOS E DISCUSSÕES
Confrontação de dados obtidos e calculados:
TABELA 2
Valores obtidos e calculados
Dados obtidos
Corrente
Tensão Gerada
(Adc)
(Vdc)
0
355,68
1,30
246,38
2,53
186,38
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22
Dados calculados
Corrente
Tensão Gerada
(Adc)
(Vdc)
0
348,10
1,30
321,11
2,53
259,23
Razão (%)
(obtido/calculado)
102,18
76,74
71,90
21
ANDRÉ CAMARGO MATHIAZZI, PROF. DR. IVAN EDUARDO CHABU
Conforme dados apresentados (Tabela 2), verifica-se
a diferença do valor de tensão calculada sem carga
(Idc=0A), sendo o valor obtido através de ensaio 2,18%
superior ao calculado. Referente aos valores em carga,
verifica-se a razão entre as tensões mensuradas e
calculadas entre 20 e 30%, indicando necessidade de
aprimoramento dos cálculos para adequação do
modelo analítico desenvolvido.
CONCLUSÕES
Verificou-se desenvolvimento de modelo analítico,
através do estudo de circuito magnético apresentado
a partir de projeto de um gerador utilizando pólos
com ímãs permanentes. Através dos dados obtidos
nos ensaios, o modelo analítico desenvolvido
apresentou valor satisfatório de tensão gerada em
relação ao valor obtido, com discrepância de 2,18%.
Já nos valores em carga, os dados obtidos são
inferiores ao calculado (Tabela 2), indicando a
necessidade de melhorar o modelo analítico do
enrolamento do gerador estudado. Isto porque a carga
imposta era retirada após a obtenção de cada um dos
valores ensaiados. E observou-se que o valor da tensão
em vazio apresentou-se idêntico ao obtido antes do
início da alimentação da carga, comprovando que em
vazio o modelo analítico desenvolvido é satisfatório.
22
FIGURA 8
Apresentação do protótipo
REFERÊNCIAS
1. LIWSCHITZ, M. – “Calcolo e determinazione delle dimensioni
delle macchine elettriche”.
2. ALGER, Philip L. – The nature of polyphase induction machines.
3. SAY, M.G. – Alternating current machines.
4. IRELAND, James R. – Ceramic permanent-magnet motors.
5. NASAR, S.A., BOLDEA,I., UNNEWEHR, L.E. – Pemanent magnet,
relutance and self-synchronous motors.
6. LANDGRAF, Fernando J.G., TEIXEIRA, Júlio C., RODRIGUES,
Daniel – Apostila de curso de ímãs – aplicações, processos e
propriedades.
7. SÖDERLUND, L., ERIKSSON, J.T., SALONEN, J., VIHRIÄLÄ, H.,
PERÄLÄ,R..
8. A permanent-magnet generator for wind power applications –
IEEE – Transactions on magnetics, Vol.32, Nº4, pp.2389-2392, July
1996.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 16-22
SISTEMAS DE ARMAS E MUNIÇÕES
O desenvolvimento na área inercial – um projeto
conjunto da Marinha, Exército e Aeronáutica
Capitão-de-Fragata (EN) Nelson Luiz de Paula Menezes
Monnerat
Estado-Maior da Armada – Subchefia de Logística e Mobilização –
Divisão de Ciência e Tecnologia
E-mail: [email protected]
Nelson F. F. Ebecken
Núcleo de Transferência de Tecnologia (NTT) – Instituto Alberto
Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia (COPPE)
– Universidade Federal do Rio de Janeiro (UFRJ)
E-mail: [email protected]
Resumo
A navegação teve um papel fundamental para o
desenvolvimento da humanidade, contribuindo para o
florescimento de civilizações. A navegação, como um meio
para se chegar de um ponto conhecido a outro ponto também
conhecido, intensificou-se no mundo moderno saindo do
âmbito das embarcações marítimas e entrando nas
aeronaves, nos veículos terrestres e nos armamentos, tais
como mísseis e munições inteligentes. O Brasil tem envidado
esforços para o desenvolvimento de uma central inercial
nacional de precisão há cerca de 20 anos. Neste trabalho,
será apresentado o que é Tecnologia Inercial e suas
aplicações, bem como o esforço para o desenvolvimento
conjunto entres as três Forças Singulares (Marinha, Exército
e Aeronáutica), na visão do autor, de produtos na área de
engenharia inercial através de um projeto conjunto. São
apresentados, também, os esforços na busca por fontes de
financiamento e a tentativa de criação de uma rede de
cooperação entre os diversos Institutos de Ciência e
Tecnologia das três Forças Singulares.
Palavras-chave
Tecnologia inercial. Navegação. Sensores inerciais.
The development in the inertial technology
area – a joint project of the Navy, Army and Air
Force
Abstract
The navigation has played a major role for the humanity,
allowing the civilization to grow through commercial lines
overseas. Nowadays this importance has grown with
applications that surpace the maritime use reaching the
aerospace, land vehicles and weapons, such as missiles
and intelligent ammunition. Brazil has spent a great effort to
develop an inertial measurement unit in the past 20 years.
This work will present what is Inertial Technology, its
application and the work developed by the Navy, Army and
Air Force, as seen by the author, in this technology field.
We will also present the work done in order to find
alternative resource sources and the attempt to create a
cooperative network involving the Militar Science and
Technology Institutes.
INTRODUÇÃO
A navegação, devido a sua importância para o
transporte, foi parte fundamental para o
desenvolvimento da humanidade. O homem aprendeu
que as viagens pelos mares, rios e lagos eram um meio
conveniente para o transporte de mercadorias,
contribuindo para o florescimento de civilizações. A
navegação, como um meio para se chegar de um ponto
conhecido a outro ponto também conhecido,
intensificou-se no mundo moderno saindo do âmbito
das embarcações marítimas e entrando nas aeronaves,
nos veículos terrestres e nos armamentos, tais como
mísseis e munições inteligentes.
A navegação marítima, sem o auxílio de marcos
terrestres, teve grandes avanços ao longo da história,
valendo ressaltar o emprego de agulhas magnéticas a
partir do século XI, a navegação astronômica para o
cálculo da latitude no século XIV e o desenvolvimento
de instrumentos como o sextante, no século XVIII,
para a medição da altura dos astros.
A determinação da longitude era um problema de
mais difícil solução, uma vez que é dependente da hora
da leitura da altura dos astros. A invenção do
cronômetro, em meados do século XVIII, permitiu a
determinação com precisão do tempo decorrido a
partir do marco zero em Greenwitch e com isso a
sua correta determinação.
Em 1908, os “g yrocompasses”, ou “as agulhas
giroscópicas”, como são denominados na Marinha,
passaram a ser empregados no lugar das agulhas
magnéticas. Ao longo do século XX, foram
desenvolvidos diversos sistemas para navegação, seja
com o emprego de estações terrestres como o DECA
e o LORAN, ou de satélites em órbitas baixas como
o “Global Positioning System” (GPS).
Inertial technology, navigation, inertial sensors.
Os armamentos também passaram a exigir cada vez
mais informações para seu controle e aumento de sua
precisão e alcance. Na Segunda Guerra Mundial, as
bombas V-1 e V-2 empregaram as primeiras centrais
inerciais, marcando o início dos ar mamentos
inteligentes. A Guerra do Golfo e, mais recentemente,
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27
23
Keywords
CAPITÃO DE FRAGATA (EN) NELSON LUIZ DE PAULA MENEZES MONNERAT, NELSON F. F. EBECKEN
a Guerra dos Estados Unidos contra o Iraque
mostraram o emprego em larga escala de armas com
capacidade de execução de trajetórias configuráveis e
o uso de aeronaves não tripuláveis. Estes avanços só
foram possíveis com o emprego de sistemas de
posicionamento precisos, como o GPS, e de sistemas
de controle de atitude para correção e alteração das
trajetórias.
O século XX e o início do século XXI têm
demonstrado uma crescente necessidade de meios de
navegação automáticos e independentes de
informações externas. A guerra moderna confirma
esta necessidade por meio do emprego de
armamentos inteligentes, sejam eles mísseis, torpedos
ou projetis assistidos, bem como de plataformas
capazes de lançá-los. Torna-se imperativo o emprego
de sistemas para navegação e controle de atitude
automáticos e independentes, cenário no qual a central
inercial é uma ferramenta fundamental.
A tecnologia inercial, devido ao seu aspecto vital para
os armamentos modernos, é controlada por tratados
internacionais, valendo ressaltar o “Missile Technology
Control Regime” (MTCR). Este acordo estabelece
políticas que restringem aos países que não possuem
determinadas tecnologias, consideradas sensíveis,
adquiri-las e quem as detêm de vendê-las livremente.
A tecnologia inercial é considerada sensível e, por esta
razão, os giroscópios com precisão superior a 0,5 grau
por hora e acelerômetros com precisão superior a
1250 micro g são controlados [11] e países como o
Brasil, que ainda não detêm completamente esta
tecnologia, estão sujeitos a necessidades burocráticas
que podem dificultar em muito a aquisição destes
sensores ou equipamentos que os empregue.
O QUE É A TECNOLOGIA INERCIAL
Uma plataforma, seja ela um navio, um carro de
combate ou uma aeronave necessita de três ângulos
para identificar como está orientada no espaço. Estes
três ângulos são o balanço, o caturro e a guinada (em
inglês “roll”, “pitch” e “yaw”), denominados parâmetros
de atitude. A determinação destes parâmetros é uma
das principais aplicações de uma central inercial.
Para obter os parâmetros de atitude, uma central
inercial emprega giroscópios e acelerômetros
integrados por meio de algoritmos de controle e de
atitude. Os giroscópios são os sensores responsáveis
24
por medir as velocidades angulares e os acelerômetros
os responsáveis por medir as acelerações lineares às
quais a plataforma está sendo submetida.
Os seres humanos têm uma central inercial natural, o
labirinto, que informa constantemente se estão
deitados, de pé ou inclinados. No caso particular do
ser humano, não há interesse nos valores exatos desses
ângulos, uma vez que o cérebro controla o equilíbrio
e usa os outros sentidos para controlar ou apontar
algum objeto de interesse, como, por exemplo, uma
arma e o alvo. No caso de uma plataforma, estes
valores devem ser fornecidos para serem empregados
em sistemas de direção de tiro ou sistemas de
estabilização de armamentos e de sensores, como, por
exemplo, radares.
As centrais inerciais, quanto ao seu arranjo mecânico,
podem ser classificadas em centrais solidárias ao
veículo, mais comumente conhecidas como
“strapdown”, ou em centrais “gimbal”, suspensas num
cardã que isola os sensores dos movimentos do
veículo. Nas centrais “gimbal” os sinais dos giroscópios
são usados para estabilizar os acelerômetros em uma
atitude fixa no espaço. Os ângulos de atitude são então
lidos diretamente nos anéis do cardã e a posição pode
ser integrada a partir dos sinais dos acelerômetros.
A partir do desenvolvimento da capacidade de
processamento de dados, as centrais “strapdown”
passaram a ter um número maior de aplicações e
trabalhos de pesquisa, dado ao seu menor custo e à
sua menor complexidade de montagem, fabricação e
teste. Nestas centrais, por meio de algoritmos
computacionais, é mantido um sistema de referência
virtual fixo no espaço, a partir do qual são feitos os
cálculos para a determinação da posição e atitude do
veículo.
Com o desenvolvimento de sensores Micro-usinados
(“Microeletromechanical Systems”- MEMS), que possuem
um custo reduzido e uma precisão da ordem de
dezenas de graus por segundo, houve a proliferação
de aplicações não militares da tecnologia inercial,
como, por exemplo, os sistemas de controle de
suspensões ativas presentes em carros de Fórmula I e
em alguns modelos de luxo e esportivos, bem como
aplicações em aeromodelismo, como a estabilização
de helicópteros controlados remotamente. Em
aplicações militares, os MEMS possibilitaram o
surgimento de projetis assistidos, aumentando assim
a sua probabilidade de acerto.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27
SISTEMAS DE ARMAS E MUNIÇÕES
PROJETO CONJUNTO DAS FORÇAS
ARMADAS
experiências e conhecimentos. Isto permite que não
haja concorrência entre os partícipes e permite o
sinergismo entre as instituições.
O Brasil tem envidado esforços para o desenvolvimento de uma central inercial nacional de precisão há
cerca de 20 anos. Este trabalho iniciou-se isoladamente em cada uma das Forças Singulares, convergindo
para um projeto conjunto entre a Marinha, o Exército e a Aeronáutica a partir de 1994, quando foi elaborado o Plano de Ciência e Tecnologia das Forças Armadas (PCT/FA). Os órgãos de cada Força Singular
envolvidos neste esforço conjunto foram: o Instituto
de Pesquisas da Marinha (IPqM), o Centro Tecnológico da Marinha em São Paulo (CTMSP), o Instituto
de Estudos Avançados do Centro Tecnológico da
Aeronáutica (IEAv) e o Instituto de Pesquisa e Desenvolvimento do Centro Tecnológico do Exército (IPD).
Como fruto deste trabalho conjunto, foram
desenvolvidos sensores nacionais, protótipos de
centrais inerciais, bem como a realização de simpósios
para a discussão e apresentação dos diversos trabalhos
em andamento nas universidades e institutos de
pesquisa. Dentre estes institutos e universidades vale
ressaltar o Instituto Nacional de Pesquisas Espaciais
(INPE), o Instituto Militar de Engenharia (IME), o
Instituto Tecnológico da Aeronáutica (ITA), a
Universidade Estadual de Campinas (UNICAMP) e
a Escola Politécnica da Universidade de São Paulo
(EPUSP).
O PCT/FA, além da área inercial, contribuiu para
estimular a conquista de tecnologias sensíveis, não
disponíveis no mercado, atendendo aos interesses das
Forças Armadas e promovendo a adequação de
conhecimentos existentes em instituições de ensino e
pesquisa, principalmente, por meio da formação de
recursos humanos nas áreas consideradas essenciais
para a estrutura de defesa do País.
A criação do Ministério da Defesa levou, em 2002, à
extinção do PCT/FA e à criação do Plano Gerencial
de Pesquisa e Desenvolvimento (PGPD), de modo a
abranger as ações das Forças Singulares na área de
ciência e tecnologia.
O PGPD teve como propósitos principais: consolidar
projetos de interesse do Ministério da Defesa em ciência
e tecnologia, integrar os esforços das Forças Armadas,
órgãos do governo e instituições civis e fortalecer a
base de ciência e tecnologia nacional.
O projeto conjunto na área da tecnologia inercial, parte
integrante do PGPD, constitui-se de três subprojetos
conduzidos de forma relativamente autônoma, mas
irmanados pelo objetivo e pela certeza de que todos
os partícipes procurariam obter o melhor resultado
possível. Ele incentiva a fabricação de sensores inerciais
no país e o desenvolvimento, com capacitação técnica
nacional, do sistema como um todo.
Com a realização de simpósios e palestras, os órgãos
militares que participam do desenvolvimento na área
de tecnologia inercial, apresentam os seus resultados,
acompanham as atividades desenvolvidas e trocam
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27
ESTÁGIO ATUAL
O Brasil, por intermédio do esforço conjunto das três
Forças Armadas, está desenvolvendo sensores inerciais
e centrais inerciais para emprego nas suas diversas
plataformas, bem como para aplicações civis, como,
por exemplo, em plataformas de prospecção de
petróleo, o Veículo Lançador de Satélites (VLS) e
Veículos Aéreos Não-Tripulados (VANT).
Os giroscópios atualmente em desenvolvimento no
Brasil são o giroscópio mecânico sintonizado seco
(“Dry Tuned Gyro” – DTG) e o giroscópio a fibra
ótica (“Fiber Optic Gyro” – FOG).
O giroscópio DTG em uma determinada freqüência,
denominada freqüência de sintonia, cancela o
momento do rotor com as forças elásticas das juntas
flexíveis, fazendo com que o rotor comporte-se como
um corpo livre no espaço, por este motivo ele também
é denominado “Dynamic Tuned Gyro”. Esta
propriedade lhe permite medir as velocidades
angulares aplicadas aos dois eixos perpendiculares ao
eixo de rotação. Estes tipos de sensores estão em
desenvolvimento no Instituto Nacional de Pesquisas
Espaciais (INPE) e no CTMSP.
O giroscópio FOG, em desenvolvimento no IEAv,
tem por princípio de funcionamento o efeito Sagnac,
onde dois feixes de luz percorrem uma bobina de
fibra ótica em direções opostas. Quando uma
velocidade angular é aplicada na direção do eixo da
bobina, os percursos são diferenciados, causando assim
uma diferença de fase entre os feixes. Este efeito
25
CAPITÃO DE FRAGATA (EN) NELSON LUIZ DE PAULA MENEZES MONNERAT, NELSON F. F. EBECKEN
confere ao FOG a capacidade para medir velocidades
angulares aplicadas no eixo da bobina de fibra ótica.
FONTES ALTERNATIVAS DE RECURSOS
Os acelerômetros para emprego em centrais inerciais
em desenvolvimento no Brasil, são os Acelerômetros
Pendulares Ser vo-Controlados (APSC), cujos
trabalhos estão sendo realizados no CTMSP, e
acelerômetros baseados em fibras óticas em
desenvolvimento no IEAv. Estes sensores são capazes
de medir acelerações lineares em uma única direção.
Com o intuito de serem fontes complementares de
recursos para financiar o desenvolvimento de setores
estratégicos para o País, foram criados em 1999 os
Fundos Setoriais de Ciência e Tecnologia como
instrumentos de financiamento de projetos de
pesquisa, desenvolvimento e inovação no País. Os
recursos destes Fundos são alocados no Fundo
Nacional de Desenvolvimento Científico e
Tecnológico (FNDCT) e administrados pela
Financiadora de Estudos e Projetos (FINEP), empresa
pública vinculada ao Ministério da Ciência e
Tecnologia (MCT), nos termos do Decreto nº 1.361,
de 1º de janeiro de 1995. O Fundo para o
Desenvolvimento Tecnológico das Telecomunicações
(FUNTTEL) é a única exceção, sendo gerido pelo
Ministério das Comunicações [3].
Os ensaios de caracterização dos giroscópios e
acelerômetros, em desenvolvimento e importados,
foram realizados no IPqM, valendo ressaltar os ensaios
de caracterização de acelerômetros para emprego em
ambientes de microgravidade, de giroscópios DTG
e FOG em desenvolvimento no CTMSP e no IEAv,
respectivamente, e de APSC desenvolvidos no CTMSP.
Estes ensaios contribuíram para o aprimoramento dos
sensores e permitiram o trabalho conjunto do IPqM
e do CTMSP no desenvolvimento de uma nova
eletrônica de controle para emprego nos DTG e nos
APSC.
A integração dos sensores em uma central inercial,
incluindo para isso o desenvolvimento de circuitos
eletrônicos específicos e a implementação de
algoritmos de navegação e controle, é uma atividade
desenvolvida no IPqM, no IPD e no Instituto de
Aeronáutica e Espaço (IAE). Como realizações neste
campo, podemos citar o protótipo da Unidade de
Referência de Rumo e Atitude, realizado pelo IPqM
em parceria com as empresas NavCon e INFAX.
Com o emprego dos protótipos FOG, o IPqM
integrou o primeiro protótipo da Central Inercial com
Sensores Óticos (CISO), cuja proposta de
implementação foi apresentada no III Simpósio
Brasileiro de Engenharia Inercial (III SBEIN), em 2001,
no IME.
A Petrobras, para a solução do problema de
posicionamento dinâmico de suas plataformas de
prospecção de petróleo, tem apresentado um crescente
interesse na área inercial como um possível
desenvolvimento futuro. Atualmente, para a
monitoração de bóias de linhas de dutos, a Petrobras
está empregando sensores FOG comerciais em
centrais de posicionamento. A monitoração destas
bóias permitirá que acidentes com derramamento de
óleo no mar possam ser evitados.
26
O modelo de gestão dos Fundos Setoriais é baseado
em Comitês Gestores, um para cada Fundo. Cada
Comitê Gestor é presidido por um representante do
MCT e integrado por representantes dos ministérios
afins, agências reguladoras, setores acadêmicos e
empresariais, além das agências do MCT, a FINEP e
o CNPq. Os Comitês Gestores têm a prerrogativa
legal de definir as diretrizes, ações e planos de
investimentos dos Fundos. A partir de 2004 foi
estabelecido o Comitê de Coordenação dos Fundos
Setoriais, com o objetivo de integrar suas ações. O
Comitê é formado pelos presidentes dos Comitês
Gestores, pelos presidentes da FINEP e do CNPq,
sendo presidido pelo Ministro da Ciência e Tecnologia.
Dentre as novas medidas implementadas, cabe salientar
a implantação das Ações Transversais, orientadas para
os programas estratégicos do MCT, que utilizam
recursos de diversos Fundos Setoriais para uma
mesma ação [3].
Devido às suas aplicações em projetos não militares e
à sua característica multidisciplinar, foi apresentada uma
proposta à FINEP para a modernização do
Laboratório de Sistemas Inerciais do IPqM, através
do Fundo de Apoio ao Desenvolvimento Científico
e Tecnológico (CT-INFRA). A proposta do IPqM
foi adjudicada, tendo sido realizada a modernização
da mesa de posicionamento Contraves, ferramenta
fundamental para a caracterização de sensores inerciais,
além da instalação de um cluster de PC para emprego
em cálculos e simulações de sistemas.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27
SISTEMAS DE ARMAS E MUNIÇÕES
O projeto Sistemas Inerciais para Aplicação
Aeroespacial foi aprovado pelos comitês, recebeu R$
7,69 milhões e está sendo executado em uma parceria
do CTA com o INPE. Pretende-se envolver nesta
parceria a indústria e contribuir para a capacitação de
recursos humanos, com a formação de mestres e
doutores nessa área [6].
Outro projeto com recursos da FINEP é o
desenvolvimento de um sistema de navegação e
controle para veículos aéreos não tripulados (VANT).
O projeto conta com cerca de R$ 10 milhões e envolve
o IPqM, o Exército (IPD) e o CTA. Serão realizados
testes em vôo das versões preliminares desses sistemas,
utilizando duas plataformas ou aeronaves já existentes
– o Acauã, veículo desenvolvido pelo CTA na década
de 80 e o Harpia, da Marinha, ambos com três metros
de envergadura [7].
CONCLUSÃO
A tecnologia inercial é uma ferramenta primordial para
os ar mamentos modernos e suas plataformas
lançadoras. Esta característica faz com que seu
emprego e aquisição sejam controlados por parte
dos países detentores desta tecnologia. Os efeitos
destes controles se fazem sentir em projetos militares
e civis.
O projeto conjunto das Forças Armadas tem se
mostrado como uma ferramenta eficiente,
favorecendo as aptidões de cada instituição,
propiciando a disseminação da informação com a
realização de encontros e simpósios e a não
redundância de esforços. Como frutos desse esforço
conjunto, foram produzidos os primeiros giroscópios
nacionais, os mecânicos, os DTG do CTMSP, e os
óticos, os FOG do IEAv. Além disso, foi possível a
integração desses sensores pelo IPqM.
Há uma demanda grande de empresas nacionais, como
a Petrobras, pela tecnologia inercial, motivando, assim,
o financiamento parcial do desenvolvimento nesta área
tecnológica com recursos do MCT, por meio da
agência FINEP, como os projetos do VANT e do
SAI.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 23-27
O esforço de envolvimento de empresas nacionais e
órgãos civis de pesquisa e desenvolvimento visa a uma
maior diversificação das fontes de recurso,
desonerando o Ministério da Defesa e permitindo a
difusão da tecnologia e a formação de recursos
humanos.
Em pesquisa e desenvolvimento não são dados
“saltos” tecnológicos, mas sim “passos” consecutivos
na direção esperada e estes “passos” podem atender
às necessidades de outros órgãos ou empresas,
per mitindo o aporte de recursos para o seu
financiamento, a difusão do conhecimento e a
cooperação.
REFERÊNCIAS
1. BARBOURS, Neil e SCHMIDT, George. “Inertial Sensors
Technology Trends”. IEEE SENSORS JOURNAL, Vol.1, No.4, USA.
2001.
2. BRASIL. Comissão Assessora de Ciência e Tecnologia para a
Defesa – COMASSE. Disponível em: <https://www.defesa.gov.br/
ciencia_tecnologia/index.php?page= comissao>.
3. BRASIL. MCT – Temas em C&T – Fundos Setoriais. Disponível
em: <http://www.finep.gov.br/fundos_setoriais/fundos_setoriais_
ini.asp?codSessaoFundos=1>.
4. BRASIL. Agencia CT do Ministério de Ciência e Tecnologia.
Programa Espacial – Navegação espacial receberá investimentos dos
fundos setoriais. Disponível em: <http://agenciact.mct.gov.br/
index.php/content/view/24172.html>.
5. ______. CTA estimula veículos não tripulados. Disponível em:
<http://agenciact.mct.gov.br/index.php/content/view/31256.html.
6. BRASIL. Simpósio Brasileiro de Engenharia Inercial, III, 2001,
Anais, Rio de Janeiro: Instituto de Pesquisas e Desenvolvimento,
2001.
7. BRITTING, Kenneth. “Inertial Navigation Systems Analysis”.
Massachusetts, USA: Wiley Interscience, 1971.
8. “Military Critical Technologies List – Section 16 – Positioning,
Navigation and Time Technology”. Disponível em: < http://
www.dtic.mil/mctl/MCTL/Sec16MCTLg.pdf>.
9. LAWRENCE, A.: “Modern Inertial Technology: Navigation, Guidance,
and Control”. New York, USA: Springer-Verlag, 1993.
10. “Missile Technology Control Regime – MTCR”. Disponível em:
<http://www.mtcr.info>.
27
CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES
Atuadores magnéticos na redução da vibração para
um Rotor de Jeffcot/Laval durante a passagem pela
velocidade crítica
Capitão-Tenente (EN) Paulo Henrique da Rocha
Centro Tecnológico da Marinha em São Paulo – CTMSP
Divisão de Projetos Eletro-Eletrônicos
Av. Prof. Lineu Preste, 2468 – Cidade Universitária
CEP 05508-000, São Paulo, SP, Brasil.
E-mail: [email protected]
Michael Cláudio Porsch
Centro Tecnológico da Marinha em São Paulo – CTMSP
Divisão de Projetos Eletro-Eletrônicos
Av. Prof. Lineu Preste, 2468 – Cidade Universitária
CEP 05508-000, São Paulo, SP, Brasil
E-mail: [email protected]
Roberto Moura Sales
Escola Politécnica da Universidade de São Paulo – Poli/USP
Laboratório de Automação e Controle – LAC
Cidade Universitária – USP
CEP 05508-900, São Paulo, SP, Brasil.
E-mail: [email protected]
Resumo
INTRODUÇÃO
Sistemas de controle para atenuar a passagem pela
velocidade crítica de máquinas rotativas têm sido
largamente utilizados [2][7][6]. Em especial, os
atuadores magnéticos possuem algumas vantagens em
relação a outros tipos de atuadores, uma vez que
realizam a atuação sem a necessidade de contato físico
com o rotor, evitando assim possíveis desgastes
mecânicos. Para realização desse trabalho, cada eixo é
considerado como um sistema independente de uma
entrada e uma saída. Na Figura 1, está ilustrada a idéia
básica desse trabalho, que consiste em dois atuadores
por eixo. Através de sistemas eletrônicos, que não serão
abordados neste trabalho, os atuadores do mesmo
eixo trabalham com sinais opostos, a partir da leitura
de um sensor de posição.
Este trabalho apresenta um modelo de projeto, baseado em
atuadores magnéticos, para a redução da vibração de um
Rotor de Jeffcot/Laval apoiado em mancais mecânicos,
durante a sua passagem pela velocidade crítica. Foi
realizada uma modelagem matemática do rotor de Jeffcot/
Laval em conjunto com os atuadores magnéticos, com a
linearização em torno de um ponto de operação, para
posterior cálculo de um compensador série de avanço de
fase.
Palavras-chave
Mancais magnéticos. Atuador magnético. Rotor de Jeffcot/
Laval.
Magnetic actuators for vibration reduction of a
Rotor of Jeffcot/Laval during its critical speed
Abstract
This work presents a design model based on magnetic
actuators for the vibration reduction of a Rotor of Jeffcot/
Laval supported by mechanical bearings during its critical
speed. A mathematical model of the Rotor of Jeffcot/Laval,
including the magnetic actuators and linearized around an
operation point, is developed and a series lead phase
compensator is then designed.
Keywords
Magnetic bearing. Magnetic actuator. Rotor of Jeffcot/Laval.
28
FIGURA 1
Idéia básica do atuador magnético.
MODELAGEM MATEMÁTICA DO ROTOR
DE JEFFCOT/LAVAL
Nesta seção, será realizada a modelagem matemática
de um Rotor de Jeffcot/Laval. Para isso, será tomado
como base o Rotor de Jeffcot/Laval [1][3][4],
mostrado na Figura 2, apoiado em mancais mecânicos.
Será suposto que esse rotor tem massa M, eixo flexível
com constante de flexão do eixo K e constante de
amortecimento C.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34
SISTEMAS DE ARMAS E MUNIÇÕES
a) Rotor de Jeffcot/Laval
A resposta r, em função da rotação w, é conhecida
como resposta ao desbalanço. Essa resposta ao
desbalanço será utilizada futuramente para calcular a
corrente DC que será aplicada ao atuador magnético.
Visando uma otimização do projeto, algumas
simulações da resposta ao desbalanço foram realizadas
através do programa Matlab e estão apresentadas na
seção VI desse trabalho.
b) Vista de frente
Função de Transferência:
FIGURA 2
Rotor de Jeffcot/Laval [1].
Baseado na Figura 2, é possível escrever as equações
ìSFRz
í
îSFRy
ìd2
(z + a. cos w .t )+ C. dz + K .z = 0
=0 ï
ï dt 2
dt
Þí
Þ
= 0 ïd 2
dy
(y + a. cos w .t )+ C. + K . y = 0
ïdt 2
dt
î
ì ..
.
ï
ï M . z + C. z + K .x = M .w 2 .a. cos(w .t )
í
ï ..
.
2
ï
îM . y + C. y + K . y = M .w .a. sen(w .t )
..
(1) + y (0) + C.Y ( s).s + y (0) + K .Y ( s) = F ( s)
Ry
Considerando as condições iniciais nulas, a função de
transferência será dada por [5]
G (s) =
ï
ï
w 2 .a
. cos(w .t - f)
ïz =
2
2
ï
æ w ö
æK
2ö
ç - w ÷ + çC. ÷
ï
M
è Mø
è
ø
ï
2
ï
w .a
ï
. sen(w .t - f) Þ
íy =
2
2
ï
æ w ö
æK
2ö
ç - w ÷ + çC. ÷
ï
M
ø è Mø
è
ï
ï
æ
ö
ç
÷
ï
.
w
C
÷
ïf = tg - 1 ç
ç æK
÷
ï
2ö
ç
M .ç - w ÷÷
ï
ç
÷
ï
øø
è èM
î
Y (s)
1
=
F ( s ) M .s 2 + C.s + K
(3)
MODELAGEM MATEMÁTICA DO ROTOR
DE JEFFCOT/LAVAL COM O ATUADOR
MAGNÉTICO
(2)
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34
.
M . y + C. y + K . y = FRy Þ M .Y ( s ).s 2 + y (0).s +
que têm como solução
ì
w 2 .a
ïr =
2
2
ï
æ w ö
æK
2ö
ç - w ÷ + çC. ÷
ï
èM
ø è Mø
ï
ï
r = z2 + y2 Þ í
æ
ö
ç
÷
ï
C.w
÷
ïf = tg - 1 ç
ç æK
ï
ö÷
ç
M .ç - w 2 ÷÷
ï
ç
÷
ï
øø
è èM
î
Para se obter a função de transferência para cada eixo
do rotor de Jeffcot/Laval, basta aplicar a
transformada de Laplace nas equações (1). Como as
duas equações são idênticas, a menos de uma
defasagem de 90o, será considerada apenas a equação
de um dos eixos. Sendo assim
Uma vez obtido o modelo matemático para um
Rotor de Jeffcot/Laval, será feita nessa seção a inclusão dos atuadores magnéticos, de forma a realizar uma modelagem matemática que levará em
consideração o sistema completo, ou seja, o Rotor
de Jeffcot/Laval e os atuadores magnéticos. Para
isso, será suposto que o rotor esteja com ω=0 e que
um dos atuadores sofra um incremento infinitesimal
∂ I na corrente Io, sendo este mesmo valor diminuído na bobina do atuador oposto. Com isso, um
deslocamento infinitesimal ∂x, do rotor, será detectado. Na Figura 3 é possível visualizar esse processo.
29
CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES
ou manipulando matematicamente
..
¶x=
Km
M
é(I o + ¶I )2 (I o - ¶I )2 ù C . K
.¶ x .¶x (6)
ê
ú2
2
M
ê
ë(x o - ¶x ) (x o + ¶x ) ú
û M
Assim, a eq. (6) é o modelo matemático completo do
Rotor de Jeffcot/Laval com os atuadores magnéticos.
Como pode ser observado, esse sistema não é linear
e, portanto, para se calcular o compensador série de
avanço de fase, deve ser linearizado de modo a
possibilitar que as teorias de controle clássico possam
ser aplicadas. Essa linearização será apresentada na
próxima seção.
FIGURA 3
Rotor de Jeffcot/Laval sendo deslocado em dx devido a
uma diferença de dI nas correntes do atuadores
Da teoria de eletromagnetismo, a força magnética que
atua em um objeto é diretamente proporcional ao
quadrado da corrente e inversamente proporcional à
distância ao quadrado. Desta forma, é possível
escrever [6][7]
LINEARIZAÇÃO DO SISTEMA
COMPLETO
Uma vez obtido o modelo matemático da eq. (6),
será feita a sua linearização em torno de um ponto de
operação. Por facilidade de cálculo, antes da
linearização, a eq. (6) será escrita na forma de equações
de estado.
Para isso, serão consideradas como variáveis de estado
FMag = K m .
I2
gap 2
(4)
onde: FMag = Força eletromagnética, Km = Constante
do atuador, I = corrente da bobina do atuador, gap =
distância da bobina ao objeto. Realizando o
equacionamento das forças que atuam no rotor parado
(ω=0) da Figura 4, com a diferença de corrente ∂ I
nos atuadores, tem-se
..
é(I + ¶I )2 (I o - ¶I )2 ù
FR = m. x = K m ê o
ú
2
(xo + ¶x )2 úû
ê
ë(x o - ¶x )
(5)
Porém, novas forças irão atuar quando o rotor estiver
com uma rotação angular w. Essas forças já foram
modeladas na eq. (1). Sendo assim, quando o rotor
estiver com uma rotação w, utilizando os modelos
matemáticos definidos nas eqs. (1) e (5) é possível
escrever
..
.
é(I + ¶I )2 (I o - ¶I )2 ù
Km ê o
=
M
.
¶
x
C
.
¶
x
- K .¶x
ú
2
2
ê
ë(x o - ¶x ) (x o + ¶x ) ú
û
30
x1 = ¶x
.
e x2 = ¶ x .
As variáveis de entrada e saída serão ∂ I e ∂ x,
respectivamente. Logo, as equações de estado serão:
.
ì
ï f1 = x1 = x 2
ï
ï
í
.
ï
Km
ï f 2 = x2 =
M
ï
î
é (I o + u )2
(I o - u )2 ù- C .x - K .x
ê
ú
2
1
2
2
M
ê
ë(xo - x1 ) (xo + x 2 ) ú
û M
Para se obter as matrizes de estado linearizadas, calculase o Jacobiano, Jx, como
æ ¶f1
ç
¶x
Jx = A = ç 1
ç¶f 2
ç¶x
è 1
¶f1
¶x2
¶f 2
¶x2
ö
æ ¶f1
÷
ç
÷; J = B = ç ¶u
u
÷
ç¶f 2
ç
÷
è ¶u
ø
ö
÷
æ
÷ e C = ç¶f 2
ç¶x
÷
è 1
÷
ø
¶f1 ö
÷
¶x1 ÷
ø
São assim obtidas as seguintes matrizes de estado
linearizadas em torno de um ponto de operação do
sistema rotor de Jeffcot/Laval com atuadores
magnéticos
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34
SISTEMAS DE ARMAS E MUNIÇÕES
0
æ
ç
2
é
(
)
2
.
2.(I o - u )2 ù K
+
K
I
u
A=ç m .
+
ê o
úç M ê (x - x )3
(xo + x1 )3 úû M
ë o 1
è
æ
ç
B = çK m
çM
è
1
C
M
Vale a pena ressaltar que o sistema completo não está
levando em consideração o ganho do sensor de
posição. Esse ganho dependerá do tipo de sensor
utilizado (sensor óptico, indutivo, etc...) e do seu circuito
eletrônico de condicionamento do sinal analógico.
Portanto, a função de transferência (8) ficará melhor
representada se for inserido no numerador o ganho
do sensor, ou seja,
ö
÷
÷
÷
ø
0
ö
é 2.(I o + u ) 2.(I o - u ) ù÷C = (1 0 )
.ê
+
ú÷
2
2 ÷
ê(xo - x1 ) (xo + x1 ) û
úø
ë
Como foi suposto um incremento infinitesimal de ∂ I
e ∂ x, ou seja, u = ¶I @0 e x1 = ¶x @0 , as matrizes
anteriores podem ser redefinidas como
0
æ
ç
2
A = ç K m .é4 I o ù- K
ê
3
çM êx ú
ú M
ë o û
è
Km
O termo M
1
C
M
æ
ö
ç
÷
B
=
,
çK m
÷
çM
÷
è
ø
0
ö
é4.I o ù÷C = (1 0 )
.ê 2 ú÷
ê xo û
ú÷
ë
ø
é4 I 2 ù
.ê 3o ú é conhecido como anti-mola e
ê xo û
ú
ë
seu valor deve satisfazer:
K m é4 I o2
.ê 3
M ë
ê xo
ù
K
ú <<
M
ú
û
(7)
Essa condição será levada em consideração para o
cálculo da função de transferência para o projeto do
compensador série de avanço de fase.
OBTENÇÃO DA FUNÇÃO DE
TRANSFERÊNCIA
Uma vez que o sistema foi linearizado em torno de
um ponto de operação e foram obtidas as matrizes
de estado, tem-se para a função de transferência [5]
-1
G ( s ) = C.(s.I - A)
é
êK m
ê
M
ê
ë
0
é4 I o2 ù K
.ê 3 úê
ë xo ú
û M
Þ G (s) =
é
ê é1 0ù
.B = [1 0]ês.ê
0 1ú
û
ê ë
ë
-1
1 ùù
C úú
úú
M úú
ûû
é
K
.ê
ê m
M
ê
ë
+ ( x o3 .C ) s -
0
ù
é4.I o ùú
.ê 2 úú
ê
ë xo ú
ûú
û
4.K m .I o2
4.xo .K m .I o .Gsen sor
( xo3 .M ).s 2
(9)
+ ( xo3 .C ) s - 4.K m .I o2 + K .xo3
Para as simulações, será necessário determinar os
valores da corrente Io e de G sensor. Para isso serão
utilizadas a resposta ao desbalanço e o gráfico de Bode
de (8) para calcular Io e Gsensor, respectivamente.
PROJETO DO COMPENSADOR
Para calcular o compensador, deve-se ter em mente
que, como G(s) foi linearizado em torno de um ponto
de operação, essa função de transferência varia em
função dos valores escolhidos de xo e Io. Portanto, para
se calcular um compensador, a partir de agora serão
utilizadas as equações anteriores para um rotor de
Jeffcot/Laval fictício. Sendo assim, serão escolhidos
os valores abaixo para o rotor de Jeffcot/Laval, para
os quais a inequação (7) é satisfeita. Os valores de K,
Km, C, a, M, Io e xo, são:
M = 0,50[Kg ], C = 50[Kg / s ], K = 10 6 Kg / s 2 , a = 1´ 10 - 3 [m]
Quanto ao atuador magnético, foi escolhido Km=10-1
[N.m2 / A2] . Para se determinar xo e Io, será necessário
analisar a resposta ao desbalanço do Rotor de Jeffcot/
Laval para os valores de M, C, a e K escolhidos.
Determinação de xo:
Substituindo-se os valores de M, a, K e C na equação
da resposta ao desbalanço (2), tem-se
(8)
r=
4.x o .K m .I o
( x o3 .M ).s 2
G (s) =
+ K .x o3
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34
w 2 .a
2
2
æK
æ w ö
2ö
ç - w ÷ + çC. ÷
èM
ø è Mø
Þ r=
w 2 .10 - 3
(2.10
6
) + (100.w )
- w2
2
2
(10)
31
CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES
A resposta ao desbalanço, para esse Rotor de Jeffcot/
Laval fictício, está representada na Figura 4. Como
pode ser obser vado, a máxima amplitude do
deslocamento ocorre na freqüência crítica e sendo
aproximadamente 1,4 cm. Com isso, o valor de xo
deverá ser superior a esse máximo deslocamento. Ou
seja, para evitar que o rotor tenha um contato físico
com os atuadores, será necessário que xo > 1,4 cm.
Neste trabalho, o valor escolhido é de 1,5 cm.
Determinação de Io:
No ponto de operação, a força magnética tem que se
equilibrar com a força externa que age no Rotor de
Jeffcot/Laval quando este está com uma velocidade
angular ω. Como a função do atuador magnético é
minimizar o efeito do desbalanço durante a passagem
pela velocidade crítica, o módulo da força magnética
deverá ser igual ao módulo da força externa do rotor
de Jeffcot/Laval quando este estiver na velocidade
crítica (condição que ocorrerá o maior deslocamento
no eixo). Ou seja, da equação (1) e da equação (4), é
possível determinar Io como
Km.
I o2
xo2
=
M .a.w n2
w n2 =
K
M
¾¾
¾ ® I o = xo .
a.K
Km
FIGURA 4
Resposta ao desbalanço do Rotor de Jeffcot/Laval
fictício
(11)
Substituindo-se os valores de a, K, Km e xo, determinase a corrente Io como sendo 1,5A.
Determinação de G(s):
Sendo assim, substituindo-se os valores de xo, Io, Km,
M, K e C na eq. (9), G(s) será dado por
G (s) =
0,009.Gsen sor
-6
1,687.10 .s 2 + 1,7.10 - 4 .s + 2,475
Inicialmente, suponha que o ganho do sensor seja 1.
A Figura 5 mostra o diagrama de Bode de G(s),
correspondente. Todos esses resultados foram gerados
no software Matlab/Simulink
FIGURA 5
Diagrama de Bode de G(s) com Gsensor = 1. Pode ser
observado que wn » 1400 rad/s
Como pode ser observado, o traçado de Bode está
atenuado de 48 dB. Desta forma, será possível
determinar o ganho do sensor como sendo
20. log10 (Gsen sor ) = 48 Þ Gsen sor = 10
20
@250
Sendo assim, com Gsensor = 250, G(s) será
G (s) =
32
48
2,25
-6
2
1,687.10 .s + 1,7.10 - 4 .s + 2,475
(12)
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34
SISTEMAS DE ARMAS E MUNIÇÕES
O novo diagrama de Bode é apresentado na Figura 6.
FIGURA 6
Diagrama de Bode de G(s) com Gsensor = 250
Cálculo do compensador série de avanço de fase
Uma vez obtida a função de transferência do sistema
completo, é possível calcular o compensador série de
avanço de fase. Várias são as técnicas para se realizar
um projeto de controle, como por exemplo: H ∞,
controle adaptativo, controle robusto, ajustes dos
parâmetros de um controlador PID, compensação
em avanço, etc... Como o objetivo desse trabalho não
é realizar uma discussão aprofundada sobre as técnicas
de projeto de controle, optou-se por realizar um
projeto de um compensador série de avanço de fase,
seguindo um roteiro prático apresentado pela literatura
clássica de controle [5]. Uma função de transferência
genérica para um compensador série de avanço de
fase é dada por
H (s) = k.
(s + z)
( s + p)
Basicamente, o roteiro de estimativa de projeto de
um controlador série de avanço de fase estabelece que
a máxima fase do compensador tem que estar
sincronizada com o pico de ressonância da planta. Para
garantir esse sincronismo, basta fixar o pólo e o zero
como sendo
z=
wn
10
e p = w n . 10
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34
O valor de k será ajustado durante as simulações em
malha fechada. Na Figura 7, são apresentados os
diagramas de ganho da planta e ganho e fase do
compensador de avanço de fase.
FIGURA 7
Idéia básica do compensador série avanço de fase [5].
Portanto, já foi visto que, para o Rotor de Jeffcot/
Laval adotado, ωn ≈ 1400 rad/s. Logo, uma primeira
estimativa para H(s) é
H (s) = k.
( s + 440)
( s + 4400)
Na Figura 8, apresenta-se um diagrama de blocos para
o sistema em malha fechada que será utilizado para o
ajuste de H(s).
FIGURA 8
Diagrama de blocos do sistema em malha fechada
A função de transferência em malha fechada do sistema
completo, rotor Jeffcot/Laval, atuador magnético e
compensador série é dada por
r (s)
G (s)
=
x( s ) 1 + G ( s ).H ( s )
33
CAPITÃO-TENENTE (EN) PAULO HENRIQUE DA ROCHA, MICHAEL CLÁUDIO PORSCH, ROBERTO MOURA SALES
Logo, como já foram estabelecidos G(s) e uma
estimativa de H(s), um programa no Matlab/Simulink
foi implementado para se ajustar o k do compensador
quando se realiza a análise do sistema completo em
malha fechada.
Os gráficos seguintes são resultados do programa
acima.
Desta forma, após diversas simulações, foi possível
estimar o valor de k = 1. Com isso, o compensador
série de avanço de fase foi projetado. A implementação
física desse compensador pode ser feita com
componentes analógicos ou utilizando-se de técnicas
digitais.
CONCLUSÃO
Este trabalho apresentou uma técnica de atenuação
de passagem pela velocidade crítica para um Rotor
de Jeffcot/Laval utilizando atuadores magnéticos. Para
esse rotor adotado, houve uma atenuação de 11dB na
resposta ao desbalanço quando colocado em malha
fechada com o compensador série de avanço de fase
calculado.
FIGURA 9
Diagrama de Bode do Compens
Como pôde ser observado, focaram-se apenas alguns
dos aspectos relevantes. Vale a pena ressaltar que a
técnica aqui descrita, para atenuação da vibração, pode
ser aplicada no caso de sistemas mais complexos, que
incluam, por exemplo, a modelagem do acoplamento
entre os eixos.
REFERÊNCIAS
1. RAO, J.S., “Rotor Dynamics”, Willey Eastern, 1984;
2. BLEULER, H., “Decentralized Control of Magnetic Rotor Bearing
Systems”, A dissertation submitted to the Swiss Federal Institute of
Technology, Zürich, for the degree of Doctor of Technical Sciences,
1984.
3. WEBER, Hans I., “Tópicos especiais em dinâmica de Máquinas –
Dinâmica de Rotores”, Apostila do Departamento de Eng. Mecânica
da Unicamp, 1976.
4. PEREIRA, J.C., “Introdução à Dinâmica de Rotores”, Apostila do
Departamento de Engenharia Mecânica da UFSC, Florianópolis, 2003.
5. OGATA, K, “Engenharia de Controle”, 2a edição, Prentice Hall,
1993.
FIGURA 10
Diagrama de Bode comparativo entre o sistema em
malha aberta e o sistema em malha fechada. Observa-se
uma atenuação da amplitude de ressonância de 11 dB.
34
6. PORSCH, M.C, “Projeto de um sistema de controle para um
Rotor apoiado por mancais magnéticos”, Tese de Mestrado, PoliUSP/Elétrica, 1996.
7. ALVES, J.S.; Betti, F; Pierri, P.S.; Porsch, M.C., “Sistemas de Controle
para mancais magnéticos Ativos”, I Simpósio de Automática Aplicada,
São Paulo, 1996.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 28-34
35
CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO
Análise de métodos para a classificação de sinais
acústicos submarinos utilizando tons característicos
Cleide Vital da Silva Rodrigues
Instituto de Pesquisas da Marinha (IPqM)
E-mail: [email protected]
William Soares Filho
Instituto de Pesquisas da Marinha (IPqM)
E-mail: [email protected]
Resumo
Este trabalho apresenta a aplicação de métodos para a
classificação de sinais acústicos submarinos, utilizando as
freqüências dos tons característicos e a rotação por minuto
(RPM) dos eixos propulsores para cada corrida da
plataforma. Os métodos utilizados se baseiam na função de
distância e nas redes neurais artificiais. Estes métodos
foram aplicados a um conjunto de sinais provenientes de
navios pertencentes a sete classes distintas contendo
vários tons característicos. Classificadores foram obtidos
para identificar diferentes números de classes e de tons e
seus desempenhos comparados.
Palavras-chave
Sonar passivo. Classificação. Redes neurais. Tons
característicos. Sinais acústicos submarinos.
Analysis of methods for the classification of
underwater acoustic signals using
characteristic tonals
Abstract
This work presents the application of neural networks for
the classification of underwater acoustic noise radiated
from several vessels using frequencies of characteristic
tonals and revolutions per minute (RPM) of the propeller
shafts from each vessel run. The neural network
implemented is the multilayer perceptrons with
backpropagation training and hyperbolic tangent activation
functions. This method was applied to the data set which
consisted of samples for seven different classes with
several characteristic tonals. Neural classifiers studied
were obtained for the classification of different number of
classes and tonals and their performances were compared.
keywords
Passive sonar. Classification. Neural networks.
Characteristic tonals. Underwater acoustic signals.
INTRODUÇÃO
Em um sistema de classificação de contatos, a
disponibilidade de ferramentas adequadas para auxiliar
o operador sonar (OS) é de extrema importância.
Informações obtidas pelas análises LOFAR (LOw
Frequency Analysis and Recording), DEMON
(DEModulation On Noise) e Áudio possibilitam ao
OS identificar a classe à qual pertence a plataforma. A
associação automática entre as informações obtidas
por estas análises e as obtidas no passado aumenta a
rapidez e a confiabilidade com que o OS toma suas
decisões [1-4].
O sistema de classificação (SCC 1 – Sistema de
Classificação de Contatos Sonar), atualmente
empregado na MB, disponibiliza, além das análises
LOFAR, DEMON e Áudio, uma ferramenta de
classificação automática baseada em redes neurais, que
utiliza o espectro, em toda a banda de freqüência,
obtida pela análise LOFAR. Para o aprimoramento
deste sistema, uma alternativa é a obtenção de uma
ferramenta capaz de estabelecer uma relação entre as
freqüências dos tons característicos, obtidos através
da análise LOFAR, e a RPM dos eixos propulsores,
obtida pela análise DEMON do ruído de um contato.
Neste trabalho, investigaremos possíveis
classificadores, tendo como dados de entrada as
freqüências de tons característicos e a RPM dos eixos
propulsores extraídas do ruído de uma plataforma.
Através dos gráficos Freqüência X RPM, constatouse a existência de padrões entre a freqüência e a RPM
para cada uma das classes. Determinados tons
apresentam freqüências que podem estar relacionadas
com a rotação, estando, provavelmente, associados às
máquinas de propulsão dos navios. As metodologias
empregadas baseiam-se em uma função de distância
e em redes neurais. Na primeira, uma função baseada
na distância aos segmentos de retas ajustados aos
padrões existentes de cada classe foi considerada para
1
36
SCC – Sistema desenvolvido com recursos provenientes do CASOP.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42
AMBIENTE OPERACIONAL
identificar a classe do navio. Neste caso, a métrica
utilizada foi a distância euclidiana. A outra metodologia
empregada baseou-se em uma rede perceptrons em
multicamadas tendo treinamento do tipo
backpropagation e funções de ativação tangente
hiperbólica. Foram analisadas as classificações feitas
por estas metodologias com diferentes quantidades
de tons e de classes e seus desempenhos foram
comparados.
O conjunto de dados utilizado é formado por corridas
obtidas em uma região com baixo nível de ruído
ambiental (raia acústica) e profundidade aproximada
de 40 metros. Várias corridas foram executadas por
navios pertencentes a sete classes distintas, sendo que,
para cada corrida, o navio utilizava diferentes
configurações de máquinas e velocidades [5].
O presente trabalho está dividido da seguinte maneira:
primeiramente, apresenta-se o conjunto de dados
utilizados; em seguida, descreve-se os classificadores
obtidos com base em uma função de distância e em
uma rede neural; prossegue-se com a apresentação
dos resultados obtidos com o uso dos classificadores
com base na função de distância e em redes neurais; e,
finalmente, apresenta-se as conclusões.
CONJUNTO DE DADOS
O sinal acústico, proveniente de um contato, que chega
nos receptores de um sonar é constituído de uma
variedade de fontes sonoras associadas, entre outras,
com a maquinaria do navio. Este sinal freqüentemente
é processado no domínio da freqüência onde certas
características espectrais do contato podem ser
visualizadas com mais detalhes, auxiliando na
identificação da classe do navio. Um destes
processamentos é o lofargrama, que apresenta a energia
do sinal em cada freqüência ao longo do tempo.
Através desta análise é possível identificar fontes
sonoras individuais, como por exemplo, turbinas,
geradores, etc. As máquinas dos navios produzem tons
característicos que, no lofargrama, são visualizados
como linhas espectrais. Estas linhas espectrais podem
apresentar variações na freqüência e na largura das
linhas e nas condições de estabilidade em freqüência e
persistência no tempo. Outro processamento é o
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42
demongrama, que permite obter informações sobre
a rotação e número de pás do eixo de propulsão e
número de eixos do sistema de propulsão através da
demodulação do ruído de cavitação.
O conjunto de dados utilizado neste trabalho consiste
de corridas com diferentes configurações de máquinas
e velocidade de navios pertencentes a 7 classes
diferentes. As classes dos navios foram identificadas
por uma letra maiúscula de A a G. Estas corridas
consistem da passagem do navio sob um sensor
colocado no fundo do mar em uma raia acústica. Para
cada corrida realizada por um navio com uma
determinada configuração de máquinas e velocidade,
foram obtidos seus lofargramas e demongramas. De
cada lofargrama foram obtidas, quando existentes, as
freqüências predominantes e do demongrama
correspondente, foi obtida a rotação do eixo (RPM).
Os dados são compostos então pelas freqüências dos
tons característicos e pela RPM obtidas em cada
corrida. Devido à limitação do sensor do submarino
que usará estes dados, considerou-se apenas freqüências
acima de 200Hz.
A Figura 1 apresenta exemplos de lofargrama e demongrama. Observa-se que no lofargrama é possível
visualizar não apenas uma, mas várias freqüências predominantes em uma mesma corrida. No demongrama, a primeira linha espectral caracteriza a freqüência
fundamental, correspondendo à rotação do eixo
(RPM), e as adjacentes, seus harmônicos. A associação das informações obtidas em cada uma destas
análises possibilita estabelecer padrões característicos
que identificam a plataforma ou a classe à qual estes
padrões pertencem.
Os dados foram utilizados para avaliar o desempenho
de ferramentas utilizando diferentes métodos de
classificação. Para isto, foram separados em conjuntos
de treinamento e de teste. A Figura 2 apresenta a
freqüência dos tons característicos versus a RPM para
todas as corridas pertencentes ao conjunto de
treinamento. Observa-se que alguns dados formam
linhas com uma relação linear entre a freqüência e a
RPM, enquanto outros formam linhas em que a
freqüência não varia com a RPM. A região de 2002800 Hz e 60-160 RPM concentra a maioria das
amostras. Nas classes A, B, D, E e G, a rotação dos
37
CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO
eixos variou apenas até cerca de 200 RPM, enquanto
que para as classes C e F, ficou entre 200 e 550 RPM.
A Tabela 1 apresenta, para cada classe, a quantidade
de corridas usadas no treinamento e no teste dos
classificadores, segundo o número de tons presentes.
FIGURA 2
Gráfico dos tons característicos para cada classe
FIGURA 1
Exemplo de (a) lofargrama e (b) demongrama.
Nos conjuntos de treinamento e teste para 1 tom, foi
considerada como amostra o par de valores
correspondentes a cada freqüência predominante de
cada corrida do conjunto e a RPM daquela corrida.
Para os conjuntos com 2 tons, considerou-se como
amostra a combinação de 2 tons dentre os n tons
existentes na corrida (n≥2), sem levar em conta a
ordem, e a RPM da corrida. A Tabela 2 apresenta a
quantidade de amostras provenientes das combinações
dos tons presentes em cada corrida de cada classe
para os conjuntos de treinamento e de teste. Para
treinar a rede neural, o conjunto de treinamento foi
equilibrado e misturado.
TABELA 1
Número de corridas usadas no treinamento e no teste conforme o número de tons.
Classe
A
B
C
D
E
F
G
Total
38
1
29
11
35
14
13
6
1
109
Corridas para treinamento
Número de tons
2
3
4
5
>6
14
8
7
1
0
11
20
17
13
18
12
5
1
1
0
24
22
21
6
3
12
4
2
5
1
6
4
0 0 0
9
4
0
0
0
88
67
48
26
22
Total
59
90
54
90
37
16
14
360
1
53
4
11
11
11
1
0
180
Corridas para teste
Número de tons
2
3
4
5 >6
35 16 5
1
0
4 11 11 6 12
10 6
0
0
0
7 11 9
6
4
2
5
1
1
1
4
3
0
0
0
4
2
1
0
0
66 54 27 14 17
Total
110
50
27
48
21
8
6
270
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42
AMBIENTE OPERACIONAL
TABELA 2
Número de amostras dos conjuntos de treinamento e de teste segundo o número de tons.
Classe
A
B
C
D
E
F
G
Total
Conjunto de treinamento
Total
Número de tons
1
2
113
344
83
275
88
30
31
964
86
634
42
383
101
18
21
1285
199
978
125
658
189
48
52
2249
METODOLOGIAS EMPREGADAS
Neste trabalho, duas metodologias foram investigadas
para auxiliar na identificação da classe do navio através
dos tons característicos e RPM. A primeira
metodologia baseia-se em uma função de distância e
a segunda, utiliza uma rede neural.
Função de distância
Esta metodologia consistiu em agrupar, para cada uma
das classes, os pontos dos gráficos Freqüência X RPM,
formando segmentos de reta, caracterizando os
padrões existentes em cada classe. Estes segmentos
correspondem a tons com freqüências fixas para as
diversas corridas com diferentes RPM, ou então tons
cujas freqüências têm relação linear com a rotação,
estando, provavelmente, associados às máquinas de
propulsão dos navios. No primeiro caso, o segmento
será horizontal (freqüência constante) e, no segundo,
será um segmento com uma inclinação que indica a
relação entre a rotação e a freqüência. A Figura 3
apresenta os segmentos obtidos para as diversas classes
estudadas, utilizando-se o conjunto de treinamento.
Estes segmentos serão usados para a classificação, de
forma que, para um dado ponto, a classe selecionada
é aquela correspondente ao segmento de reta mais
próximo a este ponto. No caso da classificação
usando-se dois tons, seleciona-se os segmentos mais
próximos a cada um deles e, destes dois segmentos, o
que tiver a menor distância indica a classe escolhida.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42
Conjunto de teste
Número de tons
Total
1
2
53
119
49
121
38
18
18
416
35
163
28
148
33
13
16
436
88
282
77
269
71
31
34
842
Redes Neurais Artificiais
A rede neural implementada foi uma rede perceptrons
em multicamadas, tendo treinamento do tipo
backpropagation e funções de ativação tangente
hiperbólica. A arquitetura da rede neural, apresentada
na Figura 4, consistiu de duas camadas além da camada
de entrada. Foram implementadas várias redes neurais,
considerando como entrada 2 e 3 neurônios para a
investigação das situações em que se deseja selecionar,
de 1 ou 2 tons, respectivamente. A camada de saída
teve o número de neurônios definido de acordo com
o número de classes selecionadas para a identificação.
A notação considerada neste trabalho para cada
classificador neural foi (nnce: nnci:nncs), onde nnce,
nnci e nncs são os números de neurônios nas camadas
de entrada, intermediária e de saída, respectivamente.
A classe vencedora corresponde ao neurônio de saída
com maior valor.
FIGURA 3
Segmentos de retas característicos das classes.
39
CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO
obteve a menor porcentagem de acerto, ficando
próximo de 50%.
FIGURA 4
Arquitetura da Rede Neural
RESULTADOS
Esta seção apresenta os resultados da aplicação dos
classificadores descritos anteriormente para a
identificação de 4 e 7 classes, utilizando-se 1 e 2 tons
para a classificação. Os conjuntos de treinamento e de
teste foram usados para avaliar o desempenho dos
algoritmos de classificação propostos. Para cada
metodologia, construiu-se as matrizes de confusão,
considerando-se separadamente o conjunto de
treinamento e o conjunto de teste. No caso do
classificador neural, foram considerados dois tipos de
avaliação quando se usa um conjunto de 2 tons: no
primeiro, os dois tons mais a RPM correspondente
são usados em uma rede treinada com dois tons mais
a RPM; no segundo, cada tom mais a RPM
correspondente são usados em uma rede treinada com
apenas um tom e a RPM, e a classe vencedora
corresponde à saída com maior valor nas duas redes.
A Tabela 3 mostra os resultados obtidos na aplicação
da função de distância e redes neurais, para os
conjuntos de treinamento e de teste.
No caso dos classificadores utilizando função de
distância, os resultados obtidos para as classes C, E e
F apresentaram uma porcentagem de acertos acima
de 73%, enquanto os das classes A, B, D e G ficaram
acima de 50%.
O uso de 2 tons provocou um aumento de mais de
20 pontos percentuais na probabilidade de acerto das
classes A e F. Em compensação, o acerto para a classe
G caiu em cerca de 10 pontos percentuais, enquanto
que para as outras classes houve variação de um
máximo de 5 pontos percentuais. A classe D foi a que
40
O resultado obtido com o classificador neural,
utilizando 2 neurônios na entrada (1 tom + RPM),
apresentou valores percentuais de acertos sempre acima
de 77% para as classes C, F e G. A classe D novamente
apresentou as piores probabilidades de acertos. Nas
classes A, B e F, as probabilidades de acertos
aumentaram quando o número de tons selecionados
cresceu. As classes C e G conservaram seus percentuais
de acertos independentes do número de tons
selecionados.
O classificador com 3 neurônios na entrada (2 tons +
RPM) apresentou pior resultado para todas as classes
quando comparado com o de 2 neurônios. As classes
C, F e G novamente apresentaram valores percentuais
de acertos sempre acima de 77%.
Em uma situação que se conheça, de antemão, as
classes que irão participar de um exercício contra um
submarino, pode-se usar apenas estas classes na
classificação. A Tabela 4 apresenta as matrizes de
confusão para os conjuntos de treinamento e de teste
e para 1 e 2 tons, considerando-se a participação apenas
das classes A, B, E e G, simulando aquela situação.
Neste caso, todas as porcentagens de acertos para o
classificador, usando a função de distância com 1 tom,
ficaram acima de 65% para o conjunto de teste. A
classe G apresentou acertos acima de 85%, quando
usada junto com as classes A, B e E, e 56%, quando
usada junto com as classes A, B, C, D, E e F. Esta
redução se deveu, provavelmente, à ambigüidade com
a classe D.
A classificação com 2 tons aumentou a probabilidade
de acerto destas 4 classes, sendo que a classe A
conseguiu mais do que 15 pontos percentuais para o
conjunto de teste, enquanto para as outras classes houve
acréscimo de, no máximo, 5 pontos percentuais.
No classificador neural para 1 tom, a classe G ficou
com 100% de percentual de acerto para o conjunto
de teste, enquanto as outras classes mantiveram os
resultados obtidos quando todas as classes foram
comparadas, atingindo, no máximo, 63% para a classe
B e, no mínimo, 49% para a classe A. No classificador
neural para 2 tons, as classes B e G apresentaram
porcentagens de acerto acima de 80%. A classe A
apresentou a pior porcentagem de acerto, obtendo
37%. O uso de 2 tons provocou um acréscimo de
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42
AMBIENTE OPERACIONAL
cerca de 20 pontos percentuais na probabilidade de
acerto da classe B e um decréscimo de 12 pontos na
da classe A.
De uma maneira geral, os dados de tons e RPM
podem ser combinados facilmente para a classificação
de um subconjunto das classes disponíveis. Pode-se,
também, combinar outros critérios que permitam
subdividir o sistema em mais de um classificador. No
caso presente, por exemplo, observa-se que as classes
C e F têm RPM sempre superiores às das demais classes.
Pode-se, assim, testar inicialmente a RPM e, então,
direcionar os dados dos tons e RPM para um
classificador contendo as classes C e F ou para outro
contendo as classes A, B, D, E e G, dependendo da
RPM.
CONCLUSÕES
Este trabalho apresentou a identificação de sete classes
de navios, utilizando as freqüências de tons
característicos e a RPM, obtidas a partir da análise do
r uído de uma plataforma. Foram projetados
classificadores baseados em uma função de distância
e em redes neurais, para situações em que o operador
pudesse selecionar até 2 tons para identificar a classe
do navio.
Os resultados obtidos utilizando os classificadores
baseado em uma função de distância, apresentaram
percentuais maiores do que os baseados em redes
neurais, exceto para a classe G. O resultado obtido
utilizando 2 tons apresentou melhores percentuais de
acertos do que usando apenas 1 tom.
TABELA 3
Matriz de confusão do conjunto de treinamento (parênteses) e de teste considerando de 1 a 2 tons para todas as
classes em porcentagem.
B
C
D
E
F
Classificador utilizando função de distância
60 (55)
5 (19)
0 (0)
10 (4)
25 (22)
0 (0)
63 (67)
7 (6)
0 (0)
6 (7)
23 (20)
0 (0)
94 (94)
0 (0)
0 (0)
0 (4)
0 (0)
6 (2)
55 (57) 19 (13)
15 (18)
11 (11)
9 (0)
0 (0)
73 (76)
0 (3)
25 (19)
0 (0)
2 (2)
0 (0)
78 (87)
5 (6)
0 (0)
11 (3)
6 (3)
0 (0)
0 (3)
5 (3)
0 (0)
28 (13)
0 (4)
0 (0)
81 (62)
5 (12)
0 (0)
2 (1)
12 (25)
0 (0)
65 (73)
6 (6)
0 (0)
6 (3)
22 (17)
0 (0)
93 (91)
0 (0)
0 (0)
0 (2)
0 (0)
7 (7)
50 (58) 17 (10)
22 (18)
10 (10)
0 (0)
0 (0)
77 (91)
0 (0)
19 (9)
0 (0)
4 (0)
0 (0)
100 (100)
0 (0)
0 (0)
0 (0)
0 (0)
0 (0)
0 (5)
6 (5)
0 (0)
38 (19)
0 (0)
0 (0)
Classificador usando rede neural com 1 freqüência e a RPM
43 (51)
9 (18)
0 (0)
9 (8)
21 (14)
0 (0)
64 (62)
7 (5)
0 (0)
4 (7)
18 (18)
1 (0)
94 (98)
0 (0)
0 (0)
0 (0)
0 (0)
6 (2)
40 (55)
10 (11)
7 (9)
0 (0)
10 (8)
2 (1)
53 (58)
16 (11)
8 (9)
3 (0)
5 (4)
0 (0)
78 (97)
0 (0)
0 (0)
22 (3)
0 (0)
0 (0)
6 (3)
0 (0)
0 (0)
6 (0)
0 (0)
0 (0)
66 (60)
8 (23)
0 (0)
0 (3)
9 (7)
0 (0)
73 (71)
4 (1)
0 (0)
5 (5)
16 (13)
0 (0)
96 (100)
0 (0)
0 (0)
0 (0)
0 (0)
4 (0)
30 (43)
11 (10)
9 (12)
0 (0)
8 (9)
0 (0)
55 (61)
3 (14)
12 (7)
0 (0)
6 (0)
0 (0)
85 (100)
0 (0)
0 (0)
15 (0)
0 (0)
0 (0)
0 (0)
0 (0)
0 (0)
12 (0)
0 (0)
0 (0)
Classificador usando rede neural com 2 freqüências e a RPM
29 (59)
17 (9)
0 (0)
11 (6) 20 (13)
0 (0)
69 (68)
6 (6)
0 (0)
10 (7) 12 (17)
1 (0)
93 (98)
0 (0)
0 (0)
0 (2)
0 (0)
0 (0)
47 (58)
13 (3)
6 (12)
0 (0)
12 (9)
0 (0)
42 (58)
0 (8)
24 (10)
0 (0)
0 (6)
0 (0)
77 (88)
0 (0)
0 (0)
23 (12)
0 (0)
0 (0)
0 (0)
0 (0)
0 (5)
12 (0)
0 (0)
0 (0)
A
1 Tom
2 Tons
1 Tom
(2:300:7)
2 Tons
(2:300:7)
2 Tons
(3:350:7)
A
B
C
D
E
F
G
A
B
C
D
E
F
G
A
B
C
D
E
F
G
A
B
C
D
E
F
G
A
B
C
D
E
F
G
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42
G
0 (0)
1 (0)
0 (0)
1 (1)
0 (0)
0 (0)
67 (77)
0 (0)
1 (1)
0 (0)
1 (4)
0 (0)
0 (0)
56 (71)
16 (9)
6 (8)
0 (0)
31 (16)
15 (18)
0 (0)
88 (97)
17 (7)
2 (10)
0 (0)
42 (26)
24 (18)
0 (0)
88 (100)
23 (13)
2 (2)
7 (2)
34 (18)
33 (18)
0 (0)
88 (95)
41
CLEIDE VITAL DA SILVA RODRIGUES, WILLIAM SOARES FILHO
TABELA 4
Matriz de confusão do conjunto de treinamento (parênteses) e de teste considerando o conjunto com as classes A,
B, E e G em porcentagem.
A
B
E
G
Classificador utilizando função de distância
A
66 (58)
7 (19)
25 (23)
2 (0)
65
(69)
1 Tom
B
8 (8)
25 (23)
2 (0)
73 (77)
E
0 (3)
25 (19)
2 (1)
89 (87)
G
0 (3)
6 (3)
5 (7)
83 (63)
A
5 (11)
12 (26)
0 (0)
67 (74)
2 Tons
B
9 (6)
23 (19)
1 (1)
77 (91)
E
0 (0)
19 (9)
4 (0)
94
(90)
G
0 (5)
6 (5)
0 (0)
Classificador usando rede neural com 1 freqüência e a RPM
49 (71)
A
2 (4)
32 (15)
17 (10)
63 (63)
1 Tom
B
8 (5)
13 (12)
16 (20)
(2:100:4)
50 (51)
E
16 (32)
13 (7)
21 (10)
100 (97)
G
0 (3)
0 (0)
0 (0)
37
(69)
A
6 (3)
37 (17)
20 (11)
70 (72)
2 Tons
B
12 (3)
7 (4)
11 (21)
(2:100:4)
36 (43)
E
10 (40)
15 (5)
39 (12)
100 (100)
G
0 (0)
0 (0)
0 (0)
Classificador usando rede neural com 2 freqüências e a RPM
37 (64)
9 (6)
40 (25)
14 (5)
A
82 (80)
2 Tons
B
1 (3)
11 (13)
6 (4)
(3:200:4)
52 (77)
E
12 (9)
24 (10)
12 (4)
100 (100)
G
0 (0)
0 (0)
0 (0)
Observou-se que para todas as metodologias, a classe
C ficou com valores percentuais de acerto sempre
acima de 93% e os da classe F, maiores do que 77%.
Os piores percentuais de acerto foram obtidos para a
classe D, sempre abaixo de 55%.
As vantagens das metodologias empregadas neste
trabalho estão na simplicidade, robustez e familiaridade
do operador com os parâmetros considerados. Os
métodos podem ser combinados com outros critérios
que considerem, por exemplo, a probabilidade de uma
dada classe ter uma certa RPM, de forma a reduzir os
erros. Sugere-se que sejam feitos estudos detalhados,
visando verificar se os tons característicos e a RPM
poderiam ser usados para identificar uma unidade
dentro da classe escolhida. As relações considerando
a largura, estabilidade e persistência da linha espectral
devem, também, ser investigadas. Os dados utilizados
para este desenvolvimento foram obtidos com uma
relação sinal-ruído alta, além de não possuir ruído
42
próprio. Um futuro trabalho deve ser feito com dados
obtidos em situações de operações reais.
REFERÊNCIAS
1. URICK, R. J., Principles of Underwater Sound. McGraw-Hill,
1983.
2. NIELSEN, R.O., Sound Signal Processing. Artech House, 1991.
3. BURDIC, W., Underwater Acoustic System Analysis. Englewood
Cliffs, NJ, Prentice-Hall, 1984.
4. SOARES-FILHO, W., Classificação do ruído irradiado por navios
usando redes neurais. Tese de doutorado, COPPE-UFRJ, 2001.
5. RODRIGUES, C.V.S. e SOARES-FILHO, W., Classificação dos sinais
acústicos submarinos utilizando tons característicos. Anais do VII
Simpósio de Pesquisa Operacional e Logística da Marinha, 103-111,
2004.
6. ROSS, D., Mechanics of Underwater Noise, Peninsula Publising,
1987.
7. SOARES-FILHO, W., e RODRIGUES, C.V.S., O uso de perceptrons
em multicamadas na classificação dos sinais acústicos submarinos
utilizando tons. VIII Simpósio de Pesquisa Operacional e Logística
da Marinha, 2005.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 36-42
AMBIENTE OPERACIONAL
Possibilidade de catástrofe no arquipélago de
São Pedro e São Paulo e suas implicações sobre a
soberania do mar brasileiro
Capitão-de-Corveta (T) David Canabarro Savi
Instituto de Estudos do Mar Almirante Paulo Moreira
E-mail: [email protected]
Susanna Eleonora Sichel
Universidade Federal Fluminense
E-mail: [email protected]
Resumo
O Arquipélago de São Pedro e São Paulo está localizado
sobre uma falha geológica ativa (sujeito a terremotos), em
alto mar, a 1000 km da costa, constituindo o único
arquipélago marinho brasileiro no hemisfério norte. Devido a
sua pequena área e principalmente baixa altitude, é
frequentemente assolado pelas ondulações de mau tempo.
Atualmente, o arquipélago é centro de atenções no que se
refere à delimitação da Zona Econômica Exclusiva (ZEE)
brasileira. Face à legislação em vigor, sua permanente
ocupação sustenta um ganho de 430 mil km² na ZEE
brasileira. O objetivo deste trabalho é avaliar as
possibilidades de catástrofes no local e suas conseqüências
sobre os direitos da ZEE do arquipélago.
Palavras Chave
Arquipélago de São Pedro e São Paulo; Soberania do mar
brasileiro; Terremotos no mar.
Catastrophes possibility in São Pedro e
São Paulo archipelago and its implications
over brazilian sea sovereignty
Abstract
São Pedro e São Paulo Archipelago is located on active
geologic fissure far 1000km of the coast, constituting the
unique marine archipelago of Brazil in the North
hemisphere. Due to its small area and principally low
altitude it is frequently assolado by waves of bad weather.
Hitherto the archipelago is the centre of attention in relation
of delimitation of the Brazilian Exclusive Economic Zone
(ZEE). The current law determine its occupation permanent
maintaining a gain of 430,000 km² in the Brazilian ZEE. The
aim of this paper is to estimate the catastrophe possibilities
at the local and their consequences on the prerogative of
the archipelago ZEE.
INTRODUÇÃO
O título deste trabalho é a questão chave que será
respondida, mas, inicialmente, é necessário entender a
questão. O Arquipélago de São Pedro e São Paulo,
doravante citado pela sigla ASPSP, é um aglomerado
de rochedos que afloram no alto-mar, no Atlântico
equatorial, nas coordenadas Latitude 00º 56’ N e
Longitude 029º22’W, a cerca de 1000 km da costa do
estado do Rio Grande do Norte, no litoral brasileiro,
e 1900 km da costa do Senegal, no oeste da África. É
uma zona geologicamente instável e, pela baixa altitude,
muito suscetível a ressacas. Por sua localização isolada,
em meio a rota marítima Europa-América do Sul,
representa um perigo para a navegação, minimizado
pela presença de um farol (5:21).
O ASPSP integra a área denominada Amazônia Azul1
– “A essa extensão Atlântica, que se projeta para além
do litoral e das ilhas oceânicas, e corresponde a cerca
de metade da superfície do Brasil, se tem chamado
de Amazônia Azul” (10:18). Esta é a zona pleiteada
pelo Brasil nas Nações Unidas, equivalente a 4.450.000
km² (Figura 1), a seguir, sendo uma faixa paralela à
costa brasileira com 200 Milhas Náuticas (MN) de
largura ou mais (nos excessos da platafor ma
continental), acrescidos pelas zonas de Trindade,
Fernando de Noronha e do ASPSP.
Esta faixa é definida como Zona Econômica
Exclusiva, acrescida por zonas pleiteadas como
Plataforma Continental, conceituadas na Convenção
das Nações Unidas sobre o Direito do Mar
(CNUDM), da qual o Brasil é signatário. A CNUDM,
em seu artigo 121, reconhece como ilha somente
porções de terra cercadas por mar, que sejam habitadas, e onde se desenvolva alguma atividade econômica.
Aos rochedos, penedos e porções de terra desabitadas
Keywords
A expressão foi usada, originalmente, pelo Comandante da
Marinha, em “Tendências/Debates; A outra Amazônia”, folha de
São Paulo, 26/02/2004 in Amazônia Azul – O mar que nos pertence.
1
São Pedro e São Paulo Archipelago; Brazilian sea
sovereignty; sea earthquakes.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49
43
CAPITÃO-DE-CORVETA (T) DAVID CANABARRO SAVI, DRª. SUSANNA ELEONORA SICHEL
e/ou inexplorados comercialmente, a CNUDM
reconhece o direito a Mar Territorial, ou seja, o direito
a soberania de 12 milhas náuticas a partir da linha de
base da costa, não tendo direito à Zona Econômica
Exclusiva (ZEE) nem à Plataforma Continental (PC).
Entretanto, as ilhas como conceituadas acima tem
direito a Mar Territorial (MT), ZEE e PC (8:103).
Portanto, quando da criação do Programa Arquipélago
(Pró-Arquipélago) da Secretaria da Comissão
Interministerial para os Recursos do Mar –SECIRMO.M. de Marinha, em 1996, houve a elevação dos
então Penedos de São Pedro e São Paulo à categoria
de Arquipélago. A partir de 1998, com ocupação
sistemática através do revezamento de pesquisadores
em uma estação científica construída na ilha Belmonte
(a maior do Arquipélago – Figura 2) (9:06) e a
realização de estação de pesca contínua, o Brasil ganhou
direito de pleito a uma área de aproximadamente
429.463 Km², que é a área da ZEE menos a área do
MT. Este cálculo simples, usando a área do círculo
(pr²) é uma aproximação, pois o cálculo correto resulta
em valores maiores, já que leva em conta a curvatura
da terra. A área do ASPSP constitui cerca de 10% da
área da Amazônia Azul.
FIGURA 1
Amazônia Azul, fonte defesa.net
Nestes oito anos de habitação contínua do arquipélago,
houve dois eventos oceanos-meteorológicos que
tiveram grande impacto destrutivo na estação (1999 e
2006), além de vários registros de sismos de pequena
magnitude e, pela atuação danificadora das ondas, foi
construída uma antepara de madeira para atenuação
dos efeitos de ondas sobre a estação científica.
GEOLOGIA DO ASPSP
A origem geológica do Arquipélago deve-se a um
singular soerguimento tectônico, com a altitude
máxima de 18 metros acima do nível do mar, que,
somado às ondulações extremas que episodicamente
atingem a ilha, conferem ao local grande fragilidade
para ocupação (2:07) e demonstram a coragem,
patriotismo e espírito científico daqueles que mantêm
habitado o ASPSP, resultando neste ganho territorial
inestimável para o futuro da nação.
A importância científico-geológica do ASPSP é única.
É preciso então entender um pouco desta singularida44
FIGURA 2
Mapa da Área.
de. Dá-se o nome de falha geológica, a blocos
fraturados onde houve movimento relativo entre os
blocos. Assim, quanto ao plano de movimento ou de
falha, podemos classificar as falhas como normais,
inversas, transcorrentes (Figura 3, a seguir) e,
finalmente, as transformantes, um tipo particular que
apresenta os movimentos das anteriores misturados.
Então, podemos agora imaginar a grande cordilheira
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49
AMBIENTE OPERACIONAL
FIGURA 3
Tipos de Falhas Geológicas
meso-oceânica, como uma sutura de cesariana contínua
por onde nasce o oceano atlântico.
Esta cadeia meso-oceânica deu origem a várias ilhas
vulcânicas no oceano atlântico, como Ascension,
Fernando de Noronha, Tristão da Cunha, Trindade,
Martim Vaz, Santa Helena e outras. A cadeia mesooceânica, como sutura geodésica, não é retilínea, ao
invés disto, apresenta descontinuidades de orientação
E-W ao longo de sua extensão. Estes truncamentos
são chamados de falhas transformantes. A que originou
nosso arquipélago é chamada de falha de São Paulo
ou Zona de Fratura de São Paulo (Figura 4).
Simplificando, o fundo marinho foi quebrado
(fraturado) e, ao longo da Zona de Fratura de São
Paulo, houve uma parte do assoalho marinho que foi
projetada para cima, na vertical, atingindo 4000 metros
de altura e chegando a superfície do mar. Então, as
rochas do ASPSP representam as camadas de subsuperfície do fundo marinho intensamente fraturadas
(milonitizadas), porém não fundidas, que ascenderam
toda a coluna d’água do oceano profundo, trazendo
para a superfície as rochas do manto superior (camada
geológica interna abaixo da crosta) preservadas do
fundo do Atlântico. Em uma analogia, podemos
imaginar um imenso baralho sendo deslocado
horizontalmente, mas pressionado, onde quatro cartas
vão para cima e uma atinge maior altitude (Figura 5).
Com esta explicação, o leitor pode presumir por que
o ASPSP é o lugar do Brasil com maior freqüência de
terremotos.
SUSCEPTIBILIDADE
A
EVENTOS
CATASTRÓFICOS DO ARQUIPÉLAGO
Como Encarregado da Divisão de Geologia do
Instituto de Estudos do Mar Almirante Paulo Moreira
(IEAPM) e pesquisador com Mestrado em
Geociências na Universidade Federal do Rio de Janeiro
(UFRJ), integrei o Programa Arquipélago no Projeto
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49
FIGURA 4
Falha transformante de São Paulo (2:02).
FIGURA 5
Fatia transversal a falha transformante (2:06).
“Integração dos Processos Tectônicos, Geoquímicos
e Geomicrobiológicos atuantes nas rochas mantélicas
do ASPSP, Atlântico equatorial”, coordenado pela Dra.
Susanna Eleonora Sichel, da Universidade Federal
Fluminense (UFF). Realizei o 22º treinamento préarquipélago, na Base Naval de Natal (fevereiro de
2006), e estava escalado para a 210º expedição, com
rendição da equipe 209º em 18 de junho de 2006 e
permanência até 02 de julho, configurando os quinze
dias padrão das equipes científicas, que vão se
revezando desde o início do Programa (9:07) (Figura
6a, a seguir). Entretanto, no dia 7 de junho, enquanto
trabalhava em Alcatrazes, fui informado que a estação
havia sido parcialmente destruída e os pesquisadores
resgatados, devido a uma forte ressaca que atingiu o
ASPSP entre os dias 5 e 7 de junho de 2006 (Figura
6b, a seguir). Procedi a uma averiguação do trend de
ondas que atingiu a região, solicitando a colaboração
do colega CC – (EN-RM1) PICCININI, que possui
mestrado no assunto. Ele analisou que as ondas
incidentes no período da ressaca foram anormalmente
grandes, em relação ao histórico e à onda centenária
45
CAPITÃO-DE-CORVETA (T) DAVID CANABARRO SAVI, DRª. SUSANNA ELEONORA SICHEL
FIGURA 6A
ASPSP condições normais
FIGURA 6B
ASPSP 6/06/06
da área. Foi reportado pelo pessoal da SECIRM, que
este evento foi maior que o de 1999, que danificou a
estação (4:01).
Os danos causados pelo evento na Estação Científica
do ASPSP tornaram o local temporariamente
inabitável, e as expedições científicas foram adiadas
sem previsão de data; não obstante o prejuízo na
execução do projeto que participo, metade do título
deste trabalho mostrou-se factível, salientando que os
temas foram escolhidos em março deste ano.
O tema desta Monografia se pautou pela instabilidade
tectônica do local, entretanto, o que sucedeu foi um
evento meteorológico oceanográfico! Ou não?
Conversando com o CT (AA) CARVALHO, da
SECIRM, responsável pelo Programa Arquipélago,
demonstrei a ele minha contrariedade, pois a
fragilidade tectônica já explicada fora novamente
suplantada pela fragilidade a ressacas; foi quando ele
me reportou ter recebido informações de sismos que
ocorreram simultaneamente com a ressaca, ou até
mesmo as tenha gerado. Aí está um fato cientificamente
comprovado: a maioria dos terremotos com epicentro
(local onde os efeitos do sismo afloram na superfície)
submerso geram ondulações na superfície da lâmina
d’água (6:15) (Figura 7), que são mais intensas conforme
a magnitude do terremoto, medida na escala Richter,
e/ou da proximidade com o hipocentro (local em
sub-superfície onde ocorre o sismo, isto é, fonte da
liberação da energia ou foco).
46
FIGURA 7
Ondulações geradas pelo terremoto de 2004 (6:15).
O relato da UnB tem o seguinte teor: “Informo que,
pelo horário em que foi relatado o episódio de
desabamento de parte da estação de pesquisa em SPSP,
tivemos a ocorrência de três sismos na região. A
localização dos três sismos encontra-se no anexo desta
mensagem. As informações foram fornecidas pelo
U.S. Geological Survey. Trata-se de uma localização
preliminar dos eventos, sujeita à relocação quando uma
quantidade maior de dados sismológicos tiver chegado
aos centros de processamento de dados sismológicos,
nas instituições internacionais que realizam o trabalho
de produção dos catálogos sismológicos.
Pelo horário do incidente ocorrido na estação e pela
proximidade dos eventos que ocorreram na falha
geológica ativa existente nas proximidades da ilha,
podemos afirmar que o ocorrido foi certamente
relacionado aos sismos citados.” João Willy.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49
AMBIENTE OPERACIONAL
1 o SISMO
Magnitude 4.8
Date-Time Monday, June 05, 2006 at 06:18:44 (UTC) –
Coordinated Universal TimeMonday, June 05, 2006 at
04:18:44 AM local time at epicenterTime of Earthquake
in other Time Zones
Location 1.07N 28.17W – Depth: 10 km
2 o SISMO
Magnitude 6.0
Date-Time Monday, June 05, 2006 at 06:27:07 (UTC) –
Coordinated Universal TimeMonday, June 05, 2006 at
04:27:07 AM local time at epicenterTime of Earthquake
in other Time Zones
Location 1.17N 28.06W – Depth: 10 km
3 o SISMO
Magnitude 5.6
Date-Time Monday, June 05, 2006 at 06:34:31 (UTC) –
Coordinated Universal TimeMonday, June 05, 2006 at
04:34:31 AM local time at epicenterTime of Earthquake
in other Time Zones
Location 1.01N 28.16W – Depth: 10 km
Region
CENTRAL MID-ATLANTIC RIDGE
USGS NEIC (WDCS-D)
Source
Para entendermos a correlação da magnitude do
terremoto que atingiu a área do ASPSP, com seus
efeitos percebidos pelos seres humanos, mostramos
a tabela abaixo (6:11).
FIGURA 8
Distribuição dos terremotos mundiais em 2001.
O evento que afetou a Estação Científica do ASPSP
em junho deste ano, foi realmente o somatório das
forças oceano-meteorológicas e sísmicas, pois a altura
de ondas significativas aumentou nos dias seguintes,
atingindo 2,40m no dia 8, que é corroborado pelo
fato de, ao serem resgatados, os pesquisadores terem
saído da ilha a nado, em virtude da altura das ondas
do dia 8. A ressaca de 1999 tinha altura significativa
de onda de 3 a 4m (Figura 9a, a seguir), mas teve
menor impacto na Estação. Outro fato interessante é
que a ressaca de 1999 veio do quadrante norte, derivada
de um furacão que atingiu o Atlântico norte. A ressaca
deste ano (Figura 9b, a seguir) veio do quadrante sul,
mostrando que o arquipélago está sujeito a ressacas
de direções opostas. O que reduz a exclusividade do
evento sísmico foi o período da onda, que tem
espaçamento bem menor que as ondas de ressaca de
ordem de 15 a 20 segundos, e o fato da ondulação
ter vindo de sul, enquanto os sismos foram localizados
a leste do ASPSP.
O ASPSP E SUAS IMPLICAÇÕES SOBRE A
SOBERANIA DO MAR BRASILEIRO
Nem todo terremoto é devastador. A maioria dos
sismos são de baixa magnitude, mas para termos uma
idéia da freqüência de tremores e sua distribuição em
intensidade, correlacionando com os que atingiram as
proximidades do Arquipélago, podemos observar no
gráfico (Figura 8) o número de sismos registrados
durante o ano de 2001.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49
O ASPSP é considerado Área de Preser vação
Ambiental (APA) desde julho de 1998, sendo, portanto,
um local com restrições e ordenamento de uso. A
ZEE do ASPSP constitui aproximadamente 10% da
Amazônia Azul. Neste aspecto, são vislumbradas todas
as expectativas econômicas dos recursos vivos na
coluna d’água ou leito marinho. Estes recursos seriam:
o pescado de uma área particularmente rica, pois é
um atrator natural de peixes e demais animais da biota
47
CAPITÃO-DE-CORVETA (T) DAVID CANABARRO SAVI, DRª. SUSANNA ELEONORA SICHEL
FIGURA 9
Altura de ondas significativa. a. ano de 1999; b. ano de 2006.
marinha, já que está a centenas de milhas de qualquer
ilha ou alto fundo marinho, e os artrópodas de fundo,
como caranguejo, lagosta, entre outros (7:158).
Os recursos não vivos se concentram em nódulos
polimetálicos, como os de Clipperton (jazida
submarina explorada por vários países no Oceano
Pacífico profundo), e até mesmo a geração de energia,
além dos sais explorados economicamente que estão
dissolvidos na própria lâmina d’água, como fosfatos,
bário, cloretos e magnésio. Com este propósito a
resolução 004/97/CIRM, de 3 de dezembro de 1997,
aprovou o Programa de Avaliação da Potencialidade
Mineral da Plataforma Continental Jurídica Brasileira
– REMPLAC, um dos projetos incentivados pelo VI
Plano Setorial de Recursos do Mar – PSRM, de 3 de
março de 2005.
O ASPSP é importante hospedeiro para depósitos
minerais como Au, Ni, e de elementos de grupo dos
platinóides..
No início da exploração mineral, o homem só reconhecia o bem mineral nativo em quantidade visível
macroscopicamente. Com o incremento tecnológico,
a exploração passou a ser prospectada à nível de teores. Um exemplo claro é a quantidade de antigas minas fechadas que foram reabertas para explotação de
seus antigos refugos. Nas últimas décadas, o homem
passou a explorar o petróleo submerso e, atualmente,
já está explorando o de mar profundo, bem como os
48
nódulos polimetálicos em alta concentração. Em poucos anos, teremos condições tecnológicas de exploração de nossa Plataforma Continental Jurídica e do
leito marinho na nossa ZEE. Por este motivo, é fundamental a defesa dos limites de nossa Amazônia Azul.
É importante citar os casos semelhantes ao do ASPSP,
que ocorreram em outras nações. Como exemplo,
temos os Rochedos Rockall, no Reino Unido,
Okinotorishima, no Japão, Clipperton, na França, Jan
Mayen, na Noruega, Aves, na Venezuela, e algumas
ilhas do Havaí, no USA (3:09).
Toda esta argumentação baseia a necessidade
imperativa de manter o ASPSP habitado, concomitante
com o desenvolvimento da atividade econômica,
atualmente pesqueira. Não existe, ainda, prazo definido,
face à modernidade da legislação da CNUDM, mas
qualquer nação que se sentir prejudicada poderá
contestar o direito brasileiro à ZEE respectiva ao
ASPSP, caso não sejam atendidas as duas condições
(habitação e exploração econômica), pelo direito de
controvérsia, obedecendo aos trâmites e fóruns
estabelecidos na CNUDM. Nesse caso, as possíveis
controvérsias seriam levadas ao Tribunal do Direito
do Mar, em Hamburgo, onde as questões são julgadas
por 21 juízes (3:10). Portanto, as catástrofes no ASPSP
devem ser previstas, prevenidas e rapidamente
superadas, para manutenção da soberania nacional no
ambiente marinho atlântico.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49
AMBIENTE OPERACIONAL
CONCLUSÃO
A síntese da bibliografia pesquisada converge para a
suscetibilidade do ASPSP à catástrofes, sejam elas de
origem meteorológicas, geológicas ou oceanográficas.
Durante a realização deste trabalho, um destes eventos
sucedeu no Arquipélago, que, desde então, ficou
desabitado. Apesar disto a SECIRM manteve a
atividade pesqueira quase ininterrupta. É preciso atentar
para o que está em jogo na manutenção efetiva do
Pró Arquipélago: trata-se de garantir uma área marítima
com imenso potencial de exploração econômica, além
da ZEE que tangencia nossas praias continentais.
Estamos a ponto de consolidar, pelo direito internacional e pela lei brasileira ( lei nº 8.617/1993), cerca de
430 mil Km² de ZEE em torno do ASPSP. Que riquezas estarão disponíveis para exploração nesta área?
Só o desenvolvimento tecnológico dos anos vindouros nos dirá, mas sem dúvida alguma, cada cidadão
brasileiro terá uma dívida para com aqueles que através de árduo esforço se apropriaram deste mar.
A soberania do mar brasileiro deve ser mais que um
anseio, uma preocupação diuturna de todo brasileiro,
portanto a cada adversidade catastrófica no ASPSP,
devemos retomar os trabalhos com redobrado ânimo,
pois lá está sendo escrita a história de nossa última
fronteira.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 43-49
REFERÊNCIAS
1. BRASIL. Escola de Guerra Naval, EGN-320. Guia para elaboração de
trabalhos acadêmicos. Rio de Janeiro, 2004.
2. CAMPOS, Thomas Ferreira da Costa et al. Arquipélago de São Pedro
e São Paulo – Soerguimento tectônico de rochas infracrustais no Oceano Atlântico.
In: Winge, M.et al. Sítios Geológicos e Paleontológicos do Brasil.
Publicado na Internet em 24/12/2005. Disponível em: <http://
www.unb.br/ig/sigep/sitio002/sitio002.pdf>. Acesso em: 11 jul.
2006.
3. GONÇALVES, Joanisval Brito. Direitos Brasileiros de Zona Econômica
Exclusiva e de Plataforma Continental em Torno do Arquipélago de São Pedro
e São Paulo. Brasília: Senado Federal. Consultoria Legislativa, 2002.
Disponível em: <http://www.gov.br/web/conleg/artigos.htm>.
Acesso em: 10 jul. 2006.
4. INNOCENTINI, Valdir, et al. Marulhos no Litoral Norte do Brasil
Gerados por Furacões: Caso 24 de outubro de 1999. Disponível em: mtcm15.sid.inpe.br/col/cptec.inpe.br/walmeida/2003/08.13.15.46/
doc/Innocentini_Marulhos%20no%20litoral.pdf
5. MARLIERE, E. R. Ilhas oceânicas: sentinelas avançadas do Brasil.
In: ALVES, R. J. V. & CASTRO, J. W. de A. Ilhas Oceânicas Brasileiras da
Pesquisa ao Manejo. 1. ed. Brasília: MMA, SBF, 2006. cap.1.
6. MENDES, Deborah. Terremotos, Tsunamis e a teoria da tectônica de
placas. Moderna, 2005. Disponível em: <http://geologia.fc.ul.pt/
Aulas/Riscos%20Geologicos/
Apontamentos/
Cadeira_Riscos_Geologicos_04_05_2_aula.pdf>. Acesso em: 12 jul.
2006.
7. MORAES, F. et al. Biodiversidade de Esponjas das Ilhas Oceânicas
Brasileiras. In: ALVES, R. J. V. & CASTRO, J. W. de A. Ilhas Oceânicas
Brasileiras da Pesquisa ao Manejo. 1. ed. Brasília: MMA, SBF, 2006. cap.6.
8. NAÇÕES UNIDAS. Convenção das Nações Unidas sobre o Direito do Mar.
Montego Bay, Jamaica, 1982.
9. SECIRM: Secretaria da Comissão Interminiaterial para os Recursos
do Mar. Programa Arquipélago de São Pedro e São Paulo (Proarquipélago):
manual do Pesquisador. Brasília, DF, 2. ed. 2006.
10. VIDIGAL, Armando Amorim Ferreira; et al. Amazônia azul: o mar
que nos pertence. 1. ed. Rio de Janeiro: Record, 2006.
49
CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS
Sistema de Inferência Neuro-Fuzzy Hierárquico:
uma solução para a compressão de dados
batimétricos
Capitão-de-Corveta Frederico C. Muthz M. Barros
Diretoria de Hidrografia e Navegação (DHN)
Centro de Hidrografia da Marinha
E-mail: [email protected]
Resumo
Para a Hidrografia, um Sistema Gerenciador de Banco de
Dados (SGBD) na produção da carta náutica é visto, no
contexto atual das tecnologias da geoinformação, como
fundamental à manipulação dos dados batimétricos,
viabilizando menores custos e maior eficiência no controle
de qualidade. A compressão eficaz desses dados,
atualmente arquivados na DHN, torna-se uma possível
solução para que o SGBD possa gerenciá-los
adequadamente sem os indesejados gargalos/”overheads”,
habituais para volumes de dados superiores ao “terabyte”.
Este trabalho apresenta um método de compressão de dados
batimétricos baseado em sistemas de inteligência artificial,
especificamente redes de aprendizado neuro-fuzzy
hierárquicas. Amostras adquiridas por ecobatímetro multifeixe no canal de São Francisco do Sul/SC foram separadas
para funcionarem como conjuntos de teste. O método
proposto gerou as funções substitutas dessas amostras e
ajustou seus parâmetros eficientemente. Os resultados
alcançados denotam bom poder de compressão e
modelagem do método proposto, sugerindo-o como potencial
solução de interesse.
Palavras-chave
Hidrografia. Inteligência artificial. Neuro-Fuzzy.
Hierarchical Neuro-Fuzzy Inference System: a
bathymetric data compress solution
Abstract
To Hydrography, a SGDB for the nautical chart production
process is seen, in the present geoinformation technologies
context, as fundamental to bathymetric data management,
thus making smaller costs and higher quality control
efficiency viable. An effective compression of all of the data
mass filed at DHN is a possible solution in order to make a
SGDB able to manage it without bottlenecks nor overheads,
common occurrences when data volume is higher then
terabyte range.
This study presents a bathymetric data compression
method that uses artificial intelligence system, specifically
hierarchical neuro-fuzzy learning networks. São Francisco
do Sul/SC channel multibeam echosounder bathymetric data
samples were used as test sets. The proposed method
generated original data amount representative functions and
adjusted its own weight parameters in an efficient way. Results
show the method’s power of high compression and modeling,
thus suggesting it as an interesting potential solution.
Keywords
INTRODUÇÃO
Seguindo a tendência atual, é crescente o surgimento
de novos usos da informação batimétrica relativa ao
mar: guerra naval; monitoração ambiental; pesca;
exploração de recursos; passagem de cabos
submarinos; zoneamento; expansão urbana;
ecoturismo, dentre outros. Cada um desses usos exige
maior ou menor grau de acurácia e precisão na
cobertura do fundo em relação ao uso mais antigo: a
navegação com segurança nos mares e hidrovias
mediante o uso da carta náutica.
Nos últimos 15 anos, com o “boom” da evolução
tecnológica a respeito dos levantamentos hidrográficos,
a acurácia e precisão dos equipamentos (ecobatímetros,
sonares de varredura lateral, etc.) quanto ao
posicionamento vertical e horizontal têm permitido a
cobertura batimétrica integral do fundo marítimo,
especificamente em pequenas e médias profundidades.
Um fator de cobertura em patamares tão elevados
expande a disponibilidade da informação batimétrica
a muitos outros usos de maior exigência, porém, é
inevitável o crescimento exponencial dos dados
acumulados em função da acurácia posicional, que se
impõem negativamente ao processo (BRISSETTE,
2004).
Em termos de “custo x benefício”, até que ponto há
a real necessidade de equipamentos de aquisição
(coleta) e posicionamento cada vez mais modernos,
acurados e precisos? Indo além, e a manutenção e
constante atualização de toda a estrutura necessária
para gerenciar volume tão grande de dados coletados?
Resposta coerente à primeira questão é dada por
Brissette (2004), o qual entende que é imperioso para
os Serviços Hidrográficos (SH) terem à disposição
toda a gama de recursos tecnológicos para compor
estrategicamente sua reserva de conhecimento acerca
do meio marítimo. Isso exige a disponibilidade
constante dos equipamentos mais modernos de
Hidrography. Artificial intelligence. Neuro-Fuzzy.
50
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
AMBIENTE OPERACIONAL
aquisição e posicionamento. Quanto mais acurácia, mais
precisão e maior for o fator de cobertura, melhor.
A opção por satisfazer os diversos usos da informação
perseguidos, impõe o problema real de como
armazenar e acessar o denso volume de dados
coletados para a produção. A manipulação desse
volume somente por um SGBD implica conviver com
os indesejáveis gargalos e “overheads”, ocorrências
habituais quando os dados a serem manipulados se
encontram em faixa superior ao “terabyte”. Algumas
soluções mais robustas exploram diversas tecnologias
que, aplicadas em conjunto, dentro de uma complexa
estrutura sistêmica, tornam exeqüível tal tarefa.
Entretanto, do ponto de vista da Geomática, não se
pode ignorar que os custos de implantação e
manutenção dessas soluções passam obrigatoriamente
pela disponibilidade de recursos ao longo do tempo:
treinamento de pessoal; software de código fechado;
“upgrade” da rede; suporte técnico; etc.
Especificamente em relação à carta náutica, mesmo
para a produção de cartas de grande escala, não se faz
necessária uma coleta de dados batimétricos em
cobertura integral do fundo. As sondagens são
representadas de forma esparsada segundo os critérios
da Organização Hidrográfica Internacional (OHI),
após uma seleção adequada. Uma coleta de dados
em densidades menores é satisfatória e geraria menor
volume de dados a serem manipulados por um
SGBD.
Em que pese a opção pela coleta estratégica com maior
fator de cobertura, uma solução alternativa seria a
adoção pelo SH, em uma primeira etapa, de
ferramental computacional capaz de extrair uma
menor densidade de dados do volume total coletado.
Essa massa decorrente seria de tamanho adequado à
correta manipulação pelo SGBD, porém com o
propósito exclusivo de satisfazer somente o uso ligado
à navegação. Tal solução implicaria menores
investimentos iniciais. Futuramente, em uma segunda
etapa, poder-se-ia concluir, do ponto de vista da
Geomática, que os recursos disponíveis fossem
suficientes, ou pelo menos compensáveis, para a
implementação de soluções robustas e completas.
Soluções que permitissem a exploração de toda a
potencialidade dos dados coletados, gerando
informação com detalhamento suficiente para
satisfazer os usos mais exigentes. Neste caso, importante
ressaltar, sem a necessidade de novas coletas de dados,
cujos custos são de ordem bastante elevada.
Ao ser adotada essa idéia, de menor envergadura,
porém escalável no tempo, pode-se conduzir a pesquisa
em busca de soluções com alto poder de compressão
em relação aos dados batimétricos envolvidos. O
volume resultante, mesmo comprimido, deverá ser
capaz de representar o fundo marítimo dentro dos
propósitos inerentes à navegação com segurança.
Partindo desta assertiva, primeiramente, o espaço a
ser modelado precisa ser analisado de forma a
identificar sub-regiões menores dentro dele, cujas
medidas de profundidade possam ser representadas
por um único ponto ou função. Optando-se pelo
modelo funcional, significativa redução do volume de
dados, em função direta da tolerância ao erro de
representação aceita para o modelo, pode ser alcançada
com o particionamento do espaço nos moldes de uma
“quadtree”. No exemplo da Figura 1, se a tolerância
ao erro for nula, o modelo será idêntico à realidade
(nº de profundidades igual ao nº de células), porém
perderá a função de compressão dos dados. Com a
tolerância dilatada, células ou sub-regiões homogêneas
com várias profundidades poderão ser representadas,
cada qual por uma única função com erro intrínseco
aceitável.
FIGURA 1
Modelagem de um fundo hipotético segundo a tolerância ao erro de representação.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
51
CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS
A divisão recursiva do espaço, mediante o raciocínio
da “quadtree” e segundo uma tolerância ao erro de
representação previamente estipulada, gera visível
compressão. Entretanto, em vista do volume
extravagante de dados coletados por ecobatímetros
tecnologicamente avançados, pode-se tentar buscar
soluções de maior poder de compressão e
modelagem.
Estudos ligados à Tecnologia da Geoinformação,
destacam a pesquisa baseada em lógica nebulosa
(“fuzzy”) e Redes Neurais Artificiais (RNA) como
bastante interessante nesta área. Uma solução potencial
nessa linha baseia-se nos Sistemas de Inferência NeuroFuzzy Hierárquicos (SINFH) aludidos por Souza
(1999). O cerne desta metodologia alternativa aplicada
à compressão, fundamenta-se nos conceitos ligados à
Inteligência Artificial, com o propósito de flexibilizar
ao máximo o particionamento recursivo utilizado no
modelo “quadtree”. Este sistema inteligente
possibilitará a concentração do particionamento nas
regiões de relevo acidentado e aliviará a subdivisão
recursiva dos relevos planos. Com menor número de
sub-regiões geradas nestas áreas planas, será possível
um melhor desempenho de compressão. O
paradigma nebuloso agregado ao sistema, por sua vez,
buscará um melhor poder de modelagem, por meio
de uma abstração mais próxima do comportamento
natural de variação da batimetria (BARROS, 2006).
O custo computacional gerado pelo aumento de
desempenho de compressão, neste caso, é elevado. O
processo de geração inteligente dos dados
comprimidos é lento e dependente da estruturação
do método, da eficiência do algoritmo, do método
estatístico envolvido no processo, do poder de
processamento envolvido, do volume de dados iniciais,
da fisiologia mais homogênea ou acidentada do relevo,
dentre outros aspectos. Entretanto, é relevante salientar
que esse tempo maior de processamento não invalida
a solução pelo SINFH. A compressão é apenas a
preparação da base de dados que será carregada no
SGBD. Uma vez inserida no processo produtivo,
poder se-á arquivar o volume de dados originais e
trabalhar somente com o volume decorrente, que
tenderá a não induzir os gargalos técnicos imputados
aos SGBDs tradicionais. Não menos importante é o
fato de que os dados originais arquivados “offline”
poderão ser utilizados para validar o produto
52
cartográfico final, mediante o uso dos dados reduzidos
(armazenados no SGBD). Poderão ficar também à
disposição para consultas direcionadas fora do SGDB
e, portanto, fora do processo de produção da carta
náutica. De valor estratégico para o uso futuro, o
volume arquivado “offline” terá destinação adequada
na satisfação de outros usos da informação, quando
pertinente (BARROS, 2006)
METODOLOGIA.
FIGURA 2
Visualização dos quatro conceitos aplicados ao mesmo
fundo hipotético da Figura 1: menor nº de células, maior
compressão e melhor poder de modelagem.
Quatro conceitos fundamentais devem ser
desenvolvidos a partir do modelo de particionamento
recursivo “quadtree” e implementados de forma
metodológica para o SINFH (BARROS, 2006)
(Figura 2): 1 – a substituição das linhas limites de cada
sub-região ou célula criada, por faixas gradientes de
largura variável que agreguem maior poder de
modelagem em relação ao mundo real, além de
contribuírem para um menor número de divisões; 2 –
a flexibilização das subdivisões recursivas de cada célula
do espaço, que na “quadtree”, geram sempre partes
iguais. Nesta proposta, as subdivisões passarão a gerar
novas células de tamanho irregular, promovendo
melhor adaptação ao relevo, com menor necessidade
de novos particionamentos em regiões planas; 3 – a
flexibilização quanto à subdivisão obrigatória de todas
as células, mediante análise do erro de representação.
Cada subdivisão passará a ocorrer conforme a análise
individual de cada célula em relação à tolerância ao
erro. Isto significa concentrar as subdivisões do espaço
nas áreas acidentadas e diminuí-las nas áreas planas;
4 – a substituição do particionamento hierárquico
“quadtree” pelo particionamento binário do espaço
(BSP) que, segundo Souza (1999), tende a ser
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
AMBIENTE OPERACIONAL
normalmente mais flexível, implicando uma estrutura
mais compacta na solução de um mesmo problema.
Paradigma nebuloso
Historicamente, a lógica nebulosa (“fuzzy”) teve sua
origem em 1965, com a criação da Teoria dos
Conjuntos Nebulosos por Lofti A. Zadeh. Esta teoria
fornece a base matemática que permite o manuseio
das imprecisões, por intermédio da lingüística e
cognição humanas. Procura modelar o mundo real,
por meio de uma linguagem matemática semelhante
à forma humana de pensar, muitas vezes encerrada
em conceitos vagos e imprecisos como alto, médio,
frio, forte, etc.
A construção de um Sistema de Inferência Fuzzy (SIF)
parte da observação dos dados e extração, por
especialistas humanos, do conhecimento explícito que,
no caso do relevo submarino, traduz-se na definição
de sub-regiões com profundidades homogêneas.
Este paradigma promoverá a representação dos limites
entre sub-regiões adjacentes por faixas gradientes. As
espessuras variáveis, atribuídas particularmente a cada
faixa-limite, denotarão o comportamento natural de
variação do fundo. A possibilidade de posicionar
livremente cada faixa, de forma a induzir menor erro
na saída do SIF, resolverá a questão da geração de
novas células de tamanho irregular.
Para que as sub-regiões geradas sejam caracterizadas
pela idéia de imprecisão, seus parâmetros definidores
(latitude e longitude) deverão dar origem a quantos
conjuntos nebulosos forem necessários. Cada conjunto
será lingüisticamente determinado por conceitos
imprecisos, como latitude alta, longitude baixa, etc.
(Figura 3).
Decisões importantes terão que ser tomadas pelo
especialista para se chegar ao resultado didático da
Figura 3: a quantidade de conjuntos necessária para
cada variável de entrada (latitude e longitude); o grau
de nebulosidade dos conjuntos (faixa gradiente de
transição); o ponto de interseção entre conjuntos
adjacentes (posição flexível da faixa na divisão irregular das células); o relacionamento entre os conjuntos
nebulosos; as operações lógicas entre eles; etc.
Supondo que o especialista tenha optado por utilizar
funções sigmóides complementares aritméticas a um
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
FIGURA 3
Modelagem, pelo especialista, de um espaço simplificado utilizando 4 conjuntos nebulosos e o
particionamento “quadtree”.
e r (x ) = 1 / 1 + e + a (x - b ) , a variável
(x) representará uma das variáveis de entrada (latitude
ou longitude). Para a representação do
comportamento (grau de pertinência) dos conjuntos
a serem criados, será necessário que, para cada
conjunto, sejam definidos os parâmetros a e b das
funções (Figura 4). O Parâmetro a define o grau de
nebulosidade das funções sigmóides (inclinação no
ponto de transição). Já o parâmetro b indica o ponto
de transição propriamente dito, isto é, o
posicionamento flexível da faixa de fronteira entre subregiões adjacentes. Para facilitar a utilização destas
Funções de Pertinência (FPs) nos exemplos que se
seguirão, as denominações µ(ö), ñ(ö) e µ(ë), ñ(ë)
serão escritas como µ1, ñ1 e µ2, ñ2 respectivamente.
m (x ) = 1 / 1 + e - a (x - b )
Uma vez definidos os conjuntos nebulosos, de forma
suficiente para a modelagem do relevo submarino,
será necessário relacioná-los por meio de regras de
inferência “fuzzy”, as quais permitirão a obtenção da
profundidade em determinado ponto de latitude e
longitude conhecidas (Tabela 1).
Com as regras definidas, o especialista já pode montar
o SIF. Se ele tiver tomado boas decisões durante a
construção do modelo, terá conseguido substituir todo
o conjunto de dados iniciais por um conjunto menor
53
CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS
FIGURA 4
Definição dos parâmetros am, bm, an, bn das funções sigmóides.
TABELA 1
Regras de inferência “fuzzy” combinando os conjuntos nebulosos do espaço de entrada e relacionando-os com os
conjuntos nebulosos dos conseqüentes das regras.
1ª Variável lingüística
(ANTECEDENTE)
Conjuntos
Nebulosos
2ª Variável lingüística
(ANTECEDENTE)
BAIXA(µ1)
Se a Latitude (φ) é
BAIXA(µ1)
ALTA(ρ1)
Conjuntos
Nebulosos
3ª Variável lingüísti ca
(CONSEQUENTE)
ALTA(µ2)
E a Longitude (λ) é
ALTA(ρ1)
BAIXA(ρ2)
BAIXA(ρ2)
ALTA(µ2)
Conjuntos
Nebulosos
P0
então a Profundidade deve ser
P1
P2
P3
de parâmetros funcionais, quais sejam: os parâmetros
a e b de cada FP dos antecedentes das regras e os
parâmetros P das FPs dos conseqüentes.
O erro entre a profundidade calculada pelo sistema e
a profundidade real num ponto será função direta da
modelagem do sistema em todos os seus aspectos.
Graficamente, o processo pode ser entendido como
se segue (Figura 5). Determinado ponto, cujas
coordenadas latitude (ö) e longitude (ë) se encontram
nos intervalos estipulados para a definição do universo
de discurso destas duas variáveis, foi inserido no
sistema. Fuzzificados, isto é, convertidos para a
linguagem dos conjuntos nebulosos, os valores de (ö)
e (ë) do ponto são combinados dentro das quatro
regras definidas para o problema. O operador de
interseção OU (MIN) resolve cada regra pelo menor
valor, de forma a gerar um grau de disparo (ái) (“firing
strength”), em cada situação. Esse grau de disparo
54
FIGURA 5
Resolução das regras “fuzzy” da tabela 1 graficamente
no Matlab©.
determina um valor µ(Pi) dentro de cada conjunto
nebuloso representado pelas FP do tipo “singleton”.
A média ponderada dos µ(P i ) simplifica a
defuzzificação e gera a saída determinística (exata)
desejada, no caso, a profundidade referente ao ponto
fornecido.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
AMBIENTE OPERACIONAL
Paradigma “neural”
No caso do exemplo da Figura 3, talvez seja possível
para o especialista definir manualmente os melhores
valores dos parâmetros a, b e P de cada uma das 4
funções relativas às sub-regiões criadas. Entretanto, a
modelagem de um fundo marítimo real e complexo,
com inúmeras sub-regiões, deverá contar com uma
ferramenta que automatize tal tarefa, de forma a
permitir a compressão exigida e a fidelidade em relação
ao relevo. A contribuição das Redes Neurais Artificiais
(RNA) basear-se-á em sua habilidade para aprender,
o que permitirá que, uma vez criados os conjuntos,
seus parâmetros sejam automaticamente ajustados
(aprendidos) de forma ótima, minimizando o erro
do sistema.
Esse ajuste a que se refere o parágrafo anterior é
possível porque o sistema neural é adaptativo, isto é,
por intermédio de um algoritmo de aprendizagem,
como o da Retropropagação elástica (RProp)
(ALMEIDA NEVES, 1997), ele é capaz de encontrar
automaticamente os melhores valores dos parâmetros
das FPs (SOUZA, 1999).
As RNA são baseadas no sistema de neurônios biológicos (Figura 6). Pelos dendritos, os sinais provenientes de outros neurônios e que chegam através das sinapses (espécie de conexão entre os neurônios) são
recebidos. Os sinais vão sendo acumulados no corpo
do neurônio até que sua soma ultrapasse determinado patamar. Ao ser ultrapassado, um grau de disparo
é ativado (“firing strength”) e o sinal é propagado a
outros neurônios do sistema nervoso pelo axônio.
A construção do SINFH implica implementar o SIF
segundo a estrutura de uma rede neural. Passa-se assim
a ter um sistema híbrido juntando os dois paradigmas
da Inteligência Computacional (JANG, 1993; KRUSE
e NAUCH, 1994).
FIGURA 6
Fluxo da informação pelos neurônios biológicos.
Modificado de http://filosofia.com.br/.
FIGURA 7
Regras “fuzzy” da tabela 1 interpretadas por neurônios
artificiais individuais. As saídas geradas são os graus de
disparo (á i) de cada regra e comporão as entradas do
neurônio gerador da profundidade P do sistema.
Considerando o modelo do neurônio biológico, o
esquema “fuzzy” da Figura 3 e suas regras da tabela 1,
podem-se gerar neurônios artificiais que, em conjunto,
formarão uma RNA e, em um contexto mais amplo,
o SINF (Figuras 7 e 8).
O conhecimento antecipado das profundidades da
base de dados original permitirá o treinamento da
rede por comparação sistemática com as
profundidades geradas (aprendizado supervisio-nado)
(HAYKIN, 1998). Ao final de todo o processo, os
parâmetros a, b e P das funções utilizadas estarão
definidos (aprendidos) para aquele fundo marítimo
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
FIGURA 8
RNA gerada pela composição dos neurônios individuais
da Figura 7. Os blocos do SIF identificados na rede
permitem defini-la como um SINF.
55
CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS
escolhido e ficarão armazenados nas sinapses dos
neurônios artificiais. Isso permitirá que as funções
utilizadas substituam eficazmente as profundidades de
sub-regiões homogêneas do espaço, de forma a
melhor representá-lo pelo sistema.
Hierarquia agregada ao modelo SINF
Ainda fazendo menção ao exemplo da Figura 3,
verifica-se que, pela sua simplicidade didática, o
especialista pôde inferir que apenas 4 sub-regiões
seriam necessárias para modelar o fundo marítimo.
Entretanto, uma superfície real exigirá muitos conjuntos
nebulosos. O SINF não possui autonomia para a
geração automática e inteligente de sua própria
estrutura (SOUZA, 1999).
Um modelo neuro-fuzzy hierárquico é composto de
uma ou várias células neuro-fuzzy interligadas segundo
uma estrutura hierárquica (SOUZA, 1999). Cada célula
é um mini-sistema neuro-fuzzy aos moldes do
exemplo da Figura 8.
A solução a ser implementada mantém a idéia original
do particionamento recursivo (hierarquia) do espaço
de entrada. Porém, o modelo “quadtree” será
substituído pelo “Binary Space Partitioning” (BSP),
originando o SINFH Binário ou SINFHB. A
subdivisão recursiva que era obrigatória (após a
constatação estatística de um valor de erro acima do
tolerado na saída do sistema) para todas as células de
determinado nível hierárquico, passará a levar em conta
também a contribuição de cada célula (sub-região) para
o erro de saída. Sub-regiões com erros em níveis abaixo
do valor tolerado não necessitarão de novos
particionamentos.
A Figura 9 mostra um determinado fundo marítimo,
onde sub-regiões homogêneas foram criadas mediante
o conceito do SINFHB (Figura 10, a seguir). Seis células
ou sub-regiões são representadas por funções, cujos
parâmetros ajustados permitem a modelagem do
fundo consoante à tolerância ao erro estipulada para
a saída do sistema. Todas as profundidades originais
serão substituídas pelos parâmetros funcionais
ajustados, gerando a compressão desejada. O esquema
simplificado da Figura 11, a seguir, facilita a
compreensão do modelo, onde a célula de maior
hierarquia gera a saída P do sistema.
56
FIGURA 9
Conjuntos “fuzzy” criados com particionamento BSP.
Discussão dos resultados de desempenho do
SINFHB e do método “quadtree”, utilizando-se
os conjuntos “teste_1” e “teste_2”.
Considerações iniciais:
a) o conjunto “teste_1” (Figura 12, a seguir) caracterizase por se constituir de uma fisiologia mais homogênea.
Algumas elevações são encontradas na margem direita
do canal, porém o restante do relevo pode ser
considerado suave e sem grandes variações;
b) o conjunto “teste_2” (Figura 13, a seguir) possui
uma fisiologia mais acidentada. Diversas elevações,
tanto à direita quanto à esquerda do canal, trazem
maiores variações de profundidade, que tendem a se
intensificar, principalmente, no extremo inferior direito
do canal;
c) ambos os conjuntos de teste possuem
aproximadamente 5.500 pontos sondados;
d) os dois métodos foram calibrados para um limite
aceitável de erro percentual médio de 3%. Foi
considerado ajustado o conjunto de dados
(parâmetros das células) que atingiu o primeiro valor
inferior a este limite;
e) o percentual de compressão para ambos os métodos,
foi calculado considerando-se o peso em “bytes” da
informação de cada ponto e de cada célula específica
para o modelo utilizado (SINFHB ou “quadtree”); e
f) o desempenho de compressão do SINFHB em
relação ao “quadtree”, foi calculado considerando-se
o peso em “bytes” do conjunto de células geradas
pelo primeiro modelo, em relação ao conjunto de
células geradas pelo segundo.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
AMBIENTE OPERACIONAL
FIGURA 10
SINFHB para a região da Figura 9.
FIGURA 11
Sistema simplificado do SINFHB para o modelo conceitual da Figura 10.
O SINFHB gerou resultados interessantes para os
conjuntos “teste_1” e “teste_2”. 92,16% e 81,35%
foram os fatores de compressão alcançados para
ambos os conjuntos, respectivamente, o que sugeriu
boa aplicabilidade do método proposto. A modelagem
obtida com os dados comprimidos (Figuras 14 e 15,
a seguir) gerou perfis batimétricos com boa
aproximação em relação aos perfis originais (Figuras
12 e 13), preser vando as características mais
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
importantes do fundo para a representação na carta
náutica.
As mesmas duas amostras foram trabalhadas pelo
modelo “quadtree”. Os resultados indicaram fatores
de compressão de 84,99% e 43,82% para os conjuntos
“teste_1” e “teste_2”, respectivamente. Estes valores
alcançados para o modelo “quadtree” confirmam o
potencial de compressão superior do SINFHB,
principalmente em regiões de fisiologia acidentada.
57
CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS
FIGURA 12
Conjunto “teste_1”: modelagem obtida com as profundidades originais.
FIGURA 13
Conjunto “teste_2”: modelagem obtida com as profundidades originais.
58
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
AMBIENTE OPERACIONAL
FIGURA 14
SINFHB: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_1”. Tolerância ao erro (3%).
FIGURA 15
SINFHB: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_2”. Tolerância ao erro (3%).
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
59
CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS
A modelagem “quadtree” (Figura 16) já não apresenta
um resultado tão suave, como o obtido pelo SINFHB
(Figura 14) em regiões de fisiologia mais homogênea.
Nestes perfis, naturalmente serão geradas menos
células do que em regiões acidentadas (independente
do método utilizado). Entretanto, o modelo
“quadtree” não é capaz de suavizar as transições entre
células adjacentes, deixando transparecer os desníveis
abruptos (degraus) entre elas. Este efeito é minimizado
na modelagem “quadtree” da Figura 17, a seguir,
devido à maior quantidade de células geradas para
cobrir a tolerância estipulada.
Comparativamente, verifica se que para o conjunto
“teste_1”, o desempenho de compressão do SINFHB
em relação ao “quadtree” foi de 47,75%. Este valor
equivale dizer que o tamanho em “bytes” do conjunto
de células gerado pelo SINFHB é praticamente a
metade do tamanho gerado para as células do modelo
“quadtree”. Se esse resultado já denota o potencial
superior do SINFHB quanto à compressão, mais
expressivo ainda é o potencial observado em áreas
de relevo acidentado. Em regiões como a do conjunto
“teste_2”, o desempenho de compressão a favor do
SINFHB foi de 66,80%. O tamanho em “bytes” do
conjunto de células gerado pelo SINFHB foi da ordem
de um terço do tamanho gerado para as células do
modelo “quadtree”.
Tanto para o SINFHB, quanto para o “quadtree”,
utilizando-se os conjuntos “teste_1” e “teste_2”,
aproximadamente 5,0% dos pontos totais foram
considerados acima do limite aceitável de erro (3%).
Essa limitação (Figuras 18, 19, 20 e 21, a seguir),
presente nos dois modelos no mesmo patamar
percentual, indica que os quatro conceitos
implementados a partir do modelo básico
(“quadtree”) não atuaram de forma a gerar ou
magnificar esse resultado indesejado. Se for estipulado
um limite aceitável de erro percentual médio menor
que 3%, mais células serão criadas em ambos os
métodos, a fim de se minimizar a existência de pontos
com erros percentuais inaceitáveis. Entretanto, para
evitar essa decisão e, conseqüentemente, o acréscimo
do número de células, pode-se flexibilizar o
posicionamento espacial das funções.
No método SINFHB desenvolvido, somente funções
representando planos com valores médios de
profundidade foram utilizadas. Porém, estes planos
coadunam, em casos onde há um desnível considerável
FIGURA 16
“quadtree”: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_1”. Tolerância ao erro (3%).
60
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
AMBIENTE OPERACIONAL
FIGURA 17
“quadtree”: modelagem obtida com os parâmetros gerados a partir do conjunto “teste_2”. Tolerância ao erro (3%).
FIGURA 18
SINFHB: erro percentual gerado para cada ponto do conjunto “teste_1”.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
61
CAPITÃO-DE-CORVETA FREDERICO C. MUTHZ M. BARROS
FIGURA 19
“quadtree”: erro percentual gerado para cada ponto do conjunto “teste_1”.
FIGURA 20
SINFHB: erro percentual gerado para cada ponto do conjunto “teste_2”.
62
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
AMBIENTE OPERACIONAL
FIGURA 21
“quadtree”: erro percentual gerado para cada ponto do conjunto “teste_2”.
de profundidade, valores altos de desvio-padrão. A
combinação linear das entradas (ö e ë), como terceira
opção ao conseqüente de cada célula permite criar
superfícies planas inclinadas em contraposição à rigidez
do posicionamento horizontal que foi adotado. É uma
opção de modelagem localizada que, ao diminuir o
desvio-padrão da célula, pode, muitas vezes, contribuir
eficazmente para a redução de pontos com erro
percentual acima da tolerância.
CONCLUSÕES
A possibilidade de aprimoramento do método
proposto traz a expectativa de aliar o comprovado
potencial nele existente com ferramentas que possam
minimizar os resultados indesejados. Como resultado,
um método bem projetado poderá contribuir
efetivamente para o processo de produção das cartas
náuticas. Poderá também tornar a informação náutica
do SGBD disponível à comunidade científica, se tal
decisão for ao encontro dos interesses governamentais
políticos e econômicos. Por ser de aplicação genérica
e universal, e funcionar também como um
interpolador, poderá ser aplicado em outras áreas de
interesse. Os conceitos teóricos envolvidos poderão
ser alinhados dentro da ótica comercial, em substituição
a softwares que não disponibilizam a fundamentação
teórica sobre o funcionamento do sistema.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 50-63
REFERÊNCIAS
ALMEIDA NEVES, P.E.C.S. Algoritmos de aprendizado no modelo neural
combinatório. 1997. 123 f. Dissertação (mestrado em sistemas de
computação) – UFRJ, Rio de Janeiro, 1997.
BARROS, F.C.M.M. Sistema de inferência neuro-fuzzy hierárquico: uma solução
para a compressão de dados batimétricos. 2006. 125 f. Dissertação (mestrado
em ciências da computação – área de concentração: Geomática) –
UERJ, Rio de Janeiro, 2006.
BRISSETTE, M.B. “More is better” a look the perceived need for
increased accuracies in hydrographic applications. In: CANADIAN
HYDROGRAPHIC CONFERENCE, 2004, Ottawa, Canada. [Proceedings
of CHC2004]. Ottawa, Canada: [s.n.], 2004, more_is_Better.pdf.
HAYKIN, S. Neural networks – a comprehensive foundation. 2nd ed. Ontario,
Canada: Prentice Hall, 1998.
JANG, J.S.R. ANFIS: adaptive-network-based fuzzy inference system.
IEEE Transactions on systems, man, and cybernetics, [Arlington, USA], v.
23, n. 3, p. 665–685, may/june 1993.
KRUSE, R.; NAUCH, D. Choosing appropriate neuro-fuzzy models.
In: EUROPEAN CONGRESS ON INTELLIGENT TECHNIQUES
AND SOFT COMPUTING, 2., 1994, Aachen, Germany. Proceedings of
EUFIT’94. Aachen, Germany: [s.n.], 1994, p. 552–557, v. 1.
SOUZA, F.J. Modelos neuro-fuzzy hierárquicos. 1999. 169 f. Tese (doutorado
em engenharia elétrica: sistemas de computação) – PUC, Rio de
Janeiro, 1999.
63
CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO
Análise da velocidade e atenuação do som no fundo
marinho e sua contribuição para a previsão do
alcance Sonar
Capitão-de-Corveta Helber Carvalho Macedo
Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM.
E-mail: [email protected]
Alberto Garcia de Figueiredo Jr.
Departamento de Geologia – Universidade Federal Fluminense (UFF).
E-mail: [email protected]
João Carlos Machado
Programa de Engenharia Biomédica, COPPE – UFRJ
E-mail: [email protected]
Resumo
A velocidade e a atenuação da onda compressional em
sedimentos são propriedades que contribuem para o
desenvolvimento de modelos geoacústicos do fundo marinho.
Os resultados obtidos a partir de tais modelos podem ser
amplamente aplicados na previsão do alcance sonar.
Um sistema de medição destas propriedades foi desenvolvido
e montado em laboratório. Testemunhos de sondagem foram
coletados em uma área de plataforma continental, localizada
nas proximidades da Ilha do Cabo Frio-RJ. Na descrição dos
testemunhos, foram identificados sete tipos de sedimentos:
areias grossa, média e fina, areia lamosa, lama arenosa, lama
compactada e fluida. Em laboratório, foram executadas 2.550
medições acústicas nos sedimentos, que permitiram construir
perfis de velocidade da onda e diagramas de atenuação, em
função da freqüência.
Os valores medidos para a velocidade de propagação estão de
acordo com os tabelados na literatura, e os perfis identificaram
interfaces entre camadas de sedimentos. O diagrama de
atenuação permitiu uma boa avaliação do comportamento
espectral do sinal, principalmente com relação à linearidade.
Palavras-chave
Geoacústica. Ondas compressionais. Velocidade. Atenuação.
The analysis of sound velocity and attenuation
in the sea floor and the contribution to sonar
prediction
Abstract
Compressional wave velocity and attenuation are important
properties that contribute to the development of sea floor
geoacoustic models. Results of such modeling can be widely
applied in sonar prediction.
In laboratory, an ultrasonic system was constructed to measure
compressional wave propagation in marine sediments. Nine (9)
piston-cores were collected at Rio de Janeiro continental
shelf, offshore Arraial do Cabo. Before splitting the cores,
approximately 2.550 measurements were taken. After this,
cores were split in two halves and described. Seven (7) types
of sediments were found: coarse, medium and fine sands,
muddy sand, sandy mud, consolidated and fluid mud.
Results permitted to construct sound velocity profiles and 3D
attenuation diagram, which showed coherence with data sets
taken from literature. Interfaces between sedimentary layers
were also identified. The 3D attenuation diagram in frequency
domain displayed good information of spectral attenuation.
Keywords
Geoacoustic. Compressional waves. Velocity. Attenuation.
64
INTRODUÇÃO
A previsão do ambiente acústico é de extrema
relevância para o planejamento das Operações Navais.
Este recurso permite otimizar o emprego dos meios
navais, interferindo de modo significativo no processo
de tomada de decisão em operações anti-submarino
e de ataque. Esta previsão é obtida por meio de
modelos matemáticos que, por sua vez, fornecem
informações sobre o alcance sonar previsto para uma
determinada área, em um determinado período.
Pesquisadores como Hamilton (1980), Richardson et
al. (2002) e Buckingham (2000 e 2004), mencionam
que diversos são os parâmetros e as propriedades
necessárias a este tipo de modelagem, dentre os quais
destacam-se àqueles relacionados ao fundo marinho,
como por exemplo: (1) a identificação do tipo de
sedimento ou rocha; (2) a espessura, o formato das
camadas e a localização das principais superfícies
refletoras; e (3) a definição da velocidade (Vp) e
atenuação da onda compressional (P) nos sedimentos.
Neste contexto, este trabalho está baseado nos
seguintes objetivos:
1 - realizar medições de velocidade (Vp) e atenuação
em sedimentos coletados por testemunhos de
sondagem; e
2 - relacionar os resultados obtidos com as
características sedimentológicas do material
coletado, comparando-os com aqueles
disponíveis na literatura.
Para atender a este propósito, o Instituto de Estudos
do Mar Almirante Paulo Moreira (IEAPM), o
Laboratório de Geologia Marinha (LAGEMAR –
UFF) e o Programa de Engenharia Biomédica da
COPPE-UFRJ uniram seus esforços e apoiaram o
desenvolvimento desta pesquisa.
Para realizar as medições, foi montado um sistema
com a capacidade de emitir, receber, digitalizar e
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
AMBIENTE OPERACIONAL
armazenar sinais de propagação de ondas “P” em
sedimentos, na freqüência fundamental de 2,25 MHz.
Os testemunhos de sondagem foram coletados na
área de estudos, localizada nas proximidades da Ilha
do Cabo Frio, próxima à cidade de Arraial do Cabo
– RJ, onde está inserida a Raia Acústica do Centro de
Apoio aos Sistemas Operativos – (CASOP).
Os resultados obtidos neste trabalho permitiram
construir perfis de velocidade do som (Vp) e
diagramas de atenuação em 3D, em função da
freqüência. Estes dados foram associados aos
parâmetros sedimentológicos dos materiais que
compõem os testemunhos, principalmente no que diz
respeito a granulometria.
METODOLOGIA
Esta pesquisa foi desenvolvida em cinco etapas:
1 - Montagem, calibração e teste do sistema de
medição proposto no primeiro objetivo;
2 - Realização da comissão oceanográfica para a
coleta dos nove (9) testemunhos na área de
pesquisa, totalizando 12,0 metros de sedimentos;
3 - Execução de 2.550 medições de propagação do
som ao longo dos testemunhos (Macedo et al.,
2005), para a construção de perfis de velocidade
em relação à posição no testemunho e de
diagramas tridimensionais da atenuação, em
função da freqüência e da posição;
4 - Descrição sedimentológica, fotografia e análise
granulométrica dos testemunhos; e
5 - Comparação dos resultados das medições com
as características dos sedimentos coletados ao
longo do testemunho.
Sistema de Medição
O sistema de medições desenvolvido (Figura 1) tem
como base o experimento de Maa et al. (1997) e de
Gorgas et al. (2002), sendo composto por:
– uma placa geradora e controladora de pulsos de
ultra-som (Matec, modelo SR-9000, Hopkinton,
MA, USA), condicionada a um slot de expansão
de um computador comum;
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
FIGURA 1
Sistema experimental de medição da velocidade de
propagação e atenuação de onda acústica (Macedo et
al., 2005).
– uma interface de comunicação de dados GPIB –
General Purpose Interface Bus (Measurement Computing
Corporation, modelo IEE – 488.2, Middleboro, MA,
USA);
– um osciloscópio digital (Tektronix, modelo TK –
2220, Beaverton, OR, USA), instrumento que
permite o controle e o ajuste do mecanismo de
aquisição do sinal; e
– um par de transdutores de ultra-som, de contato
(Panametrics- NDT, modelo V-133 RM, Waltham,
MA, USA), freqüência de 2,25 MHz e diâmetro
nominal de 6 mm. Estes foram submetidos a testes
padrão (TP 103, Panametrics, 2005) e alojados nas
extremidades da ferramenta de perfilagem, que tem
formato de pinça.
As medições foram feitas em duas fases e em planos
ortogonais, de modo que cada posição ao longo do
testemunho tivesse dois valores. Este método teve
como propósito verificar possíveis diferenças nos
valores medidos, tendo em vista as alterações
provocadas pela heterogeneidade do material. Cada
fase foi relacionada a uma linha de medição, referente
a um plano. Logo, para cada testemunho foram
construídos dois perfis de velocidade. O perfil
denominado por “1”, referente ao plano azul, e o
perfil “2” para o plano vermelho, ortogonal ao perfil
“1”.
65
CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO
Na aquisição e no processamento dos dados, foram
usados programas específicos desenvolvidos em
ambiente LabView e MatLab, respectivamente.
Cálculo da Velocidade
O método utilizado neste trabalho tem como base a
diferença entre os tempos de propagação da onda
sonora para uma medição em um tubo de PVC cheio
de água, seguido de uma medição no testemunho real
contendo sedimento marinho. Esta diferença é
denominada atraso entre os sinais (∆t) e é calculada
pela equação (1), usada para o cálculo da velocidade
de propagação no sedimento (Csed) (Kinsler et al.,
1982):
-1
æ 1
DT ö
Csed = ç
÷
çCágua - L ÷
ø
è
(1)
O “L” é o diâmetro interno do tubo de PVC, tem o
valor de 47,4 mm e é fixo para todos os testemunhos.
O “Cágua” é a velocidade calculada na água durante a
calibração.
O valor de ∆ T é calculado no programa de
processamento dos sinais (ultra_sed.mat), pelo método
da correlação cruzada (equações 2 e 3) entre os sinais
de calibração na água e os sinais originados pela
propagação no testemunho, descrito pelas equações:
propaga através de um meio, cujo valor varia em
função da distância percorrida pelo sinal, sendo
dependente da freqüência.
Neste trabalho, foi empregado o método denominado
“método da substituição” (He & Zeng, 2001), que
usa como recurso o cálculo da atenuação por meio
da razão
I0
.
I
Esta razão foi calculada para sinais que se propagam
em meios distintos. O primeiro deles é o sinal
propagado em um tubo de PVC com água, idêntico
ao testemunho. Este sinal é recebido com uma
intensidade “Iágua”. O segundo sinal propagado é o
recebido para o testemunho com sedimento, com
intensidade de “I sed”. Este método utiliza como
referência o valor da atenuação na água, que é próximo
de zero e, portanto, desprezível para esta faixa de
freqüência. As equações (4, 5 e 6) descrevem este
método, onde a atenuação (dB/m) é apresentada em
função da freqüência e da distância percorrida pelo
sinal (D):
I água ( f )
10
log
D
I sed ( f )
att dB ( f ) =
(4)
A equação (5) descreve a proporcionalidade existente
entre a intensidade e a amplitude espectral do sinal no
domínio da freqüência:
2
1
f e ( x, y ) g e ( x, y ) =
M,N
o
N-1
åf
*
e
M -1
å
m =0
(2), e
I ( f ) æ A( f ) ö
÷
=ç
÷
I0 ( f ) ç
A
(
f
)
è 0
ø
Assim, desenvolvendo as equações (4) e (5), teremos:
(m, n) g e ( x - m, y - n)
n =0
att dB ( f ) =
Á[ f ( x, y ) o g ( x, y )] =
¥
¥
ò òf
*
(a )
-¥ -¥
g ( x - a )da exp(- j 2pux)dx
(3)
Conhecendo-se o “∆t” e a distância entre os
transdutores, é possível calcular o valor da velocidade
(Vp) para propagação no sedimento.
Cálculo da Atenuação
Para Kinsler et al. (1982), a atenuação é a redução da
intensidade de energia de uma onda acústica que se
66
(5)
Aágua ( f )
20
log
D
Ased ( f )
(6)
O dado coletado no sistema (Figura 1) é o sinal elétrico
no domínio do tempo, em volts, correspondente ao
pulso de ultra-som (US) recebido pelo transdutor
“RC”.
Portanto, estes sinais propagados na água e nos
sedimentos foram digitalizados e armazenados no
osciloscópio. No programa denominado
“ultra_sed.mat”, os sinais armazenados da amplitude
espectral no domínio do tempo foram convertidos
em sinais de amplitude no domínio da freqüência,
utilizando o algoritmo “FFT” da Transformada de
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
AMBIENTE OPERACIONAL
Fourier. O mesmo programa executou os cálculos das
razões de Aágua ( f )/Ased ( f ) e dos valores de atenuação
(att), para cada ponto do testemunho e para cada
freqüência. Para apresentar estes dados, foram
construídos diagramas tridimensionais, com o eixo
vertical mostrando o resultado da atenuação (dB/m)
e, nos eixos horizontais, a posição em “cm” ao longo
do testemunho e o espectro de freqüência.
Coleta dos Testemunhos,
Granulometria
Descrição
e
Para a coleta dos testemunhos de sondagem, foi
utilizado o testemunhador à pistão tipo Kullenberg,
montado no AvPqOc “Diadorim” do IEAPM. Foram
coletados 9 testemunhos, com diâmetro de 50 mm, e
comprimentos que variam entre 60 e 219 cm (Artusi
et al., 2005).
O método de análise granulométrica adotado foi
baseado no processo de peneiramento, para
sedimentos grossos (cascalho e areia), e da pipetagem,
para a fração fina (lama), (Folk&Ward, 1957). As frações
granulométricas dominantes e os teores de lama foram
classificados utilizando o diagrama triangular de
Shepard (1954), onde são utilizadas proporções
relativas de cascalho, areia e lama. Sete (7) tipos de
sedimentos foram identificados nos nove (9)
testemunhos coletados: areias grossa, média e fina,
areia lamosa, lama arenosa, lama compactada (ou
consolidada) e lama fluida. Para facilitar a descrição
sedimentológica deste material, a legenda abaixo foi
criada (Figura 2), tendo como base símbolos
geológicos padronizados (US Geologic Survey, 2000).
FIGURA 2
Legenda com a identificação dos diferentes tipos de
sedimentos identificados neste trabalho
FIGURA 3
Testemunho 2. A) Desenho esquemático da litologia do
testemunho. B) Perfis de velocidade do som medidos
em planos ortogonais (linhas 1 e 2) ao longo do
testemunho.
RESULTADOS
Os resultados mais representativos da velocidade e
da atenuação nos sedimentos foram obtidos nos
testemunhos 2 (Figuras 3 e 4) e 7 (Figuras 5 e 6). Os
perfis de velocidade são apresentados ao lado de uma
descrição sedimentológica simplificada do testemunho,
construída com base nos resultados das análises
granulométricas.
O testemunho 2, composto por areia fina e uma
camada de areia lamosa pouco espessa, apresenta um
perfil muito uniforme. Na areia fina, a faixa de valores
de velocidade está entre 1.635 m/s (mínima) e 1.715
m/s (máxima). Na camada de areia lamosa (entre os
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
FIGURA 4
Testemunho 2. Diagrama de atenuação representativo
de medidas realizadas em planos ortogonais (linhas 1 e
2) ao longo do testemunho.
67
CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO
pontos 23 e 26 cm), o registro sônico mostra uma
queda acentuada de valor.
O registro da atenuação (Figura 4) é regular e uniforme
para as linhas 1 e 2, indicando valores de cerca de 400
dB/m para a freqüência de 1,6 MHz. Os valores
máximos de atenuação, cerca de 1.300 dB/m, são
registrados entre os pontos 20 e 27 cm, coincidente
com a camada de areia lamosa que está inserida no
pacote de areia fina. Logo, pode-se afirmar que, na
areia fina, os valores medidos estão na faixa de 400 a
700 dB/m, na freqüência de 1,6 MHz. Na areia lamosa,
os valores sobem para cerca de 1.300 dB/m, usando
a mesma freqüência.
O testemunho 7 (Figuras 5 e 6) tem em sua
composição camadas de lama fluida e lama
consolidada. A ocorrência de conchas e fragmentos é
pequena. Uma fina camada de lama arenosa é
encontrada nas proximidades do ponto 60 cm, onde
pode ser notada uma súbita elevação da Vp, atingindo
o valor máximo de 1.639 m/s. Para o estrato de lama
consolidada, os valores de velocidade medidos
variaram de 1.508 a 1.575 m/s. As camadas de lama
fluida forneceram medidas de 1.530 a 1.563 m/s.
Quedas nos valores da velocidade também são
observadas nas linhas 1 e 2, associadas às interfaces
das diferentes camadas. A primeira ocorre na transição
de lama consolidada para fluida no ponto 75 cm,
quando a velocidade cai de 1.550 para 1.537 m/s.
Em seguida, é observada uma elevação da Vp no
ponto 130 cm, sucedida por uma queda, também para
o valor de 1.537 m/s, no ponto 150 cm.
FIGURA 5
Testemunho 7. A) Desenho esquemático da litologia do
testemunho. B) Perfis de velocidade do som medidos
em planos ortogonais (linhas 1 e 2) ao longo do
testemunho.
Os maiores valores de atenuação são notados entre o
topo e o ponto 80 cm do testemunho 7. Neste trecho,
o valor médio medido é de 900 dB/m, para a
freqüência de 1,6 MHz. Alguns pontos isolados
chegam a atingir 1.000 dB/m. Do ponto 80 até o
ponto 170 cm, usando a mesma freqüência, os valores
são relativamente mais baixos, estando na faixa de 500
a 600 dB/m e, após 170 cm, uma nova elevação na
atenuação é observada, onde os valores atingem 1.000
dB/m. A atenuação se mantém elevada até chegar ao
final do testemunho, nas proximidades do ponto 200
cm, a partir do qual decai para cerca de 500 dB/m.
FIGURA 6
Testemunho 7. Diagrama de atenuação representativo
de medidas realizadas em planos ortogonais (linhas 1 e
2) ao longo do teste.
Para cada tipo de sedimento dos testemunhos, foi
estabelecida uma faixa de valores medidos para as
velocidades (Vp) e para a atenuação. A Tabela 1
relaciona as medidas de velocidade e apresenta um
resumo comparativo para os tipos de sedimento.
68
TABELA 1
Faixa de valores de velocidade para cada tipo de
sedimento.
Tipo de sedimento
Areia média
Areia fina
Areia lamosa
Lama arenosa
Lama consolidada
Lama fluida
Velocidade (m/s) Velocidade (m/s)
valor mínimo
valor máximo
1.655
1.752
1.635
1.715
1.550
1.647
1.570
1.639
1.508
1.575
1.530
1.563
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
AMBIENTE OPERACIONAL
A Tabela 2 mostra os valores de atenuação aproximados, para a freqüência de 1,6 MHz. Entretanto, cabe
ressaltar que as medidas obtidas não são absolutas.
Os valores apresentados significam apenas uma tendência desta propriedade física para a situação específica na qual foi realizada a medição. Pequenas variações na freqüência e até mesmo na posição dos transdutores, são suficientes para alterar medidas de atenuação em meios viscoelásticos.
TABELA 2
Faixa de valores de atenuação para a freqüência de 1,6
MHz.
Tipo de sedimento
Areia média
Areia fina
Areia lamosa
Lama arenosa
Lama consolidada
Lama fluida
Atenuação (dB/m)
valor mínimo
1.100
400
1.250
1.150
850
500
Atenuação (dB/m)
valor máximo
1.300
700
1.750
1.550
1.150
600
DISCUSSÃO
Os métodos de cálculo da previsão do alcance sonar
são baseados nas seguintes equações (Urick, 1975):
Sonar Ativo:
DT = SL – 2 TL + TS – (NL – DI)
(7)
Sonar Passivo:
DT = SL – TL – (NL – DI)
(8)
Cujos termos são, respectivamente:
DT – Limiar de Detecção
SL – Intensidade da Fonte
TL – Transmission Loss ou Perdas na Transmissão
TS – Poder de Reflexão do Alvo
NL – Ruído do Ambiente
DI – Índice de Diretividade do Alvo
A influência provocada pelo fundo marinho é
representada nas fórmulas pelo termo “TL”, que
considera, entre outras perdas, aquelas provocadas
pelas características do fundo. Este parâmetro é
calculado por algoritmos, que têm como base de dados
de entrada fatores como a densidade do sedimento, a
profundidade local, a geometria das camadas e,
principalmente, a velocidade e a atenuação das ondas
acústicas no material.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
Na areia média, foi medido o maior valor de “Vp”
(1.752 m/s), enquanto que os menores resultados
foram registrados na lama consolidada (1.508 m/s).
Os fatores geológicos mais relevantes, que controlam
a velocidade de onda (P) em sedimentos marinhos,
são a porosidade, a densidade e a pressão de
confinamento. Em geral, existe uma tendência de
aumento da “Vp”, com a diminuição da porosidade
e um aumento da densidade.
Maa et al. (1997) mediram valores de “Vp”, para
sedimentos com alta concentração de finos (silte e
argila), na faixa de 1.430 m/s a 1.590 m/s, utilizando
freqüências de 1 e 2,25 MHz. Richardson e Briggs
(2004) analisaram dados oriundos de 4.500 medidas
realizadas em testemunhos de sondagem, coletados
em 67 posições, em locais de águas rasas. Os valores
obtidos por estes autores são semelhantes aos
calculados neste trabalho.
Medidas de atenuação em meios viscoelásticos,
naturalmente, são de difícil obtenção, tendo em vista
a variabilidade desta propriedade, em função da
freqüência e sua susceptibilidade a ruídos e à
anisotropia (Hamilton, 1980). Portanto, o propósito
deste trabalho é estabelecer relações entre os resultados
das medições com o tipo de sedimento, apresentando
valores relativos de atenuação e associando as
diferenças encontradas às características do sedimento.
Os gráficos em 3D, em função da freqüência de 1,6
MHz, mostraram que os maiores valores de atenuação
foram encontrados nas areias lamosas e lamas arenosas.
A areia média apresentou uma atenuação menor que
as misturas lamosas. De um modo geral, os resultados
obtidos estão de acordo com a literatura. Esta explica
que os maiores valores de atenuação estão associados
aos sedimentos de menor granulometria, e que misturas
com alto teor de água (lama fluida) indicam valores
baixos de atenuação.
Para Hamilton (1972), a granulometria e a porosidade
são os parâmetros sedimentológicos que mais
influenciam na atenuação. Em areias, onde os grãos
são maiores e mais arredondados, a área de contato
entre as partículas é menor, conseqüentemente, a rigidez
é relativamente mais baixa. À medida que a dimensão
dos grãos diminui, a quantidade de partículas por
unidade de volume aumenta, aumentando assim as
áreas de contato, a rigidez e a atenuação. Sob este
aspecto, pode-se considerar a força de coesão, que
tem maiores efeitos sobre os siltes e as argilas. No
69
CAPITÃO-DE-CORVETA HELBER CARVALHO MACEDO, ALBERTO GARCIA DE FIGUEIREDO JR. , JOÃO CARLOS MACHADO
entanto, à medida que sedimentos mais grossos (areias),
são incorporados ao pacote de finos (lama), estes fazem
com que haja um aumento na heterogeneidade
granulométrica e uma diminuição na porosidade.
Logo, os materiais grossos perturbam e rompem as
estruturas dos agregados argilosos e siltosos que
compõe os finos. O efeito desta mistura é o aumento
da densidade do sedimento, sem que haja um aumento
compatível do módulo de elasticidade. Então, à
proporção que a quantidade de material grosso
aumenta, uma estrutura sólida é estabelecida pelo
contato físico dessas partículas, aumentando a rigidez
e a fricção, e diminuindo a porosidade, o que implica
em aumento da atenuação.
Outro dado relevante a ser citado, é a linearidade
existente entre a atenuação (dB/m) e a freqüência,
tendência esta observada nas análises dos gráficos da
propagação nos testemunhos. Esta análise está de
acordo com o preconizado por Hamilton (1972, 1980
e 1985), Simpson et al. (2003) e Buckingham (2004 e
2005).
Apesar dos fenômenos físicos relacionados à
velocidade e à atenuação serem distintos, no
experimento desenvolvido nesta pesquisa, foi possível
observar que, para a maioria dos sedimentos, há
nitidamente um aumento na velocidade relacionado à
diminuição da atenuação e vice-versa. Estes dados estão
em conformidade com os das tabelas produzidas por
Richardson e Brig gs (2004), resultantes de
propriedades e parâmetros geoacústicos oriundos de
4.500 medidas em sedimentos.
CONCLUSÕES
O sistema de medições desenvolvido neste trabalho,
composto pela aparelhagem e pelo programa de
processamento de sinais (ultra_sed.mat), mostrou-se
adequado para a função de emitir, receber, digitalizar
e ar mazenar sinais de propagação de ondas
compressionais (P), uma vez que os resultados obtidos
estão de acordo com os tabelados na literatura.
Os perfis de velocidade permitiram associar os valores
de “Vp” com os parâmetros sedimentológicos
obtidos na descrição do material coletado pelos
testemunhos. Este recurso favoreceu a identificação
de interfaces entre diferentes camadas de sedimentos.
Foi possível observar que as areias (média e fina)
apresentaram velocidades mais altas, quando
70
comparadas com os sedimentos lamosos. No que diz
respeito à atenuação, os maiores valores foram
encontrados nas areias lamosas e lamas arenosas. Este
conjunto de resultados comprova que, para operações
em águas rasas, os fundos compostos por sedimentos
de maior granulometria (cascalho e areia) apresentam
um comportamento de superfícies mais reflexivas,
aumentando assim o alcance sonar; enquanto que, os
fundos compostos por sedimentos finos (lamas e suas
misturas) são superfícies com índices elevados de
atenuação, o que implica em uma redução neste
alcance.
Os diagramas em 3D construídos para os valores de
atenuação permitiram uma boa avaliação do
comportamento espectral do sinal, no domínio da
freqüência, principalmente com relação à linearidade.
Este recurso, além de facilitar a análise comparativa
do modo de propagação da onda para cada tipo de
sedimento, permite inferir resultados de atenuação para
a propagação acústica aplicada às diferentes faixas de
freqüências, utilizadas nos diversos tipos de
equipamentos sonar.
AGRADECIMENTOS
Ao IEAPM, ao LAGEMAR-UFF e aos integrantes do
Programa de Engenharia Biomédica da COPPE-UFRJ, por
todo apoio e confiança, fundamentais para o
desenvolvimento desta pesquisa. À Comandante Lucia Artusi,
pela intensa colaboração. À tripulação do AvPqOc
DIADORIM, pelo entusiasmo e profissionalismo.
REFERÊNCIAS
ARTUSI, L.; FIGUEIREDO Jr., A G.; MACEDO, H. C.; SIMÕES, I. C.
V. P. 2005. Estudos geológicos para obtenção dos parâmetros
geoacústicos do fundo e subfundo marinhos para aplicações navais.
Revista Pesquisa Naval, SDM, n° 18, p. 24 – 31.
BUCKINGHAM, M. J. 2004. A three-parameter dispersion relationship
for Biot’s fast compressional wave in marine sediment. J. Acoust. Soc.
Am. , v. 116, p. 769–776.
BUCKINGHAM, M. J. 2005. Compressional and shear wave properties
of marine sediments: comparisons between theory and data. J. Acoust.
Soc. Am. , v. 117, n. 1, p. 137-152.
FOLK, R.L.; WARD, W.C. 1957. Brazos River Bar: A study in the
significance of grain size parameters. Journal of Sedimentary
Petrology 27:3-27.
GORGAS, T. J.; WILKENS, R. H.; FU, S. S.; FRAZER, L. N.;
RICHARDSON, M. D.; BRIGGS, K. B.; LEE, H. 2002. In situ acoustic
and laboratory ultrasonic sound speed and attenuation measured in
heterogeneous soft seabed sediments: Eel River shelf, California.
Marine Geology, v. 182, p. 103 – 119.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
AMBIENTE OPERACIONAL
HAMILTON, E. L. 1972. Compressional-wave attenuation in marine
sediments. Geophysics, Society of Exploration Geophysicists, v. 37, p.
620–646.
marinhos e sua aplicação na caracterização das propriedades acústicas
do ambiente. 9th International Congress of the Brazilian Geophysical Society,
Salvador, BA.
HAMILTON, E. L. 1980. Geoacoustic modeling of the sea floor. J.
Acoust. Soc. Am. , v. 68, p. 1313–1336.
RICHARDSON, M. D.; BRIGGS, K. B. 2004. Empirical predictions
of seafloor properties based on remotely measured sediment
impedance. High Frequency Ocean Acoustics. Editors: Porter, M. B.;
Siderius, M.; Kuperman, W.A. La Jolla, California, USA. American
Institute of Physics , p. 12 – 21.
HAMILTON, E. L. 1985. Sound velocity as a function of depth in
marine sediments. J. Acoust. Soc. Am., v. 78, p. 1348–1355.
HE, P.; ZENG, J. 2001. Acoustic dispersion and attenuation
measurement using both transmitted and reflected pulses. Ultrasonics,
Elsevier, v. 39, p. 27 – 32.
KINSLER, L. E.; FREY, A. R.; COPPENS, A. B.; SANDERS, J. V. 1982.
Fundamentals of acoustics. John Wiley e Sons, Inc. 3 ed. New York,
USA. 479 p.
RICHARDSON, M. D. 2002. Variability of shear wave speed and
attenuation in superficial marine sediments, in Impact of Littoral
Environmental Variability on Acoustic Predictions and Sonar
Performance, edited by N. G. Pace and F. B. Jensen, p. 107–114.
SHEPARD, F. P. 1954. Nomenclature based on sand– silt –clay ratios.
Journal of Sedimentary Petrology, v. 24 (3), p. 151 – 158.
KRUMBEIN, W. C.; PETTIJOHN, F. J. 1988. Manual of sedimentary
petrografhy. Classic facsimile edition. Tulsa, Oklahoma, U.S.A. Society
of Econ. Paleots. and Mineralogists.
SIMPSON, H. J.; HOUSTON, B. H.; LISKEY, S. W. 2003. At-sea
measurements of sound penetration into sediments using a buried
vertical synthetic array. J. Acoust. Soc. Am. v. 114, p. 1281 – 1290.
MAA, Jerome P. –Y.; SUN K.-J.; HE Q. 1997. Ultrasonic characterization
of marine sediments: a preliminary study. Marine Geology, Elsevier
Science, v. 141. p. 183-192.
SUGUIO, K. 1973. Introdução à sedimentologia. 1 ed. Edgard Blücher
, São Paulo, SP. 317 p.
MACEDO, H. C.; FIGUEIREDO Jr., A G.; ARTUSI, L.; SOUZA, S. R.
2005. Análise da propagação de ondas compressionais em sedimentos
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 64-71
URICK, R. J. 1975. Principles of underwater sound. Ed. 2, McGrawHill Book Company, New York, EUA. 455 p.
71
HERCULES DE SOUZA
Caixa atenuadora de campos eletromagnéticos
para avaliação de sensores magnetométricos
Hercules de Souza
Doutor e Mestre em Geofísica, Bacharel em Física, Físico
Magnetólogo do Departamento de Magnetologia da Base Naval de
Aratu da Marinha do Brasil
E-mail: [email protected]
Resumo
Em laboratórios dedicados à pesquisa em eletromagnetismo e
em Observatórios Geomagnéticos, faz-se necessária a
existência de uma caixa atenuadora de campos
eletromagnéticos, para a avaliação do desempenho dos
sensores magnéticos que são utilizados nesses ambientes
de pesquisa, mais especificamente a estabilidade da medida
fornecida pelo sensor com o tempo. Neste artigo, é realizada
uma avaliação teórica dos parâmetros importantes para a
avaliação dessa caixa atenuadora, dependendo da
freqüência de campo que se queira atenuar. Parâmetros
como eficiência da blindagem, índices de absorção de
reflexão também são considerados para um perfeito
dimensionamento dessa blindagem eletromagnética.
Palavras-chave
Campo eletromagnético. Caixa atenuadora. Eficiência de
blindagem. Índice de absorção. Índice de reflexão.
Electromagnetic field attenuation box for the
evaluation of the magnetic sensors
Abstract
In both research dedicated laboratories and Geomagnetic
Observatories, the existence of an electromagnetic field
attenuation box is required in order to evaluate the
performance of the magnetic sensors used on these
research environments, especially the stability, within the
time, of the information provided by the sensor. This paper
presents a theoretical evaluation of the important
parameters regarded to the attenuation box analysis,
according to the field frequency to be attenuated.
Parameters such as shield efficiency, absorption and
reflection indexes are also regarded to the correct design of
this electromagnetic shielding.
Keywords
Electromagnetic field. Attenuation box. Shield efficiency.
Absorption index. Reflection index.
72
INTRODUÇÃO
Em laboratórios de Medidas Magnéticas e em
Observatórios Geomagnéticos, todos os sensores
magnetométricos utilizados devem ser
periodicamente avaliados e calibrados para uma maior
exatidão das medidas magnéticas realizadas. Nessas
avaliações e calibrações, vários aspectos devem ser
considerados, dentre eles, a estabilidade do sensor com
o tempo. Esse tipo de calibração ou avaliação do sensor
exige uma eficiente caixa atenuadora de campos
magnéticos.
A eficiência da blindagem, o seu índice de absorção e
um bom índice de reflexão são aspectos que devem
ser considerados quando se está avaliando uma caixa
atenuadora de campos magnéticos para emprego na
calibração de sensores.
São apresentados neste trabalho, a teoria envolvida na
propagação de uma onda eletromagnética em meios
condutores, o fator de atenuação relacionado à
freqüência e à resistividade do material utilizado em
uma blindagem eletromagnética, os fatores relevantes
no dimensionamento de uma blindagem, chamados
de eficiência de blindagem e perda por absorção, e,
finalmente as dimensões máximas admitidas para
aeração e entrada de cabos, necessárias para que uma
blindagem eletromagnética seja eficaz para blindagens
de campos geomagnéticos, com uma amplitude de
1,0 µT e freqüências de 100 Hz, níveis que costumam
interferir diretamente nas calibrações de equipamentos
magneto-sensíveis, com sensibilidade de 1 nT.
METODOLOGIA
Estudos relacionados à interferência e compatibilidade
eletromagnética entre equipamentos têm chamado a
atenção de vários pesquisadores, destacando-se os
trabalhos de Croisant (1998), Duff (1998 e 1993),
Maeda et al. (1994) e Smedt et al. (1998). Esses
equipamentos podem funcionar tanto como fontes
de campos eletromagnéticos, causando interferências
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77
AMBIENTE OPERACIONAL
em outros, quanto como podem ser susceptíveis a
campos eletromagnéticos gerados por outros
equipamentos. O resultado disso, é que as interações
desses vários campos podem causar um mau
funcionamento do equipamento em si, gerando
resultados errôneos ou até mesmo aleatórios.
Em Laboratórios de Medidas Magnéticas e em
Obser vatórios Geomagnéticos deve-se ter a
preocupação com o acúmulo de componentes
elétricos e eletrônicos, para que tais equipamentos não
gerem interferências eletromagnéticas, nem sejam
susceptíveis a tais interferências, de tal forma que estas
não venham a interferir na medida magnética
propriamente dita. Para que também se tenha uma
boa precisão nas medidas magnéticas realizadas, os
sensores magnéticos devem ter uma boa estabilidade
com o tempo. Para se testar essa estabilidade, devem
ser considerados os campos eletromagnéticos
irradiados ou conduzidos por equipamentos eletroeletrônicos e as variações rápidas de campo
geomagnético – chamadas de micropulsações. As
micropulsações podem ter freqüências que variam de
10 Hz a 100 Hz e amplitudes entre 0,1 e 1.000 nT,
Matsushita and Campbell (1967).
Assim, além de uma quantidade mínima de
equipamentos geradores de campos eletromagnéticos, os Laboratórios e Observatórios
Geomagnéticos devem possuir uma caixa atenuadora
para ser utilizada em vários propósitos, dentre eles, o
teste de estabilidade.
O material utilizado em uma caixa atenuadora deve
ser capaz de apresentar bom índice de absorção. Isso
é conseguido empregando-se materiais com alta
permeabilidade magnética, geralmente materiais
ferromagnéticos. Essa característica é especialmente
importante para baixas freqüências. A caixa atenuadora
também deve apresentar um bom índice de reflexão,
fator também obtido com materiais ferromagnéticos,
devido a sua natureza condutora. Essa característica é
importante principalmente para altas freqüências. O
índice de reflexão do material é também um fator
importante, pois se o mesmo for muito grande, as
reflexões ocorridas nas paredes externas da caixa
atenuadora, devido aos campos eletromagnéticos
externos, afetarão o meio ambiente ao seu redor.
A capacidade de uma blindagem é medida através de
um parâmetro calculado a partir da razão entre dois
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77
valores de campos eletromagnéticos, um medido com
a blindagem e o outro medido sem a mesma. A esse
parâmetro dá-se o nome de eficiência de blindagem
(ou Shielding Effectiveness – SE) e a sua unidade
padrão é o decibel, ou dB.
Quando se considera uma onda eletromagnética se
propagando em um meio condutor, diferentemente
do caso onde esta onda se propaga no vácuo, deve-se
considerar o efeito da alta condutividade do meio e
as conseqüências das correntes de condução, Souza e
Sampaio (2001). Neste caso a energia transmitida pela
onda decresce conforme a onda se propaga, devido
ao fato das perdas ôhmicas estarem continuamente
presentes.
Para campos eletromagnéticos variando
harmonicamente com o tempo na forma e-iωt , as
equações de Maxwell podem ser escritas da seguinte
forma:
∇ × E = -iωB,
(1)
∇ × Η = J – iωD.
(2)
Onde E representa a intensidade de campo elétrico
(V/m), B representa a indução magnética (Wb/m2),
H representa a intensidade de campo magnético (A/
m), D representa o vetor deslocamento elétrico em
(C/m2) e J representa a densidade de corrente elétrica
(A/m2).
Tomando-se o rotacional de (1) e utilizando-se (2) e
as equações constitutivas B = µH, J =σE e D = εE,
obtém-se:
∇ × ∇ × E = iωµσE + ω2µεE,
(3)
e
∇2E + i ωµσΕ + ω2µεE = 0,
(4)
como
k2 = iωµσ+ ω2µε,
(5)
obtém-se
∇2E + k2E = 0.
(6)
Similarmente
∇2H + k2H = 0.
(7)
73
HERCULES DE SOUZA
O termo k é conhecido como constante de propagação ou número de onda do meio. Segundo Iakbovskii (1980), o campo eletromagnético variável depende, além da distribuição das fontes de campo e da
resistividade do meio, da constante dielétrica e da permeabilidade magnética do meio. Em todas as equações que definem o comportamento das componentes do campo, os parâmetros elétricos σ, ε e µ não
entram separadamente nas equações, mas sim através
do parâmetro denominado número de onda do meio.
Ao se considerar freqüências de milhares de hertz e
meios condutores, tem-se σ >> ωε. Neste caso o número de onda se reduz a (8):
k2 = iωµσ.
(8)
A partir deste número de onda, define-se o parâmetro δ, definido como profundidade de atenuação de
uma onda plana em um semi-espaço homogêneo, a
qual representa a distância na qual o módulo do campo eletromagnético tem seu valor reduzido a e-1 (36,8
%) do seu valor inicial, Hayt (1965),
d=
2r
wm
Quando ω se aproxima de zero, δ se torna infinito.
Isto significa que o campo eletromagnético e a
densidade de corrente são unifor mes em um
condutor. Em freqüências mais elevadas, a
profundidade de atenuação (δ) torna-se bastante
pequena. Por exemplo, para o cálculo da freqüência
na qual a profundidade de atenuação para a água do
mar seja de um metro, Souza e Sampaio (2001),
considera a permeabilidade magnética do meio igual
à permeabilidade magnética do vácuo, neste caso,
µ = µ0 e 1/ρ = σ = 4,3 S/m, logo a freqüência será
dada por : w, =
2
4,3 ´4 p ´10 - 7 ´d2
resultando em uma freqüência de aproximadamente
60 kHz.
O espaço ao redor de uma fonte de campo
eletromagnético pode ser dividido em basicamente
duas regiões. Se a distância da fonte de radiação está
dentro de um limite de λ/2π, onde λ é o
comprimento de onda, a região é denominada de
campo próximo, “near field”. Para freqüências baixas,
esse é quase sempre o caso. Para campos próximos, a
fonte é o principal fator determinante de suas
características, ou seja, se a fonte possui uma alta
74
corrente e baixa tensão, o seu campo será
predominantemente magnético, chamado nesse caso
de campo indutivo. Se a fonte apresentar baixa corrente
e alta tensão, o seu campo será predominantemente
elétrico, chamado nesse caso de campo capacitivo. A
região de campos distantes, “far field”, situa-se a partir
do limite de λ/2π até o infinito.
Na região de campos próximos, a relação entre os
campos elétricos e magnéticos não é constante,
portanto esses campos devem ser medidos
separadamente. Para a situação de campos distantes,
existe uma relação constante entre os campos elétricos
e magnéticos, de forma que os mesmos devem ser
medidos simultaneamente.
Para uma freqüência de 300 Hz, que é a faixa de
freqüência escolhida para a realização desse estudo,
devido à máxima variação do campo geomagnético
ser da ordem 100 Hz, o comprimento de uma onda
eletromagnética será de, aproximadamente, 1,0 x
106 m. Portanto, pode-se considerar que se está em
uma região de campos próximos e, desta forma, os
campos elétrico e magnético devem ser medidos
separadamente.
Segundo Friestedt (1993), uma blindagem de campos
magnéticos em baixas freqüências deve ser abordada
de forma diferente da abordagem dada para uma
blindagem RF, principalmente com relação aos
materiais envolvidos.
Para a blindagem de campos magnéticos da ordem
de 1,0 µT para freqüências de até 300 Hz, deve-se
dimensionar a blindagem, para que se obtenha uma
relação entre o campo magnético sem a blindagem e
com a blindagem de 1000 para 1. Nesta situação, a
eficiência de blindagem (SE) é de 60 dB. Essa eficiência
pode ser determinada a partir da razão entre o campo
elétrico, ou campo magnético, incidente no
equipamento sem a blindagem (Eo ou Ho) e com a
blindagem, (E1 ou H1).
SE = 20 log (Eo /E1), = 20 log (1000) = 60
(9)
ou
SE = 20 log (Ho /H1) = 20 log (1000) = 60 ,
(10)
A partir de uma atenuação desejada, em dB, e de uma
freqüência pré estabelecida, é possível definir o tipo e
a espessura do material a ser usado na blindagem.
Segundo Duff (1993), existem alguns fatores relevantes
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77
AMBIENTE OPERACIONAL
a serem considerados no dimensionamento de uma
blindagem. Um desses fatores é a eficiência de
blindagem, que também pode ser calculada em função
das perdas por reflexão (R dB ) e das perdas por
absorção (AdB), incluindo o coeficiente de reflexão
interna, ou seja:
SEdB = RdB + AdB,
(K + 1) 2
,
4K
Portanto:
(15)
(12)
f é a freqüência em Hz, µ r e σ r correspondem,
respectivamente à permeabilidade magnética e à
condutividade elétrica relativas do metal. Essas perdas
por absorção (AdB) são diretamente proporcionais à
freqüência, em hertz, e à espessura do material utilizado
na blindagem, em metros. As perdas por absorção
aumentam quando as características de permeabilidade
e condutividade do material também aumentam.
Zb é a impedância da barreira = √(iωµ/σ) para ωε
<< σ.
Quando uma onda eletromagnética incide sobre uma
blindagem, ocorrem basicamente estes dois tipos de
perdas. A perda devido à reflexão, ocorrida na
superfície da blindagem, é dependente do tipo de
campo, ou seja, se este campo é considerado um
campo eletromagnético próximo ou distante.
A perda por reflexão (RdB) é um tipo de perda que
ocorre devido à diferença entre a impedância do
campo incidente e a impedância da blindagem, a qual
por sua vez está relacionada com a permeabilidade
magnética e a condutividade elétrica do material
envolvido, e também com a freqüência da onda
eletromagnética. Para metais, desde que a
condutividade elétrica seja alta, a impedância da
barreira passa a ser pequena e, conforme essa
condutividade elétrica vai diminuindo, essa impedância
tende a aumentar.
O outro tipo de perda é devido à atenuação da onda
ao passar através do material. Esse tipo de atenuação
é a chamada perda por absorção (A), sendo a mesma
tanto para os campos eletromagnéticos próximos
quanto distantes, onde:
(13)
Onde γ é o vetor de propagação da onda, podendo
ser dividido em uma parte real (α) e outra parte
imaginária (β), e t é a espessura do material.
Aplicando o logaritmo em ambos os lados de (13) e
desconsiderando-se a parte imaginária (β), obtém-se
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77
α é igual ao inverso da profundidade de atenuação δ,
α = 1/δ.
A dB = 8.68 ×t × p ×f ×m r ×s r
K = Zw/Zb, Zw é a impedância da onda = E/H e
A = e-γt = e-αt e-jβt
(14)
(11)
Onde,
R dB = 20 log10
20logA= 20logeαt ⇒ AdB = 8,68 αt.
RESULTADOS
Utilizando as Figuras 1 e 2, a seguir, obtidas de Duff
(1998 e 1993), pode-se, a partir da Figura 1, obter
inicialmente o efeito da blindagem obtida pela perda
por absorção, em função da freqüência e da espessura
de vários materiais. Para a freqüência de 300 Hz, com
uma chapa de ferro com espessura de 3,2 mm, obtémse uma atenuação devido à perda por absorção de
aproximadamente 100 dB. Já o cobre, por ter uma
permeabilidade magnética menor que do ferro, o seu
efeito de blindagem só é significativo para freqüências
acima de 10 kHz.
A Figura 2 apresenta a eficiência total da blindagem
versus a freqüência para os campos elétricos e
magnéticos e ondas planas. Nesta figura, por exemplo,
para uma lâmina de ferro com espessura de 0,8 mm
e freqüência de 300 Hz, obtém-se uma atenuação de
aproximadamente 25 dB. Para uma espessura de 5,0
mm, o efeito de blindagem será ainda maior, devendo
estar em torno de 60 dB.
Conforme foi comentado, as perdas por absorção
são diretamente proporcionais à freqüência e às
propriedades magnéticas e condutoras dos materiais.
A permeabilidade relativa é uma dessas propriedades
magnéticas importantes a ser considerada para uma
eficiente blindagem de campos eletromagnéticos. A
partir dos procedimentos apresentados em Souza
75
HERCULES DE SOUZA
(1987), o material a ser usado nessa blindagem pode
ser efetivamente testado com relação à sua
permeabilidade magnética relativa, a qual também varia
com relação à freqüência, devendo, para que se
obtenham resultados efetivos, apresentar um valor em
torno de 2000 até, aproximadamente, 100 kHz, Duff
(1993).
A partir das Figuras 1 e 2, observa-se que uma lâmina
de ferro com 5,0 mm de espessura pode
desempenhar um bom efeito de blindagem para baixas
freqüências. Necessita-se, agora, definir as aberturas
para entrada de cabos e aeração dessa blindagem.
Considerando uma abertura retangular, conforme
mostrada na Figura 3, a eficiência de uma blindagem
está também relacionada com as dimensões dessa
abertura. Essa eficiência pode ser calculada a partir de
uma fórmula geral, com uma boa aproximação, a
partir de (16), Duff (1998). Onde L é a largura da
abertura retangular, S é a altura dessa abertura e t é a
espessura da chapa utilizada. A fórmula (16) é válida
para L ≤ λ/2, onde λ é o comprimento de onda do
fenômeno considerado.
SE dB @100 ×20 log L(mm ) ´F( MHz ) + 2
(16)
Lö
t
æ
20 logç1 + ln ÷+ 30
Sø
L
è
FIGURA 1
Blindagem devido a perda por absorção (AdB) vs. a
freqüência e a espessura do material. (devido a atenuação
por penetração: independente da impedância da onda),
Duff (1993).
FIGURA 3
Abertura e seus respectivos parâmetros a serem
considerados em uma blindagem eletromagnética. t
representa a espessura da chapa utilizada para a
confecção da blindagem, L o comprimento da abertura
e S a altura da abertura.
Utilizando (16) e aberturas retangulares com t = 5,0 x
10-3 m, S = 2,0 x 10-2 m e L = 5,0 x 10-2 m, obtémse para 300 Hz, com comprimento de onda de 1,0 x
106 m, uma eficiência de blindagem da ordem de
aproximadamente 145 dB. Isso significa que esta
abertura, necessária para entrada de cabos e aeração,
seria eficaz inclusive para freqüências maiores que 300
Hz, desde que a eficiência de blindagem total, obtida
com uma lâmina de ferro com 5,0 mm de espessura,
seja de aproximadamente 60 dB.
FIGURA 2
Eficiência total da blindagem vs. a freqüência para os
campos elétricos e magnéticos e ondas planas, Duff
(1993).
76
Sendo assim, uma blindagem confeccionada com uma
chapa de ferro com uma permeabilidade relativa de
2000 e espessura de 5,0 mm, com uma abertura de,
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77
AMBIENTE OPERACIONAL
aproximadamente, 0,001 m 2 e volume de 0.5 m 3
(volume esse capaz de envolver o equipamento
magnetométrico sob teste), será capaz de atenuar
campos eletromagnéticos, como os devido às
variações rápidas dos campos geomagnéticos, em
valores da ordem de 60 dB, com freqüências de
aproximadamente 300 Hz, possibilitando, assim, testes
eficientes de calibrações de equipamentos magnetosensíveis.
REFERÊNCIAS
CROISANT, W. J. Resonance effects in electromagnetically shielded enclosures.
International Symposium on Electromagnetic Compatibility – Denver,
USA.1998.
DUFF, W. Fundamental of shielding concepts. International Symposium on
Electromagnetic Compatibility – Part II, Denver, USA. 1998.
DUFF, W. EMC Guidance for Ship Design Managers. Interference control
Technologies, INC. 1993.
FRIESTEDT, B. Monitor shielding to control magnetic interference, The
International Journal of EMC: 66-69, 1993.
HAYT, W. H. Engineering Electromagnetics, Editora Novaro/McGrawHill. 1965.
CONCLUSÕES
A partir da análise dos parâmetros relevantes para
atenuação de campos magnéticos em baixas
freqüências, foi possível dimensionar uma blindagem,
onde se obtenha uma atenuação da ordem de 60 dB,
útil para utilização em calibrações de equipamentos
magneto-sensíveis.
Os parâmetros aqui considerados podem ser
analisados e extrapolados, de tal forma que se possa
também dimensionar blindagens que sejam eficientes
para atenuação de campos eletromagnéticos em
freqüências consideravelmente maiores.
Estes parâmetros são úteis também para o
dimensionamento de blindagens de outros
equipamentos, tais como computadores e dispositivos
de controle que estejam sendo afetados por campos
eletromagnéticos de baixas freqüências, gerados, por
exemplo, por circuitos elétricos, e também para o
dimensionamento da blindagem da própria fonte de
campo eletromagnético, tais como cabos de energia.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 72-77
IAKBOVSKII, I. V. Exploracion elétrica, Editorial Reverté s. a, Espanha,
3° edic. 1980.
MAEDA, Y.; MURAKAWA, K.; YAMAME, H.; TOKUDA, M. Analysis
of Electromagnetic fields in and around buildings equpped with shielding screens.
IEEE International Symposium on Electromagnetic Compatibility,
Chicago, USA., 354-359, 1994.
MATSUSHITA, S. AND CAMPBELL, W. H., Physics of Geomagnetic
Phenomena. Academic Press, New York, Vol. I e Vol II. 1967.
SMEDT, R. et al. Approximate simulation of the shielding effectiveness of a
rectangular enclosurer with a grid wall. International Symposium on
Electromagnetic Compatibility – Denver, USA. 1030-1034, 1998.
SOUZA, H.; SAMPAIO, E. Apparent resistivity and spectral induced polarization
in the submarine environment. An. Academia Brasileira de Ciências, 73,
pg. 429 – 444, 2001.
SOUZA, H. Caracterização de lâminas retangulares, SIMPÓSIO SOBRE
MATERIAIS MAGNÉTICOS – Associação Brasileira de Metais. São
Paulo, SP. 1987.
77
JOSÉ CORRÊA PAES FILHO, RONALDO CESAR E.
DOS
SANTOS
Ferramenta de simulação de Monte Carlo para
solução de problemas de logística
José Corrêa Paes Filho
GAAGueM – Grupo de Avaliação e Adestramento de Guerra de
Minas. Comando do 2º Distrito Naval
Avenida das Naus s/n.º , Comércio
Comércio – Salvador – BA – 40.015-270
E-mail: [email protected]
COPPE/UFRJ
Área Interdisciplinar de Computação de Alto Desempenho
Cidade Universitária, Centro de Tecnologia, Bloco B sala 100
Caixa Postal: 68506 – 21945-970 – Rio de Janeiro – RJ – Brasil
E-mail: [email protected]
Ronaldo Cesar E. dos Santos
CASNAV – Centro de Análises de Sistemas Navais
Praça Barão de Ladário s/ n.º
Ilha das Cobras, ed. 8 – 3º Andar – AMRJ
Centro – Rio de Janeiro – RJ
E-mail: [email protected].
Resumo
A Simulação de Monte Carlo tem sido cada vez mais utilizada
na solução de problemas logísticos e várias ferramentas têm
sido desenvolvidas para atender a esta demanda. Este artigo
descreve o SimKit, uma ferramenta para execução de
simulações de Monte Carlo através de planilhas de Excel. O
artigo descreve, ainda, a filosofia de implementação do
SimKit, suas características quanto a geração de números
aleatórios, a planilha de resultados da simulação e a
especificação de cenários. Um problema clássico de
Logística é apresentado e solucionado usando-se o
Simulação.
Palavras-chave
SimKit. Simulação de Monte Carlo. O problema do jornaleiro.
Logística.
Monte Carlo simulation tool for logistics
problems
Abstract
The use of Monte Carlo Simulation to solve logistics
problems is increasing and many tools have been
developed to attend the demand. This paper describes
SimKit, a tool for performing Monte Carlo simulations via
Excel spreadsheet models. The paper presents the design
philosophy of SimKit and its features for generating random
variables, identifying simulation outputs, and specifying
scenarios. A version of the classical Newsvendor Problem
is solved using SimKit.
Keywords
INTRODUÇÃO
A simulação é um experimento amostral que é
executado por computador [1]. Toda simulação se
inicia com um modelo onde são inseridas as variáveis,
cujos valores variam aleatoriamente e, portanto, estes
valores são desconhecidos e devem ser sorteados de
uma população apropriada. O modelo é representado
por um programa de computador que gera variáveis
aleatórias, executa as computações do modelo e
fornece os resultados, normalmente na forma de uma
ou mais observações. Todos os modelos de simulação
se enquadram nesta descrição, portanto a “simulação
em planilha eletrônica” usa apenas a planilha como
plataforma para representar a modelagem de um
processo de amostragem. A planilha eletrônica, como
plataforma para a simulação, apresenta uma série de
vantagens, principalmente por estar disponível na
maioria dos sistemas operacionais. Por este motivo,
nos últimos anos, vários pacotes de simulação para
Excel têm surgido. Estes pacotes possuem um apelo
comercial grande e seus desenvolvedores não
permitem acesso ao código fonte, fato este que torna
questionável o uso destas ferramentas para pesquisa.
Consciente desta necessidade, surge o SimKit para
auxiliar o desenvolvimento de novas pesquisas e o
ensino da simulação nos cursos de graduação e pósgraduação, com tecnologia desenvolvida por
pesquisadores brasileiros. Algumas instituições, cientes
desta necessidade, direcionam seus esforços no sentido
de desenvolver estes tipos ferramentas como, por
exemplo, o “Arrisca.xls” [2].
EXCEL COMO
SIMULAÇÃO
PLATAFORMA
DE
O termo “plataforma de simulação” se refere a um
ambiente de software usado para desenvolver, testar
e executar experimentos através de simulação [3]. Uma
plataforma de simulação tem que ter as seguintes
características:
SimKit, Monte Carlo Simulation, Newsvendor Problem,
Logistics.
78
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83
PROCESSOS DECISÓRIOS
1.
2.
3.
Um modo de representar relações matemáticas
e lógicas entre as variáveis na forma de
computação e designação de valores e algoritmos
que descrevam como fazer uma série de
computações.
Um modo de gerar números aleatórios e
observações amostra de várias populações.
Um modo de repetir uma série de computações
idênticas, implementando assim, replicações.
Se alguma destas características não existir, a
plataforma não poderá ser usada para simulação. O
Excel, uma das planilhas eletrônicas mais populares,
possui estas características. Além disso, as seguintes
características do Excel permitem um processamento
rápido e confiável:
1. Um grande número de funções matemáticas,
estatísticas, de banco de dados e financeiros.
2. Representação e acesso a base de dados.
3. Recursos gráficos.
4. Recursos para documentação e apresentação de
relatórios, tais como fontes, cores e figuras
geométricas que melhoram a apresentação.
5. Automatismo através do VBA (Visual Basic
Application).
SIMKIT
O simulador SimKit (Figura 1) é um suplemento do
Excel, criado para ser usado como ferramenta de
Simulação de Monte Carlo na solução de problemas
em várias áreas, tais como Logística, Finanças e
Produção. O SimKit ainda é protótipo e ainda não
tem a mesma funcionalidade do @Risk [4], Crystal
Ball [5], Insight.xla [6] e outros produtos comerciais,
mas já está robusto e pode ser aperfeiçoado para ser
usado em problemas específicos. A grande vantagem
do SimKit é que este consiste de um arquivo que pode
ser obtido por download e pode ser executado em
qualquer PC com uma versão recente do Excel, sem
requerer privilégios de administrador ou um
procedimento especial para instalação. O simulador
foi concebido para ser de uso fácil. Em contrapartida,
o SimKit executa simulações mais lentamente que
produtos comerciais, visto que o código gerador de
números aleatórios é concebido em Visual Basic. O
SimKit foi desenvolvido com base no modelo de
Jonthan Eckestein e Steven T. Riedmueller, da Rutgers
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83
University [7]. O SimKit foi concebido para ser usado
em versões para Excel em português e inglês, já que a
versão original não funcionava em qualquer versão
do Excel. Esta versão é disponibilizada sem nenhum
custo para quem desejar usá-la para fins acadêmicos
e/ou pesquisa. Os autores não se responsabilizam por
usos indevidos e com fins comerciais por profissionais
não especializados.
FIGURA 1
SimKit versão 1.0
FUNÇÕES GERADORAS DE NÚMEROS
ALEATÓRIOS
As funções geradoras de números aleatórios foram
desenvolvidas com o objetivo de fornecer valores de
distribuições específicas e fornecerão, geralmente,
diferentes resultados toda vez que forem executadas,
dependendo dos argumentos inseridos.
FIGURA 2
Funções do SimKit.
79
JOSÉ CORRÊA PAES FILHO, RONALDO CESAR E.
DOS
SANTOS
As funções instaladas geram números das distribuições
Binomial, Exponencial, Normal, Poisson, Triangular
e Uniforme. Além destas, o SimKit possui funções
que geram tabelas de probabilidades. Os geradores
foram construídos com base nos modelos
apresentados no capítulo 8 do livro “Simulation
Modeling and Analysis” [8]. A Figura 2 mostra como
se apresentam estas funções no Excel, na categoria
“Estatística”. A seguir, são descritas as funções
geradoras do SimKit.
SimKit_GeraUniforme (a, b)
Os dois argumentos são números. Normalmente, é
esperado que a seja menor que b (a < b). Assim sendo,
o número gerado estará uniformemente distribuído
no intervalo [a, b] , ou seja, x é tal que a < x < b. Se a
= b, então o valor de a (ou b) será gerado. Se a > b, um
valor errado será fornecido.
SimKit_GeraNormal (m, s)
Os dois argumentos são números. Se s < 0, um valor
errado será gerado. Se s é zero, o valor gerado será m.
Para os outros casos, um valor aleatório com
distribuição normal com média m e desvio padrão s
será gerado.
SimKit_GeraBinomial (n, p)
O primeiro argumento n tem que ser um inteiro não
negativo e o segundo argumento p tem que ser um
número no intervalo [0, 1]. Caso contrário, um valor
de erro será fornecido. Se essas condições forem
obedecidas, então o valor fornecido será um inteiro
sorteado aleatoriamente de uma distribuição binomial,
com n trials e probabilidade p de sucesso para cada
trial. Se n = 0, então o valor fornecido será 0 (zero).
SimKit_GeraPoisson (m)
O argumento m é um número não negativo. Um
argumento negativo causará um valor errado como
resultado. Um argumento zero causará um valor zero
como resultado. Caso contrário, o valor de resultado
é aleatoriamente escolhido de uma distribuição Poisson
com média m.
SimKit_GeraTabela (V, P)
O argumento V e P são blocos de células ou listas
(por exemplo, “{1,3,7}”) possuindo o mesmo número
de células. A função retorna, essencialmente, cada valor
em V com a probabilidade especificada pelo elemento
correspondente em P. Se os dois argumentos tiverem
80
o mesmo número de células, mas diferentes números
de linhas e colunas, a correspondência é determinada
correndo-se o primeiro na primeira linha, o segundo
na segunda linha e assim por diante. Valores não
numéricos atribuídos a P são tratados como se
tivessem valor zero. Se os dois argumentos não tiverem
o mesmo número de células, se P contiver números
negativos, ou se P contiver apenas zeros, um valor
errado será fornecido. Se os valores de P não somarem
1, eles são reescalonados, proporcionalmente, para que
somem 1. Por exemplo, SimKit_GeraTabela
({1, 2, 3},{0,2, 0,5, 0,3}) retorna 1 com probabilidade
0,2, 2 com probabilidade 0,5 e 3 com probabilidade
0,3.
SimKit_GeraExpon (a)
O argumento tem que ser um número positivo, ou
um valor errado será fornecido. Caso atendidas as
premissas, o resultado é aleatoriamente escolhido de
uma distribuição exponencial com média 1/a.
SimKit_GeraTriangular (a, b, c)
Retorna o valor de uma distribuição triangular com
mínimo a, moda b, e máximo c. Os argumentos têm
que ser números com a propriedade a < b < c, ou um
valor errado será retornado.
CENÁRIOS
Para especificar valores diferentes para as variáveis de
decisão para cada corrida, o SimKit possui a função:
SimKit_Parâmetros (L, k, nome)
O primeiro argumento L é um bloco de células ou
uma lista que especifica os possíveis valores assumidos.
O argumento nome é um caracter que descreve o
parâmetro e é usado no sumário estatístico fornecido
pela simulação. O argumento k especifica o número
de cenários a serem combinados. Por exemplo, uma
célula contendo =SimKit_Parâmetros({1,2,3},1, “nível
de estoque”) especifica um parâmetro chamado “nível
de estoque”, que muda a cada mudança de cenário,
assumindo em primeiro lugar o valor 1, depois 2 e
por fim 3. Uma célula contendo =
SimKit_Parâmetros({1,8, 2.3, -2},2, “temperatura”)
define um parâmetro chamado “temperatura”, que
recebe o valor 1 para os dois primeiros cenários, 8
para os outros dois cenários, 2.3 os próximos dois, e
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83
PROCESSOS DECISÓRIOS
-2 para os últimos dois. O argumento k permite fazer
combinações de valores de vários parâmetros, sem a
necessidade de escrever cada combinação numa lista.
VALORES DE SAÍDA
Para especificar o resultado da simulação, o SimKit
usa a função:
SimKit_Resultado_Simulação(x, nome)
A função retorna o valor x e, durante a execução da
simulação, o valor de x encontrado será salvo para
uma análise posterior, como descrito a seguir. O
argumento “nome” é um caracter string que descreve
o resultado da simulação na planilha de resultados.
Por exemplo, uma célula contendo =
SimKit_Resultado_Simulação (A4+B7,”lucro”) definirá
uma saída chamada “lucro”, cujo valor é A4+B7. A
palavra “lucro” poderá estar escrita numa célula, sem
a necessidade de estar entre aspas. Mas, quando o
usuário optar por escrevê-la direto na fórmula, deverá
colocá-la entre aspas.
EXECUÇÃO DAS SIMULAÇÕES
Uma vez construído o modelo, especificados os
cenários, caso existam, e os valores de saída, a simulação
estará pronta para ser executada. Para executar a
simulação, seleciona-se na Barra de Ferramentas do
Menu “SimKit” a opção “Executar Simulação”. Assim,
uma caixa de diálogo aparecerá (Figura 3). O SimKit
analisa a planilha e determina quantos cenários são
necessários, colocando este número como “valor
padrão” na caixa de cenários. Para um número
diferente de cenários, clica-se no botão “Definir
como” e coloca-se o número de cenários desejado. A
caixa “Número de Repetições” corresponde ao
número de repetições que o SimKit usará para
recalcular o modelo para cada cenário. O valor padrão
é “1.000”, mas é possível atribuir qualquer outro valor
inteiro. Existe a opção de fixar a semente do número
aleatório usada e também de se usar a mesma semente
para cada cenário (usar o mesma semente é uma boa
prática). Selecionando-se a opção “Simular”, inicia-se
a simulação e “Cancelar” retorna-se ao Excel. A
simulação é executada apenas na planilha aberta da
pasta em que se está trabalhando. Se o número de
cenários é N e o número de repetições é S, então o
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83
SimKit recalcula a planilha aberta NS vezes. Esses
recálculos são divididos em N blocos de S recálculos,
cada bloco constituindo um cenário. Os dados obtidos,
como resultados da simulação, são coletados
separadamente para cada cenário e os valores obtidos,
por qualquer função SimKit_Parâmetros na planilha,
variarão de cenário para cenário, como descrito
anteriormente. Uma caixa de mensagem, com uma
barra de progresso, é apresentada indicando o
progresso da simulação. Para testar o modelo
iterativamente, simplesmente aperta-se a tecla “F9”.
O Excel executará recálculos, apresentando novos
valores para as variáveis aleatórias das funções
geradoras. Novos valores serão gerados para cada
chamada da função SimKit_Parâmetros.
FIGURA 3
Caixa principal de diálogo do SimKit.
Quando a simulação termina, há um pequeno intervalo
de tempo enquanto os resultados são processados. O
sumário estatístico é disponibilizado automaticamente
numa planilha “Estatísticas n”, que o SimKit cria na
pasta aberta.
FIGURA 4
Barra de Progresso.
81
JOSÉ CORRÊA PAES FILHO, RONALDO CESAR E.
DOS
SANTOS
Para cada combinação Resultado-Cenário, um sumário
estatístico com médias, desvios padrões, mínimos,
máximos e percentuais (em intervalo de 5%) são
apresentados. Atualmente, não há nenhuma saída
gráfica para a simulação. O usuário pode abortar a
simulação quando esta estiver sendo executada (Figura
4), basta clicar no botão “Abortar”, ou simplesmente
apertar a tecla “ESC” no teclado. Esta ação pode levar
até 5 segundos para que a simulação seja interrompida.
O PROBLEMA DO JORNALEIRO
O problema exemplo é o clássico problema do
“jornaleiro” [9], muito empregado nos cursos de
pesquisa operacional. Suponha que uma loja está
vendendo um produto que custa R$6,00 e é vendido
a R$12,00. O gerente da loja não consegue prever
com certeza a demanda para aquele produto. Dados
de anos anteriores sugerem que a demanda pode ser
modelada por um valor aleatório de uma distribuição
Poisson com média 70. O produto que não for
vendido é devolvido ao fornecedor, que dá um crédito
de R$ 3,00 à loja. Há somente uma oportunidade para
se fazer o pedido. O problema então, resume-se em
determinar qual o nível de estoque ideal para o
produto em questão. A Figura 5 apresenta a solução
para o problema usando o SimKit. Nas células B3,
B4, B5 e B6 são colocados os valores referentes ao
Custo unitário de fornecimento do produto, o preço
de venda, o crédito estornado pelo fornecedor por
item não vendido e a demanda esperada para o
produto, respectivamente. Nas células D3 a D9 são
colocados os possíveis níveis de estoque, que são as
variáveis de decisão usadas como parâmetros na
simulação. Na célula B8 colocamos a função do SimKit
que gera um número aleatório da distribuição Poisson
com média definida em B6. Nas células D3 a D9
colocamos os níveis de estoques variando de cinco
em cinco. A demanda real é modelada por
“=SimKit_GeraPoisson(Demanda_Média)”, gerando
valores aleatórios da distribuição Poisson com
“Demanda_Média = 70”.
O nível de estoque é modelado por
“=SimKit_Parâmetros(D3:D9;1;”Nível de Estoque”)” com
valores variando de 55 a 85. As vendas correspondem
à
quantidade
“=MÍNIMO
(Demanda_
Real;Nível_de_Estoque)”, que representa a quantidade
mínima entre a demanda e o nível de estoque, ou seja,
82
FIGURA 5
Problema do Jornaleiro.
se a demanda for maior que o nível de estoque, só
posso vender a quantidade em estoque e, se a demanda
for menor, haverá sobras que terão de ser devolvidas
ao fornecedor. As sobras que retornam ao fornecedor
são modeladas com “=Nível_de_ Estoque-Vendas”. A
receita corresponde às “=Vendas*Preço_de_Venda” e o
custo do produto é modelado como
“=Nível_de_Estoque*Custo_Unitário”. O crédito dado
pelo fornecedor corresponde à quantidade de itens
devolvidos vezes o valor estornado, modelado por
“=Retorno_Fornecedor* Estorno”. O lucro é dado pela
Receita mais o Crédito menos o Custo do Produto e
definido como a saída da simulação, representada em
B18 por “=SimKit_ Resultado_Simulação(Receita+CréditoCusto_do_Produto;”Lucro”)”. Uma vez modelado o
problema, executou-se a simulação com 1.000
repetições para cada cenário, como mostra a planilha
de resultados gerada pelo SimKit (Figura 6).
FIGURA 6
Planilha de Resultados do SimKit.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83
PROCESSOS DECISÓRIOS
Analisando a planilha de resultados, vemos que a
melhor política é manter um nível de estoque de 75
itens. O SimKit ainda não apresenta resultados
gráficos, mas o Excel permite a construção de
gráficos a partir dos resultados da simulação, como
mostra a Figura 7.
REFERÊNCIAS
1. FISHMAN, G. S. (1996). Monte carlo concepts, algorithms and
applications. New York: Springer.
2. SALIBY, E. (2003). Arrisca.xls: Ferramenta de Simulação de Monte
Carlo – Notas de Aula, COPPEAD, 2003.
3. SEILA, Andrew F. (2002), Spreadsheet Simulation, Proceedings of
the 2002 Winter Simulation Conference.
4. @RISK (2002), Risk Analysis Software, Palisade, Inc., http://
www.palisade.com.
5. CRYSTAL BALL (2000), Risk Analysis Software, Decisioneering,
Inc., http://www.decisioneering.com.
6. SAVAGE, SAM L. (1998). Insight.xla, Business Analysis Software
for Microsoft Excel, – Text and Software, Duxbury Press, Belmont,
California.
7. ECKSTEIN, J. & RIEDMUELLER S.T. (2001), YASAI: Yet Another
Add-in for Teaching Elementary Monte Carlo Simulation in Excel,
INFORMS Transcations on Education 2:2 (12-26).
FIGURA 7
Apresentação Gráfica do Resultado.
CONCLUSÃO E TRABALHOS FUTUROS
8. LAW, A.M. & KELTON, W.D. (1999), Simulation Modeling and
Analysis, 3rd ed. McGraw-Hill series in industrial engineeering and
management science.
9. WINSTON, W.L. (2000), Simulation Modeling Using @RISK:
Updated for Version 4, Brooks/Cole, Belmont, CA.
10. SALIBY, E. (1989), Repensando a Simulação: a amostragem
descritiva, Atlas, Rio de Janeiro, Editora da UFRJ.
O SimKit é uma ferramenta criada para uso acadêmico
e pesquisa. Sua criação é o resultado de pelo menos
quatro anos de pesquisa do primeiro autor deste
trabalho e da parceria entre os autores do SimKit. O
protótipo SimKit tem se mostrado viável para
utilização em cursos de graduação e pós-graduação e,
nos próximos anos, o planejado é continuar o
desenvolvimento, adicionando interfaces gráficas,
implementando novos geradores de números
aleatórios, solucionando os problemas de vínculos
entre arquivos e implementando diferentes tipos de
amostragem, tais como Amostragem Descritiva [10].
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 78-83
83
FLÁVIO COSTA PICCININI
A onda de projeto por meio da análise estatística de
extremos a partir de dados medidos por satélite
Flávio Costa Piccinini
Faculdade Salesiana Maria Auxiliadora, FSMA – Macaé, RJ
E-mail: [email protected]
Resumo
A descrição do estado do mar por meio do conhecimento das
ondas superficiais de gravidade, principais responsáveis
pelo transporte de energia nos oceanos, é de substancial
relevância no manejo e gerenciamento das atividades em
regiões costeiras e oceânicas. No final do século XX, a
altimetria por satélite tornou-se operacional e permitiu o
conhecimento das alturas significativas de ondas de modo
contínuo e com ampla cobertura. O presente trabalho tem por
objetivo utilizar as observações disponibilizadas pelo satélite
TOPEX/POSEIDON e, em função destas, estimar por métodos
estatísticos os valores de alturas extremas, ou seja, as
ondas de projeto, indispensáveis para o dimensionamento de
estruturas, para a segurança do homem e proteção do meio
ambiente oceânico.
Palavras-chave
Ondas. Satélite. Altura significativa. Valores extremos. Valor
de retorno.
The design sea wave using extreme statistical
analysis of satellite provided data
Abstract
The description of sea state by surface gravity waves, major
responsible for energy transport throughout the oceans, is
of great importance in coastal and oceanic activities
performance and management. In XX century end, the
satellite altimetry became usage, thus furnishing height of
significant waves continuously and with wide cover. The
objective of this work is to treat TOPEX/POSEIDON satellite
data statistically in order to estimate extreme wave height
values, the design waves, indispensable for structure
sizing, human being safety and environmental protection.
Keywords
Wave. Satellite. Significant height. Extremes values. Value
of return.
84
INTRODUÇÃO
A noção intuitiva de segurança de um sistema estrutural
está vinculada à idéia de sobrevivência aos riscos
inerentes ao meio a que estiver envolvida a estrutura e
a sua corrente utilização. Os fundamentos de segurança,
entre outros, residem no princípio de se projetarem
estruturas que suportem as elevadas tensões
provenientes das ações ambientais mais extremas,
durante a sua vida útil e dentro de um custo econômico
aceitável.
O conhecimento das forças da natureza presentes no
ambiente oceânico e os seus efeitos são imprescindíveis
para os projetos dos meios flutuantes e das estruturas
fixas, costeiras ou oceânicas, a fim se evitar que o
esgotamento da capacidade de suporte da estrutura a
leve a um estado de ruína. Nesse contexto, insere-se o
estudo das severas condições impostas pelo mar,
como a probabilidade de ocorrência de elevadas ondas
em um determinado período de tempo e espaço. As
alturas máximas de onda, por exemplo, para um
período de 50 ou 100 anos, é um parâmetro capaz de
ser estimado por meio da estatística de valores
extremos, cujo propósito é estimar a ocorrência de
um valor esperado para um evento extremo, que se
sucederá uma vez a cada intervalo de tempo.
O presente trabalho utiliza os princípios da análise
estatística de extremos para estimar valores de alturas
máximas de onda, ou seja, preestabelecer as dimensões
de uma onda para períodos de anos também
preestabelecidos, e defini-la como a onda de projeto.
O conhecimento das ondas oceânicas caracteriza-se
como um dos principais parâmetros para descrever
o estado do mar, haja vista as intensas pesquisas e
estudos de climatologia de ondas no contexto da
oceanografia.
O conjunto de dados para a referida análise – a
amostragem – está composto pelas observações de
altura significativa de onda, medidas pelo satélite
Topex/Poseidon, relativo a uma série temporal
compreendida entre setembro de 1992 e agosto de
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90
PROCESSOS DECISÓRIOS
2002. O espaço geográfico focalizado está definido
em cinco áreas no oceano Atlântico. (Figura 3).
Na obtenção dos valores de alturas extremas, utilizouse a totalidade dos dados medidos, ajuste pela função
de distribuição de Weibull com três parâmetros e
inferência dos parâmetros pelo método dos
momentos.
Finalizando o trabalho, apresenta-se a forma da onda
de projeto dimensionada conforme a teoria de Stokes
5°. (Figura 4)
OS
SATÉLITES
E
A
MEDIDA
ALTIMÉTRICA DE ALTURA DE ONDA
Há mais três décadas as observações dos oceanos por
satélites têm verdadeiramente revolucionado o
conhecimento científico sobre o clima global, a
modelagem do sistema oceano-atmosfera e
apresentando-se como uma poderosa ferramenta para
a prática da engenharia de estruturas oceânicas.
Especificamente quanto à climatologia de ondas,
destacam-se os satélites acoplados com o radar
altimétrico, que mede com acuracidade de poucos
centímetros as ondulações dos oceanos, por meio de
instrumentos com sensores ativos de microondas
acoplados aos satélites, destacando-se o radar altímetro
(RA-2), o esclerômetro e o radar de abertura sintética
(SAR).
O radar altímetro de dupla freqüência (POSEIDON2) mede com precisão a distância entre o satélite e a
superfície do oceano. Transmite permanentemente
ondas eletromagnéticas de alta freqüência (acima de
1700 pulsos por segundo), que retornam por reflexão
da superfície do oceano, conforme exposto na Figura
1. A distância medida é função do tempo em que
viajam as ondas eletromagnéticas. Desse modo, o
retorno do sinal fornece medidas com suaves
variações, ascendentes ou descendentes conforme o
estado do mar.
A partir dos anos 90, com os satélites ERS-1 e ERS2 da Agência Espacial Européia e com o satélite
Topex/Poseidon, uma significativa quantidade de
dados tornaram-se disponíveis. A missão Topex/
Poseidon foi uma ação conjunta do Centre National
d’Estudes Spatiales da França com a National
Aeronautics and Space Administration – NASA. O
lançamento ocorreu em 10 de agosto de 1992, em
Kourou, na Guiana Francesa, a bordo do foguete
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90
(Fonte: AVISO – Archiving, Validation and
Interpretation of Satellite Oceanographic data)
FIGURA 1
Visualização esquemática da medida da topografia do
oceano.
Ariane, cujo objetivo principal era acompanhar os padrões de circulação oceânica e, principalmente, a medida do nível dos oceanos, a qual obteve pleno sucesso
até agosto de 2002, quando passou a navegar em outra
órbita, face o lançamento do satélite JASON-1.
O Topex/Poseidon realiza 127 revoluções ao redor
da Terra, a 1335 km de altitude, que são repetidas a
cada 9.91 dias, a uma velocidade de 5,8 m/s, cujo
plano orbital (ângulo que as passagens formam com
o equador) é de 66°. Cada revolução do satélite ao
redor da Terra é dividida em dois segmentos, com
orientações projetadas sobre o planeta, noroestesudeste e sudoeste-nordeste, referidas como passagens
descendentes e ascendentes. Os dados de altimetria
não formam imagens, mas uma grade que acompanha
a órbita do satélite, formando um padrão do tipo
grade ou rede-de-pesca sobre o oceano, representado
pela Figura 2, a seguir. A separação entre essas linhas
“paralelas” é de 315 km no equador, diminuindo em
direção aos pólos.
Os dados de satélites, como os de altimetria, podem
ser obtidos no site http://podaac.jpl.nasa.gov/ –
(Physical Oceanography Distributed Active Archive Center –
PO.DAAC), que é um dos órgãos responsáveis por
arquivar e distribuir dados relevantes do estado físico
dos oceanos.
85
FLÁVIO COSTA PICCININI
Valor de retorno (Ht)
É uma altura máxima de onda que retornará em um
intervalo de tempo. Por exemplo, a onda de 100 anos
é uma onda com uma altura – valor de retorno – que
será igualada ou superada em média a cada período
de 100 anos. Sendo esse o período de retorno, que é
o tempo médio decorrido entre as ocorrências de um
evento que excede ou iguala-se ao valor de retorno, o
qual é derivado da função de distribuição.
Esses conceitos presumem um clima de onda prédefinido, inalterado, durante 50 ou 100 anos, o que é
improvável na natureza. Uma outra menção
apropriada enseja que, para 50 ou 100 anos, há uma
probabilidade de dois por cento ou um por cento,
respectivamente, de ocorrer uma onda com altura
maior que a onda extrema estimada, no período de
um ano.
Amostragem
É um conjunto específico de dados que embasa a
análise estatística. No presente trabalho são as
observações de altura significativa de onda medidas
pelo satélite.
FIGURA 2
Formato em grade da trajetória percorrida pelo satélite
METODOLOGIA
Análise de alturas extremas de ondas
CONCEITOS BÁSICOS
Os conceitos básicos de altura significativa de onda,
período de retorno, valor de retorno e amostragem,
estão adotados no presente trabalho, conforme a
seguir descritos:
Altura significativa de onda (Hs)
É definida como:
Na teoria estatística, dados extremos referem-se a
máximos ou mínimos de uma amostra independente
de dados.
Ao longo dos anos, vários métodos estatísticos para a
análise de valores extremos têm sido desenvolvidos e
várias funções de distribuição aplicadas para ajustar
uma amostragem.
O período de retorno (P)
O método usualmente empregado para estimar um
valor de retorno de altura de onda, para um n-ano,
considerando uma amostra com elevada densidade
de dados, é ajustar a distribuição em um determinado
período de anos e extrapolar a probabilidade de
ocorrência para o tempo desejado. Este método é
comumente utilizado para medidas de dados in situ, e
dessa forma tem sido aplicado com pleno sucesso
para dados altimétricos de satélite. (Carter, 1993;
Barstow, 1995).
É definido como o tempo em anos em que as ondas
máximas retornarão.
A curva da função de densidade de probabilidade
para a distribuição de Weibull mostra que, para
Hs = 4 (òS( f ) df )
(1.1)
onde S(f) é a freqüência espectral da onda. Comumente
é adotada como a média de 1/3 das maiores elevações
de onda de uma série temporal, medidas, por
exemplo, por uma bóia.
86
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90
PROCESSOS DECISÓRIOS
estimadores favoráveis, a cauda superior da curva
aproxima-se de zero. Portanto, é considerada a
apropriada para estudar variáveis que tem limites de
grandeza como aqueles associados aos ambientes
climáticos naturais, como ventos, ondas, chuvas,
terremotos. (Holmes e Moriarty 1999).
A análise com dados extremos foi primeiramente
apresentada por Fisher e Tippett (1928), que
estabeleceram três tipos de distribuições assintóticas
de valores extremos, tipo I, II e III, conhecidas como
Gumbel, Fréchet e Weibull, respectivamente.
Entretanto, a principal dificuldade resultante foi
identificar o tipo de distribuição que apresentasse os
mais fiéis valores extremos projetados para uma
referida amostra de dados.
A distribuição de Weibull
A distribuição de Weibull é um dos métodos mais
usuais na análise de valores extremos de altura
significativa da onda para uma distribuição de longo
termo. É uma das distribuições preferidas e utilizadas
em trabalhos desenvolvidos em renomados centros
de estudos de climatologia de ondas, como, por
exemplo no Wave World Atlas (WWA), elaborado
pelo OCEANOR – Oceanographic Company of Norway
ASA e no Global Wave Statistics Online, software
desenvolvido pelo BMT Fluid Mechanics Limited –
England.
A função de Weibull com três parâmetros tem como
função de distribuição:
é æ x-b ök ù
F (x) = 1-exp- ê ç
÷ú
a
è
øú
ê
ë
û
No presente trabalho, os estimadores pontuais foram
deduzidos pelo método dos momentos, para o ajuste
da função de distribuição de Weibull.
O método dos momentos é baseado na simples
concepção de que os momentos da distribuição
(média, variância, assimetria, entre outros) dependem
do valor dos parâmetros, que podem ser estimados
dos valores estatísticos da própria amostra.
Portanto, os parâmetros de locação b, escala a>0, e
forma k>0, podem ser expressos em termos de
média (ì), variância (ó 2) e assimetria (ã),
m = b + aG (1 + 1 k )
(2.3)
s 2 = a 2 {G(1 + 2 k ) - G 2 (1 + 1 k )}
(2.4)
{G (1 + 3 k ) - 3G (1 + 2 k )G (1 + 1 k ) + 2G (1 + 1 k )}
{G (1 + 2 k ) - G (1 + 1 k )}
3
g=
2
(2.5)
Temos, portanto, os momentos m:
m1 = ì
m2 = ó2
m3 = ã
( 2 . 6 a , b, c )
(2.2)
Conforme exposto na Introdução e considerando
como um evento A uma onda máxima que se iguale
ou exceda um determinado valor x, cuja
probabilidade P(A) é dada por 1-F(x), e T o tempo
aleatório entre ocorrências consecutivas de eventos A,
o período de retorno do evento A é o valor médio ô
da variável T, ou seja,
t
sendo k, a, e b os parâmetros de forma, escala e locação
para b d” x < ∞
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90
32
Estimação do período de retorno
(2.1)
e, função de densidade de probabilidade
k-1
é æ x - b ök ù
k æx - b ö
f (x )= ç
÷ exp ê- ç
÷ú
aè a ø
êè a ø û
ú
ë
Estimação dos parâmetros
=
1
1
=
P( A ) 1-F ( x)
sendo ô expresso em anos.
87
FLÁVIO COSTA PICCININI
Estimativa do valor de retorno de altura de onda:
O valor de retorno (Hs), associado ao período de
retorno ô, é obtido a partir da solução da equação
F(Hs) = 1-P
(3.8)
1
k
HS = b + a é
ë- ln (1 - F (H St) )ù
û
sendo b e k > 0
(3.9)
Admitindo-se ondas com persistência de 3 horas,
haverá 2922 registros de Hs por ano, portanto em t
anos a probabilidade de não excedência do valor de
retorno será:
1
ou seja, para
t.2922
1
F(Hs50 ) = 1 = 0.9999932
50x2922
F(hst ) = 1 -
50
anos
A Tabela 2 apresenta as alturas significativas máximas
anuais, cujos valores foram extraídos diretamente
da amostragem de cada QMD.
A Tabela 3 apresenta os valores dos parâmetros e
dos momentos calculados em função das equações
2.3 a 2.6. Os valores dos momentos: média,
variância e assimetria foram obtidos por meio de
programas de funções estatísticas. O valor do
parâmetro de forma (k) é obtido pela equação 2.5),
o valor de escala (a) é definido pela equação 2.4) e
o valor de locação (b), pela equação 2.3).
A Tabela 4, a seguir, expõe os resultados mais
relevantes do presente trabalho. São as alturas
significativas máximas de onda (HS), relativas aos
períodos de retorno indicados em anos e que foram
obtidas por meio da equação 3.9). Os valores estão
expressos em centímetros.
TABELA 1
Apresenta a quantidade de registros da amostragem por
QMD
RESULTADOS E DISCUSSÃO
Os resultados da análise estatística para a obtenção de
valores extremos máximos, por meio da aplicação da
distribuição de Weibull, estão a seguir expostos. Como
descrito, foi considerada uma amostra com elevada
densidade de dados, pois contemplou a totalidade dos
registros apresentados na Tabela 1.
88
Números de
registros
147.133
QMD
1
303
2
339
15°S
35°W
119.578
3
375
25°S
35°W
145.426
4
411
412
35°W
45°W
118.725
5
35°S
35°S
OBSERVAÇÕES COLETADAS DENTRO DA
SÉRIE TEMPORAL E ESPACIAL
Os registros de altura significativa de onda que
compõem a amostragem para a análise estatística,
utilizados na análise de extremos, foram medidos
pelo satélite Topex/Poseidon, durante o período
de setembro de 1992 a agosto de 2002, e referidos
para cada uma das cinco regiões do oceano
Atlântico, identificadas pelos Quadrados de
Marsden (QMD), conforme pode ser observado
na Figura 3. Cada região citada abrange uma área
de 5° x 5°, com centros definidos pelas coordenadas
estabelecidas na Tabela 1.
Coordenadas dos centros
dos QMD (LAT/LONG)
04°S 32°W
Região
144.178
TABELA 2
Valores máximos anuais de altura significativa de onda
(Hs), expressos em metros.
QMD
303
1993
3,3
1994
3,3
1995
3,2
1996
3,6
1997
3,7
1998
3,8
1999
3,6
2000
2,9
2001
3,6
2002
2,9
339
3,9
3,9
3,5
4,2
3,8
4,1
3,7
3,8
4,1
3,1
375
6
5,2
5
6
5,7
5,8
5,4
4,9
5,4
4,4
411
8,9
7,8
6,9
8,7
7,8
9,2
9,1
7,6
7,5
8,9
7,5
7,7
8,8
8,1
7,7
7,3
7,9
7,1
8,1
7,8
412
TABELA 3
Parâmetros e momentos para a distribuição de Weibull.
Parâmetros
escala
locação
(a)
(b)
74,66
122,14
forma
(k)
2,0690
média
(μ)
188,28
339
85,70
104,73
1,6829
181,25
2187,59
375
113,66
109,71
1,4769
212,51
5013,49
1,099
411
161,45
134,06
130,76
129,37
1,3485
1,1998
278,84
255,48
12317,99
11142,76
1,271
1,521
QMD
303
412
Momentos
variância assimetria
(σ2)
(γ)
1124,51
0,587
0,880
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90
PROCESSOS DECISÓRIOS
TABELA 4
Valores de retorno (Hs) obtidos utilizando-se a
distribuição de Weibull.
QMD
303
5 anos
344,8
339
375
411
412
10 anos
352,4
20 anos
359,8
30 anos
364,0
50 anos
369,2
100 anos
376,1
433,2
447,1
460,7
468,4
478,0
490,8
634,9
660,3
685,2
699,5
717,3
741,1
993,9
1.011,6
.1039,8
1.064,4
1.084,8
1.116,7
1.110,8
1.146,9
1.143,3
1.184,9
1.186,7
1.235,9
Os valores expostos mostram com clareza que a altura
das ondas está fortemente relacionada com a latitude
da região observada. No QMD 303, em latitude
próxima de 04° Sul – região do nordeste brasileiro –
além da pouca altura das ondas, a elevação dessa altura
no período de retorno entre 5 e 100 anos é pequena,
próxima de 10%. Na latitude 25° Sul – próxima da
região da bacia de campos – QMD 375, a altura das
ondas representa quase o dobro das alturas observadas
no QMD 303, entretanto, significativamente menores
que as alturas registradas ao sul do Brasil, representados
pelos QMD 411 e 412, onde são registradas ondas
com alturas superiores a 10 metros e que atingem mais
de 12 metros.
Os resultados relativos à posição geográfica dos QMD
podem ser também visualizados na Figura 3, onde
são expressos os valores de alturas significativas
extremas para períodos de retorno de 10, 50 e 100
anos.
A partir dos resultados, podemos definir a forma da
onda de projeto utilizando a teoria de Stokes 5°, relativa
à maior altura encontrada, isto é, uma onda centenária
(período de retorno a cada 100 anos) com altura
significativa estimada de 12,36 metros, na região do
sul do Brasil, para um período de onda estimado de
T=14 segundos.
FIGURA 3
Apresenta as regiões dos QMD analisados com as
respectivas alturas de retorno.
CONCLUSÃO
A medida das ondulações do oceano, por meio do
radar altimétrico acoplado em satélites, fornece com
grande precisão informações sobre o ambiente
oceânico. A aplicação destes dados, em uma função
de distribuição de Weibull com três parâmetros, e a
inferência pelo método dos momentos, consolida os
resultados obtidos, por terem sido gerados em
procedimentos seguros, confiáveis e plenamente aceitos
no meio científico.
A estimativa de valores extremos de altura significativa
para uma onda de projeto, certamente, em muito
contribuirá para as atividades desenvolvidas no
ambiente oceânico.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90
89
FLÁVIO COSTA PICCININI
REFERÊNCIAS
1. BARSTOW, S.F.. Validation of the Topex/Poseidon Altimeter Measurements
of Significant Wave Height and Wind Speed, OCEANOR Rep. No. 95053,
1995.
2. CARTER, D. J. T.. Health and Safety Executive. Offshore Technology
Report, London, 1993.
3. CARTER, D.J.T., P.G. CHALLENOR AND M.A. SROKOSZ.. An
assessment of GEOSAT wave height and wind speed measurements, J. Geophys.
Res., Vol. 97, 1992.
8. HOLMES, J.D.; MORIARTY, W.W. Application of the generalized
Pareto distribuition to extreme value analysis in wind engineering.
Journal of Wind Engineeirng and Industrial Aerodynamics, v.83,
p.1-10, 1999.
9. MATALAS, N. C.., HYDROLOGIST VIENNA, 709 Glyndon St.,
S.E., 2001
10. OVE DITLEVSEN, Stochastic Wave Loads on Tubular Offshore Structures
-Models for dynamics and reliability analysis. Department of Civil
Engineering Technical University of Denmark, april 2001.
4. GLOBAL WAVE STATISTICS ONLINE, BMT Fluid Mechanics
Limited, England.
11. PICCININI, F. C.. Um Estudo do Carregamento Hidrodinâmico sobre
Estruturas Oceânicas Esbeltas. Departamento de Engenharia Oceânica,
Rio Grande, RS, FURG, janeiro 2003. Dissertação de Mestrado.
5. GODA, Y.. Random Seas and Design of Maritime Structures. 2. ed. World
Scientific Publishing, Singapore, 2000.
12. SMITH, R.L.. Environmental Statistics. Department of Statistics
University of North Carolina, Chapel Hill, USA, julho 2001.
6. GUIDE TO WAVE ANALYSIS AND FORECASTING, 2. ed.
Secretariat of the World Meteorological Organization – Geneva –
Switzerland, 1998
13. WORLD WAVES ATLAS – Oceanographic Company of Norway ASA
OCEANOR, 2001.
7. HAVER, S.. On the Prediction of Extreme Wave Crest Heights, Statoil,
Stavanger, Norway, 2000.
90
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 84-90
PROCESSOS DECISÓRIOS
Sistema de apoio àa decisão com informações
georreferenciadas: uma aplicação em software livre
Marcelo Felipe Moreira Persegona
Universidade de Brasília – Centro de Desenvolvimento Sustentável
CDS/UnB
Instituto de Ensino Superior de Brasília – IESB
E-mail: [email protected]
Suboficial (AD-PD) Maria Isabel Araújo Silva dos Santos
Estado-Maior da Armada – Subchefia de Logística e Mobilização –
Divisão de Ciência e Tecnologia
Universidade de Brasília – Centro de Desenvolvimento Sustentável
CDS/UnB
E-mail: [email protected]
Isabel Teresa Gama Alves
Universidade de Brasília – Centro de Desenvolvimento Sustentável
CDS/UnB
E-mail: [email protected]
Resumo
Este trabalho apresenta o aplicativo SAD/WebGIS – Sistema
de Apoio à Decisão com Informações Georreferenciadas,
como uma ferramenta de auxílio aos tomadores de decisão
de órgãos públicos ou empresas, na elaboração, implantação
e acompanhamento de projetos e/ou programas
governamentais, bem como, a capacidade de criar mapas
com múltiplas camadas de informações e de distintas origens
(shapes e fotografias de satélite). Sua aplicação tem se
mostrado importante na realização de avaliações espaciais
do território e no estudo de fenômenos em diversas áreas de
interesse. O aplicativo apresentado foi desenvolvido em
plataforma livre, seguindo a tendência atual do governo
brasileiro na adoção deste tipo de solução.
Palavras-chave
Sistemas de informação. Georreferenciamento. Apoio a
decisão. Tecnologia da informação.
Decision support system with geographic
referenced information: a free software
application
Abstract
This work presents the SAD/WebGIS – Decision Support
System with Geographic Referenced Informations as an
auxiliary tool to decision makers when elaborating,
implantating and following up projects and/or programs in
public and private agencies or companies. The SAD/
WebGIS is able to create maps with multiple layers of
information of different sources, such as shapes and satellite
photos. This system was of great importance to the evaluation
of a geographical areas and in the study of phenomena that
has occurred in this particular areas. This application was
developed on the general public license software, in
particular on Linux platforms, following the brazilian
government tendency in adopting free software solutions.
Keywords
Information systems. Geographic reference. Decision
support. Information technology.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95
INTRODUÇÃO
O Estado Moderno, seguindo a corrente da era do
conhecimento, tem como uma de suas principais
funções prover informações. Nesse contexto, passa a
depender de um ciclo integrado de ações, ou seja, a
coleta, a produção, a ordenação, o armazenamento e
a distribuição de informações.
Assim, disponibilizar à sociedade informações sobre
serviços públicos vem se constituindo em uma
estratégia gerencial para maior efetividade na execução
de políticas públicas. Tendo o entendimento que o
grau de democratização do Estado pode ser medido
pela sua transparência, o que pressupõe o direito à
informação e à privacidade do cidadão, quanto maior
o acesso à infor mação governamental, mais
democrática e liberal torna-se a relação do Estado
com a sociedade, o que propicia ao cidadão maior
conhecimento e participação nos processos decisórios
de seu país.
O uso de um sistema de informações georreferenciadas possibilita um melhor entendimento sobre as cidades, as regiões e os países, pela representação visual
dos dados tabulares, possibilitando a percepção de
tendências e de informações, que no formato textual
não seriam percebidas, devido ao grande volume de
dados a serem analisados.
Esse trabalho apresenta o aplicativo SAD/WebGIS
– Sistema de Apoio à Decisão com Informações,
como ferramenta estratégica para a criação de políticas
públicas, bem como para a concepção do planejamento
estratégico.
OBJETIVOS DO SISTEMA
O SAD/WebGIS foi desenvolvido com o propósito
de contribuir para a ampliação da observação e análise
dos recursos e acontecimentos no espaço geográfico
brasileiro. Utiliza informações georreferenciadas úteis
aos tomadores de decisão governamentais como parte
da gestão do conhecimento – possui ferramentas
capazes de armazenar, recuperar, integrar, manipular,
91
MARCELO FELIPE MOREIRA PERSEGONA, SUBOFICIAL (AD-PD) MARIA ISABEL ARAÚJO SILVA DOS SANTOS, ISABEL TERESA GAMA ALVES
analisar, e, principalmente, associar dados espaciais1 a
um banco de dados textual e/ou de imagens.
Possibilita o estudo, a partir mapas temáticos 2 e
personalizados pelo usuário, de um cenário complexo
e heterogêneo a ser gerenciado pelo planejamento
territorial brasileiro.
DESENVOLVIMENTO DO SISTEMA
O georreferenciamento utiliza técnicas matemáticas e
computacionais para tratamento de informações
geográficas, juntamente com os dados textuais
tabulares, incorporando ferramentas de Sistemas de
Informações Geográficas (SIG) e Sensoriamento
Remoto3, com destaque para o Processamento Digital
de Imagens (PDI).
O SAD/WebGIS foi desenvolvido em duas versões,
uma na plataforma proprietária Windows e outra em
plataforma livre. A interface de navegação do sistema
é bastante amigável e capaz de ser utilizada em qualquer
computador, pois está baseada nos mesmos
programas utilizados na Internet, ou seja, no ambiente
Web.
O sistema permite, por meio de um conjunto mínimo
de ferramentas e modelos de dados, disponibilizar
informações georreferenciadas, onde os usuários
poderão consultar ou navegar as informações
integradas a um banco de dados textual, por mapas
digitalizados4, fotografias aéreas ou bases cartográficas
digitais. Também permite a comparação entre as
informações armazenadas, as camadas temáticas de
interesse do usuário e as imagens de satélites
disponíveis, gerando novos mapas personalizados.
Cabe ressaltar que o processo de plotagem agrega
maior qualidade e precisão à informação gerada,
permitindo maior presteza, efetividade e transparência
na análise a ser realizada pelo usuário.
Toda informação associada direta ou indiretamente a um objeto
específico cuja localização pode ser referenciada geograficamente.
2
Mapas criados automaticamente pelo sistema, em que a abstração
cartográfica é realizada com base nos atributos dos elementos.
3
Conjunto de processos e técnicas utilizados para medir propriedades
eletromagnéticas de uma superfície ou de um objeto, sem que haja
contato entre o objeto e o equipamento.
4
Representação no plano, normalmente em escala pequena, dos
aspectos geográficos, naturais, culturais e artificiais de toda a
superfície, de uma parte ou de uma superfície definida por uma
dada divisão político-administrativa ou por uma dada divisão
operacional ou setorial.
1
92
O acesso ao SAD/WebGIS pode ser via Internet ou
Intranet, cabendo a observação do grau de sigilo das
informações e política de segurança quanto aos dados
que serão disponibilizados. As informações utilizadas
no sistema podem ser provenientes de outros sites da
Internet ou bases de dados de órgãos governamentais,
por exemplo: Instituto Nacional de Pesquisas Espaciais
(INPE), Empresa Brasileira de Pesquisa Agropecuária
(EMBRAPA), Departamento Nacional de Produção
Mineral (DNPM), Centro de Imagens e Informações
Geográficas do Exército (CIGEx), Ministério das
Comunicações (MC), Instituto Brasileiro do Meio
Ambiente e dos Recursos Naturais Renováveis
(IBAMA), Fundação Nacional do Índio (FUNAI),
entre outros, o que denota a capacidade do sistema
para integrar diferentes tipos de informações.
A Figura 1, a seguir, apresenta um exemplo de uso do
sistema SAD/WebGIS. No mapa gerado no
exemplo, foram selecionadas as camadas5 temáticas
Brasil, municípios de fronteira, barragens, Amazônia
legal, região da seca e rios intermitentes.
O núcleo é o programa de WebGIS (MapServer6) que
é programado em um arquivo texto, chamado mapfile,
onde ficam as instruções de localização dos dados
geocodificados (banco de dados textuais, imagens
raster7 e temas shapesfiles8); posição geográfica em latitude
e longitude ou UTM; definições de consulta a banco
de dados; e os nomes que aparecerão nas legendas e
rótulos.
Os arquivos templates proporcionam a interface da
aplicação, definindo a posição de ferramentas de zoom,
consulta, cores, logos etc. O MapServer é um software
Divisão temática dos elementos de dados georreferenciados. Cada
nível representa, geralmente, um conjunto específico de elementos.
6
MapServer é um conjunto de ferramentas e recursos OpenSource
para a criação de aplicações espaciais (geográficas) em ambientes
web. O sistema foi construído com auxílio de outros projetos Free
Software ou OpenSource e pode ser compilado na maior parte de
sistemas UNIX/Linux, Windows e MacOS.
7
Representação de elementos geográficos. Os dados são armazenados
e exibidos como linhas horizontais e verticais de células
uniformemente divididas – pixels. Essas imagens descrevem features,
embora não possuam discernimento delas como entidades
independentes.
8
Representação vetorial, onde a localização e a aparência gráfica
de cada objeto são representadas por um ou mais pares de
coordenadas. Essa representação pode ser feita por três tipos básicos
de elementos: pontos, linhas ou áreas (polígonos). As coordenadas
geográficas são valores numéricos, através dos quais podemos definir
a posição de um ponto na superfície da Terra, tendo como ponto de
origem para as latitudes o Equador e o meridiano de Greenwich
para a origem das longitudes.
5
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95
PROCESSOS DECISÓRIOS
FIGURA 1
Mapa gerado no SAD/WebGIS – Fonte: O autor
de visualização, ou seja, ele apenas apresenta dados e
não tem a capacidade de alterá-los. Caso seja necessário
realizar alterações, faz-se necessária a utilização de
softwares de geoprocessamento, como o ArcGIS e o
Erdas Imagine. Uma aplicação MapServer pode “linkar”
(pular) para outra aplicação MapServer.
As etapas de desenvolvimento do SAD/WebGIS
foram:
1 a. processamento dos arquivos shapefiles e raster,
utilizando os softwares de geoprocessamento.
Estes arquivos foram armazenados em uma estrutura
de diretórios e interpretados na etapa seguinte pelos
arquivos mapfile.
2 a. codificação dos arquivos mapfile, usando uma
linguagem de definição do mapfile.
Estes arquivos foram criados, ou seja, programados
por um técnico.
Foram criados os arquivos templates na linguagem
HTML, que permitiu a apresentação dos dados na
aplicação WebGIS.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95
3a. interpretação do MapServer.
O software MapServer interpretou e executou o
arquivo mapfile, gerou a aplicação WebGIS com base
nos templates, arquivos shpefile e raster, e apresentou-os
no navegador.
A Figura 2, a seguir, ilustra as etapas de
desenvolvimento do sistema SAD/WebGIS.
Os equipamentos utilizados no desenvolvimento e
acesso ao Sistema de Apoio a Decisão com
Infor mações Georreferenciadas possuíam as
características técnicas, abaixo descritas:
– Servidor: com dois processadores, barramento de
64 bits, 1 Gb de memória RAM e HD 200 Gb.
– Estação de desenvolvimento: processador
AMD Duron de 1800 MHz, 256 Mb DDR de
memória RAM e HD 40 Gb.
– Estação de trabalho: qualquer computador com
navegador de Internet.
O sistema em plataforma livre utilizou:
– Sistema Operacional Unix Like.
93
MARCELO FELIPE MOREIRA PERSEGONA, SUBOFICIAL (AD-PD) MARIA ISABEL ARAÚJO SILVA DOS SANTOS, ISABEL TERESA GAMA ALVES
FIGURA 2
Etapas de desenvolvimento do SAD/WebGis.
Fonte: CARVALHO, 2004
– Servidor Web APACHE 4.3.
– MapSer ver para visualizar as camadas de
informação georrefenciadas e ler os bancos de dados
relacionados às camadas.
– Interface do aplicativo desenvolvido em HTML.
A versão para plataforma proprietária (Windows)
utilizou:
– Sistema Operacional Windows XP.
– Servidor Web ISS 5.0.
com as opções desejadas, compilar e copiar o código
binário gerado para o diretório CGI-BIN gerado na
instalação do servidor Apache.
O sistema SAD/WebGIS, possui integração com Perl,
Java, JavaScript, Python, PHP, ASP e ColdFusion. A
aplicação desenvolvida utiliza HTML para a interface
e JavaScript para as consultas textuais ao banco de
dados, bem como para a otimização de ferramentas
a serem utilizadas nos mapas temáticos gerados. Uma
versão do SAD/WebGis está acessível no endereço:
http://200.130.0.16/WebGis/pnot/limpartmp.php
– Interface do aplicativo desenvolvido em HTML.
– MapSer ver, para visualizar as camadas de
informação georrefenciadas e ler os bancos de dados
relacionados às camadas.
Cabe destacar a existência de duas diferenças entre as
duas versões:
– no que se refere à programação do arquivo mapfile,
que é interpretado pelo programa MapServer; e
– na instalação no servidor da aplicação.
A versão Windows necessita que sejam salvas as
bibliotecas (DLL) do MapServer em um diretório
do Windows, que dependerá do tipo de servidor de
páginas HTML utilizado (IIS ou Apache). Já na versão
com servidor Linux ou FreeBSD, basta configurar
94
CONCLUSÃO
O SAD/WebGIS permite a captura, armazenamento,
manipulação, análise e disponibilização de informações
referenciadas geograficamente, agregando:
• efetividade – ao permitir o acesso a grande
quantidade de informações;
• integridade – ao permitir o controle de acesso
simultâneo aos dados geográficos; e
• persistência e independência – ao permitir a
manutenção das informações independentemente dos
aplicativos que acessam os dados.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95
PROCESSOS DECISÓRIOS
Adicionalmente, apresenta a vantagem de utilidade no
foco social, baixo custo ou nulo no desenvolvimento,
liberdade de acrescentar a quantidade de informações
que forem julgadas necessárias e compará-las, sem
importar a origem dos dados, obsolescência nãoprogramada, robustez, adaptabilidade, suporte fácil e
amigabilidade.
A concepção do sistema permite o manuseio de
qualquer tipo de informação georreferenciada, tais
como, shapes, pontos, linhas e imagens raster de satélites.
Pode ser usado para múltiplas finalidades, onde a sua
utilização se diferenciará apenas pelo tipo de dados
armazenados. Não requer um treinamento específico
para a sua utilização, por ter sido desenvolvido em
interface de navegador de Internet, o que reduz o
tempo de treinamento dos usuários, por ser uma
tecnologia que a maioria dos usuários já possui
conhecimento. A tecnologia empregada no
desenvolvimento do sistema permite que seja instalado
em qualquer tipo de servidor de páginas de HTML,
não necessitando a aquisição de licenças de algum
software específico, caso seja instalado a versão em
plataforma livre. Portanto, possui portabilidade e
interoperabilidade, devido ao uso de aplicações de
Internet.
REFERÊNCIAS
CARVALHO, Carlos Alberto, 2004. Desenvolvimento de Aplicações
WebGIS em MapServer. EMBRAPA, Campinas.
FERREIRA, Anderson Soares, 2004. Guia de instalação do FREEBSD.
EMBRAPA, Campinas.
FREGONA, Marcelo, 2004. Mapas. CPqD, Campinas.
GATTO, Sandro Danilo, 2004. O CpqD e Software Livre em GIS:
ISIG/WEB e SIGPPT-RadCom. CPqD, Campinas.
GISData, 2004. GISData. http://www.gisdata.com.br
GISMaps, 2004. GISMaps. http://www.gismaps.com.br
MAGALHÃES, Geovane C. “et al”, 2004. Sistema de Informações
Geográficas. CPqD, Campinas.
MANEGUETTE, Arlete A. C., 2003. Introdução à Cartografia Temática.
UNESP, Presidente Prudente.
______________, 2004. Visita guiada ao software de cartografia
temática Philcarto 4. UNESP, Presidente Prudente.
MAPSERVER, 2004. MapServer Documentation Project. http://
mapserver.cttmar.univali.br
NOGUEIRA, R. N. “et al”, 1997. Georreferenciamento de mapas
temáticos e imagens de satélite no aplicativo IDRISI. Revista Brasileira
de Agrociência, 3, nº3, pág 99-106, Santa Maria.
PERSEGONA, M. F. M.; BURSZTYN, M. e ALVES, I. T. G., 2006.
Adicionando valor a la Información: Representando la Información
en Mapas Geográficos para Apoyo a la Toma de Decisión. In: VII
Taller Internacional sobre Inteligencia Empresarial y Gestión del
Conocimiento en la Empresa. Intempres 2006 Venezuela. Baruta:
Fundación Instituto de Estudios Avanzados (I.D.E.A.).
PERSEGONA, M. F. M.; PRADO, M. O.; ALVES, I. T. G.; DIAS, F. A.
A. e OLIVEIRA, S. A., 2006. La utilización de informaciones
georreferenciadas para Inteligencia Competitiva: Propuesta de una
Herramienta. In: Congreso Internacional de Información, Havana.
Taller Internacional sobre Inteligencia Empresarial y Gestión del
Conocimiento en la Empresa. Havana: IDICT.
TEIXEIRA, Marta Duarte, 2004. Padrões OpenGIS Componentes
Open Source. CPqD, Campinas.
THÉRY, Hervé, 2004. Curso: SIG – Cours HT1. Disponível no
endereço: http://www.atmos.ggf.br
TOURNEAU, François-Michael Le, 2004. Curso de Informações
Georreferenciadas. Disponível no endereço: http:// www.fmlt.org
WANIEZ, Philippe, 2004. Philcarto. Disponível no endereço: http:/
/perso.club-internet.fr/philgeo
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 91-95
95
MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO
O uso da simulação na avaliação operacional da
defesa antiaérea de um navio de guerra
Mauricio José Machado Guedes
Centro de Análises de Sistemas Navais, Marinha do Brasil
E-mail: [email protected]
Resumo
Este artigo apresenta uma simulação de Monte Carlo com o
objetivo de, inicialmente, auxiliar na identificação dos
parâmetros que quantificam o desempenho de um sistema de
defesa antiaérea de um navio de guerra, e a contribuição de
cada parâmetro no cálculo da probabilidade de um navio
sobreviver a um ataque de mísseis (Ps) e, posteriormente,
obter as linhas de ação que maximizem Ps em cada cenário.
A quantificação dos parâmetros necessários para o cálculo
de Ps são obtidos de um processo de Avaliação Operacional
(AO) do navio, tarefa bastante dispendiosa. Considerando
que uma maior precisão na obtenção dos parâmetros leva a
maiores custos, a construção de um modelo que indique
quais parâmetros medir e a precisão com que devem ser
medidos, é de vital importância para uma utilização otimizada
dos recursos disponíveis.
Palavras-chave
Modelagem. Simulação. Avaliação operacional. Área:
simulação.
Using simulation to assist the operational
analysis of a warship air defence
Abstract
This article presents a Monte Carlo simulation to, firstly,
identify the parameters that quantify a ship air defence
system performance, and the relevance of each parameter
to the survival probability evaluation of a single warship
against a missile attack (Ps) and, secondly, to obtain the
course of action that maximize Ps in a given scenario. The
required parameters to calculate Ps are quantified by
carrying out an Operational Test&Evaluation (OT&E)
process. This is an expensive task, taking in account that
the tests become more and more expensive as the
parameters required accuracy increases. Thus, a model
that leads to the best parameter choice and its precision is
paramount to cut expenditure of the whole process.
Keywords
Modeling. Simulation operational. Test: evaluation.
96
INTRODUÇÃO
Com a crescente complexidade dos sistemas que
compõem os meios da Marinha do Brasil (MB), a
Avaliação Operacional (AO) de um navio tornou-se
uma tarefa cada vez mais dispendiosa, exigindo cada
vez mais o auxílio das ferramentas da pesquisa
operacional (PO) [MB (2004)].
A AO difere de um processo de aceitação de
equipamento por ter uma abordagem sistêmica.
Enquanto a aceitação se limita a verificar a aderência
do funcionamento de um equipamento às
especificações, a AO verifica os vários equipamentos
que são necessários para a consecução de uma tarefa,
visando otimizar o seu emprego, em condições as mais
reais possíveis de operação. Isto é, o foco de uma AO
é a missão, que fornecerá os cenários de utilização do
navio. O cenário é a descrição imaginária que será
utilizada para simular um ambiente real de operação
do navio. Na construção do cenário, são criadas linhas
de ação, que são procedimentos a serem seguidos para
cumprir a missão. A partir das linhas de ação, são
construídos os modelos de emprego, que serão o guia
para as simulações que obterão as informações
necessárias a respeito das características do sistema e
seu desempenho operacional [Braga (1979)]. As
simulações a serem conduzidas são digitais ou
analógicas, que servirão para aumentar o conhecimento
sobre os desdobramentos de uma linha de ação, e
utilizando o próprio equipamento no mar e o apoio
necessário. Os modelos de emprego, chamados de
táticas, são estudados visando sua otimização. Mas,
para isso, é necessário a obtenção dos parâmetros de
desempenho dos sistemas, não isoladamente, mas
integrados entre si e com o elemento humano, no
cumprimento de uma determinada missão. O
desempenho é medido pelas chamadas Medidas de
Eficácia Operacional (MEO).
Sua quantificação é realizada por meios de testes com
os sistemas operando em condições tão reais quanto
possível, o que implica em um alto custo, pois envolve
a operação de navios, aeronaves, submarinos e outros
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102
PROCESSOS DECISÓRIOS
dispositivos necessários como apoio. A condução dos
testes no mar é uma atividade dispendiosa, e deve ser
usada com a máxima eficiência. A obtenção das MEO
implica em procedimentos repetitivos para o
levantamento de estatísticas confiáveis, e fica claro que
quanto maior a precisão requerida, mais dispendioso
será sua obtenção.
Para a utilização racional dos recursos disponíveis, é
preciso se concentrar nas variáveis que afetam a MEO
procurada e separar as variáveis que não afetam, ou
afetam pouco, o resultado final. A concentração dos
esforços na obtenção das variáveis mais importantes
leva a uma substancial economia de recursos. Além
disso, alguns parâmetros são virtualmente impossíveis
de serem obtidos na prática, por envolver um custo
altíssimo ou por ter um grau de risco inaceitável, e
devem ser obtidos a partir da composição de outras
MEO que, associadas de maneira correta, informarão
o resultado da MEO procurada.
Este artigo descreve o procedimento para a obtenção
dos parâmetros necessários à obtenção de P s, a
probabilidade de um navio em sobreviver a um ataque
de mísseis. Ps é a MEO principal a ser determinada.
Ela é de difícil obtenção, pois não se pode, na prática,
reproduzir exatamente todas as fases de um
engajamento anti-aéreo.
Esse trabalho usa simulação para melhor esclarecer a
dinâmica do problema e os relacionamentos entre as
variáveis, e auxiliar na seleção das MEO que
quantificarão o desempenho dos sistemas de defesa
antiaérea do navio na destruição dos incursores. Nesse
estágio, o objetivo é descobrir as variáveis que
influenciam na determinação de Ps em um cenário de
alvos múltiplos. Nesse estágio, o objetivo da simulação
é melhorar o entendimento do problema, e não obter
dados quantitativos [Ignall e Kolesar (1979)].
Laboratory’s [SEAROADS (2006)] e o SADM da
BAE Systems [Chapman e Benke (2000)], mas esses
sistemas são de pouca valia se os parâmetros de
desempenho dos sistemas não são conhecidos, além
de terem sido desenvolvidos com objetivos diferentes
dos da MB. Foram também elaboradas abordagens
mais gerais com o objetivo de explicitar melhor o
problema da defesa antiaérea, inclusive sem apoio
computacional [Hostbeck (1999)].
METODOLOGIA
Este estudo foi desenvolvido para obter os parâmetros
relevantes na determinação da probabilidade de um
navio sobreviver a até quatro incursores se
aproximando (fechando) a baixa altitude contra o
navio, com uma velocidade de cerca de 500 nós, cada
um deles separados por seis segundos [Shephard
(1988)].
O navio modelado aqui tem três radares, um de busca
aérea e dois de direção de tiro (DT). O radar de busca
aérea não tem arco cego (região não coberta pelo radar
devido à superestrutura da navio), e os radares DT
têm um arco cego de 60° a ré de suas posições. Seus
alcances são considerados como sendo o horizonte
radar para um incursor em vôo rasante (altitude < 50
pés). O navio tem dois sistemas de defesa, um
lançador de mísseis superfície-ar (MSA) na popa e
dois canhões anti-aéreos, um em cada bordo. O navio
deve manobrar para desmascarar os alvos, se estiverem
em arco cego. A decisão da guinada obedece a um
algoritmo (ver Figura 3), que tem por objetivo
minimizar o tempo para o engajamento e maximizar
Ps.
O cenário de ataque é o seguinte:
a) Radar de busca do navio detecta incursor
Identificar os parâmetros que quantificam o
desempenho dos sistemas de defesa antiaérea é o
primeiro passo para o estabelecimento de táticas para
enfrentar a ameaça de mísseis, e é de vital importância
para a sobrevivência do navio.
b) Navio identifica incursor como inimigo
Algumas firmas desenvolveram e vendem sistemas
para o auxílio ao planejamento e desenvolvimento de
táticas de defesa aérea, como, por exemplo, o
SEAROADS da TNO Physics and Electronics
e) É decidido qual armamento usar (MSA ou canhão)
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102
c) Radar de busca envia TI (indicação do alvo) para
o radar DT
d) Radar DT adquire e rastreia o alvo
f) Navio engaja o incursor
97
MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO
O cenário mais simples é um navio atacado por um
único incursor. Algum tempo após o incursor cruzar
o HR, ele é detectado. Ele tem que ser identificado
como inimigo e rastreado pelo radar de direção de
tiro. Após um período de tempo, que pode ser
relativamente longo se o navio precisar desmascarar
o alvo, um MSA é lançado contra o incursor. Após o
tempo previsto de interceptação, é necessária uma
avaliação se o incursor foi destruído. Se não foi, é
necessário lançar outro MSA ou, dependendo da
distância, engajar o incursor com o canhão anti-aéreo.
A situação se torna mais complicada na presença de
mais de um incursor. Como a guiagem do MSA é do
tipo semi-ativa, o radar DT que está guiando o MSA
só é liberado após a interceptação do alvo. Assim,
outro incursor só poderá ser engajado com o radar
DT restante. Assim, o tempo para o rastreamento será
dependente se o incursor estiver no arco cego do radar
DT restante. Se estiver, o navio terá de guinar, mas
sem comprometer a ação em andamento contra o
incursor já engajado.
A tática empregada na manobra do navio para o
engajamento das ameaças impactará fortemente em
P s , pois os arcos cegos dos radares DT e do
armamento anti-aéreo poderão implicar em manobras
do navio para o desmascaramento do alvo.
A necessidade de engajar dois mísseis incursores fará
com que o navio aumente a área de reflexão radar
vista pelo incursor, já que a intersecção dos arcos livres
dos radares DT força o navio a assumir uma atitude
aproximadamente de través ao incursor. Uma
conseqüência disso é que o navio vai aumentar sua
área de reflexão radar para o incursor, aumentando
assim sua probabilidade de acerto, já que a zona de
intersecção dos arcos livres dos radares DT ocorre
pelo través do navio.
A simulação utiliza vários elementos na modelagem
dos cenários de emprego da defesa antiaérea. Eles
estão descritos a seguir.
probabilidade de mau funcionamento, isto é, a
probabilidade do míssil impactar e não explodir.
Navio
Será considerado sozinho, sem alarme aéreo
antecipado. Assim, dependerá somente de seus sensores
para detecção de incursores. É dotado dos
equipamentos e sistemas descritos a seguir. A Figura 1
apresenta a localização dos equipamentos utilizados
na simulação.
Radar de Busca
Para um navio sozinho, a área que pode ser esclarecida
por seus sensores é limitada pelo horizonte radar (HR),
que é definido como a maior distância de detecção
por causa da curvatura da Terra, isto é, no caso da
defesa aérea, o ponto mais cedo possível em que é
possível uma detecção. Essa distância depende da
altura da antena do radar de vigilância e a altura da
aeronave ou míssil incursor
Radar de Direção de Tiro
É um radar de grande precisão para a orientação das
armas do navio. Recebe a indicação de alvo vinda do
radar de busca e, após um tempo, adquire e passa a
rastrear o alvo. Esse tempo é dependente da qualidade
da posição do alvo passada pelo radar de busca, do
alinhamento do sistema e do software de controle do
radar DT.
Míssil Superfície-Ar (MSA)
O MSA considerado aqui é do tipo semi-ativo, isto é,
é necessário que um radar mantenha o alvo iluminado
até a interceptação. Isto significa que o MSA aloca um
radar de DT até a interceptação com o alvo.
Canhão Anti-Aéreo
É considerado que o canhão não tem sistema
independente de acompanhamento do alvo, e por isso
Incursor
O incursor será um míssil ou uma aeronave em vôo
rasante (<50 pés), desenvolvendo cerca de 500 nós
em vôo retilíneo fechando contra o navio. Tem uma
probabilidade de sucesso, que varia de acordo com
a área do alvo apresentada a ele, e engloba a
98
FIGURA 1
Posicionamento dos elementos usados na simulação
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102
PROCESSOS DECISÓRIOS
depende dos radares DT do navio. Com isso, ele
concorre com o MSA no uso dos radares DT. É uma
arma de curto alcance.
Os armamentos e sensores têm os seguintes arcos
cegos, representados na Figura 2. Os arcos cegos dos
canhões não estão representados para não sobrecarregar a figura. O arco cego de cada canhão é o setor
de 180o do bordo oposto a cada um.
Tempos
Existem os tempos necessários para decisão e aqueles
inerentes ao sistema do navio. Os tempos de decisão
são aqueles relacionados com o fator humano, como
identificação da ameaça e comando de manobra do
navio. Esses tempos são dependentes de adestramento.
Quanto mais adestrado estiver o comandante nas
táticas disponíveis para cada situação, menor será o
tempo de decisão. O ambiente também influi. Por
exemplo, operações próximas a rotas aéreas comerciais
dificultam a avaliação das ameaças aéreas e tendem a
aumentar o tempo de decisão [Liebhaber (2000)].
FIGURA 2
Arcos cegos dos sensores e armamento
Os tempos do sistema do navio são os requeridos
para desempenhar as funções necessárias ao
engajamento do alvo.
Tática
As táticas, ou linhas de ação, de emprego do
armamento de defesa aérea são desenvolvidas para
maximizar Ps. Existem várias linhas de ação possíveis.
Dentre elas, usando a experiência e o bom senso, é
possível eleger algumas que seriam as candidatas à
melhor tática. Como existem várias situações possíveis,
um conjunto de linhas de ação deverá ser testado para
o reconhecimento das melhores em cada situação. Um
exemplo parcial (apenas até o engajamento pelo MSA
e sem considerar os canhões) de linha de ação está
apresentado na Figura 3.
RESULTADOS E DISCUSSÃO
Foi usada a simulação orientada a eventos e, quando
o navio está manobrando, por incrementos fixos no
tempo. Essa opção foi motivada pela necessidade de
visualização passo a passo da manobra do navio,
melhorando o entendimento de cada algoritmo de
manobra implementado.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102
FIGURA 3
Fluxograma de Decisão
99
MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO
A linguagem utilizada foi o FORTRAN 95 com a
parte gráfica da própria linguagem (QWIN). Nesse
estágio, não é ainda necessário o desenvolvimento de
uma apresentação realista do cenário, servindo a parte
gráfica para verificar a consistência do código.
A Figura 4 apresenta um exemplo, utilizando dados
fictícios, do desenrolar da simulação no caso em que
três mísseis incursores estão fechando contra o navio.
A Figura 4a mostra o início da simulação. O círculo
maior delimita o alcance do MSA, e o círculo menor
o alcance do canhão. A linha cheia indica a proa do
navio e as linhas pontilhadas mostram os arcos cegos
dos radares e armamento (ver Figura 2). Vê-se um
incursor já detectado (os eventos são marcados por
bolas pretas) e outro se aproximando ainda sem ser
detectado.
FIGURA 4
Um exemplo da simulação do engajamento de três
incursores.
A Figura 4b mostra um incursor já rastreado por um
radar DT e outro já detectado.
pretende determinar como cada um desses parâmetros
contribue para Ps, e assim indicar o grau de precisão
com que eles precisam ser levantados em testes reais.
A Figura 4c apresenta três mísseis detectados, sendo
dois rastreados. Na mesma Figura, pode-se ver que
um míssel já foi engajado e que o terceiro incursor
está esperando a liberação de um radar DT para ser
rastreado. Vê-se ainda nessa figura que um incursor
está se aproximando pelo arco cego do MSA,
obrigando o navio a manobrar para desmascarar o
incursor.
Um elemento de vital importância a considerar é a
árvore de decisão empregada, que condiciona os
parâmetros que devem ser investigados e influencia
no seu relacionamento. Assim, é importante encontrar
primeiro a melhor, ou melhores, linhas de ação a
empregar para as situações selecionadas e, para estas,
listar os parâmetros (e sua precisão) a serem obtidos
da AO, em testes reais.
Na Figura 4d, vê-se que o navio já desmascarou o
incursor que se aproximava pelo arco cego do MSA.
Um incursor já foi neutralizado (liberando um radar
DT), um MSA está a caminho da interceptação do
segundo incursor, e o terceiro incursor está sendo
rastreado pelo radar DT que foi liberado após a
neutralização do primeiro incursor.
A título de exemplo, apenas alguns desses parâmetros
estão descritos, de forma geral, a seguir.
Na Figura 4e, um MSA destruiu o segundo incursor
(liberando um radar DT), e o outro MSA está próximo
da interceptação do terceiro incursor.
Finalmente, a Figura 4f apresenta os três mísseis
incursores destruídos, sem a necessidade de
engajamento pelos canhões.
Parâmetros Vislumbrados
Durante a construção da simulação, vários parâmetros
foram sendo identificados e incorporados à simulação,
considerados necessários ao estudo do problema de
defesa antiaérea do navio. A utilização da simulação
100
a) Tempo para detectar após cruzar o HR
É o tempo transcorrido entre o incursor cruzar o HR
e ser detectado pelo radar de vigilância. Esse tempo é
dependente das condições meteorológicas, do estado
do radar, do estado do mar e do tamanho do incursor.
b) Tempos de reação do armamento
É o tempo entre o comando (que pode ser automático
ou manual) e a sua execução pelo armamento. Esse
tempo é dependente do sistema computacional do
navio, composto de tempos de processamento e
tráfego de dados, e do tempo gasto pelo armamento
para se posicionar. Os arcos cego, tanto dos sensores
quanto do armamento, também influenciam nesse
tempo, por exigir que o navio manobre para
desmascarar um alvo.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102
PROCESSOS DECISÓRIOS
c) Tempo de reação de rastreamento
É o tempo entre a identificação e a decisão com a
qual o radar DT rastreia o alvo. Esse tempo leva em
conta o tempo de decisão propriamente dito, que é,
considerando a marcação do incursor e o radar DT
que está disponível , decidir qual radar DT (AV ou
AR) usar. Se o incursor estiver se aproximando pelo
arco cego do radar DT escolhido, soma-se o tempo
de guinada do navio.
d) Tempos de reação de decisão
São tempos que o decisor necessita para julgar a
situação e expedir uma ordem. São fortemente
dependentes do cenário de operação e do
adestramento do decisor.
e) Probabilidades de acerto
As probabilidades de acerto podem ser avaliadas a
partir da solução de tiro para o canhão e para o MSA.
É necessário também verificar a precisão da solução
de tiro sob altas taxas de guinada do navio. Sua
precisão depende, principalmente, dos sensores
utilizados para obter a posição do alvo e dos
algoritmos implementados para resolver a solução de
tiro.
f) Taxa de Guinada
É a variação do rumo do navio no tempo. É
dependente do tipo do navio e da velocidade em que
é feita a guinada. É importante porque, no caso de
um incursor se aproximar por um setor de arco cego
dos sensores ou do armamento, vai impactar
diretamente nos diversos tempos de reação.
CONCLUSÕES
Este trabalho está em andamento, mas já permitiu a
identificação de parâmetros não percebidos
inicialmente. Por exemplo, a implementação da
simulação mostrou que a decisão de como o navio
manobra influi fortemente na MEO principal (Ps), por
alterar os tempos de reação dos sensores e armas. A
utilização da simulação para vislumbrar cenários e
ajudar a determinar como e em que grau cada variável
do problema se relaciona e sua contribuição para o
resultado final desejado, está se mostrando bem
sucedida. Além disso, a simulação está permitindo uma
familiarização com a cinemática do problema,
auxiliando na elaboração dos testes reais, de modo a
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102
torná-los mais objetivos para a obtenção dos
parâmetros desejados.
O uso da simulação está permitindo economia na
condução de uma AO inerentemente dispendiosa,
permitindo que os testes reais se concentrem em obter,
com a precisão necessária, os parâmetros que
efetivamente influam no problema.
Após a simulação ter auxiliado na identificação das
MEO e seus relacionamentos, os próximos passos
são a verificação e a validação do modelo, para que,
de posse dos resultados da AO, possam ser conduzidas
simulações, de modo a identificar procedimentos
(táticas) que maximizem Ps em cada cenário. Depois
desse passo, esse trabalho poderá evoluir para um
simulador de treinamento, sendo então necessário o
desenvolvimento de uma apresentação gráfica mais
elaborada.
REFERÊNCIAS
BRAGA, M.J.F., Avaliação Operacional de Sistemas, Revista Marítima
Brasileira, Marinha do Brasil, jul/ago/set 1979.
CHAPMAN, S.J., BENKE K.K., Assessment of Ship Air Defence Performance
by Modelling and Simulation, BAE SYSTEMS Austrália, 2000.
HOSTBECK L., Methods for evaluation of Air-Defence Systems on Surface
ships, Defence Research Establishment, Division of Defence Analysis,
1999.
IGNALL E. E KOLESAR P., On Using Simulation to Extend OR/MS
Theory: The Symbiosis of Simulation and Analysis, in Current Issues in Computer
Simulation, New York, EUA, Academic Press, 1979. Cap. 15, p. 223233.
LIEBHABER, M.J., SMITH, C.A.P., Naval Air Defense Threat Assessment:
Cognitive Factors and Model, 2000 (www.pacific-science.com/
AppliedCognition/BFA%20CCRTS-00-LS.pdf).
MARINHA DO BRASIL (MB), EMA-333, Sistemática para Avaliação
Operacional na Marinha do Brasil, Estado Maior da Armada (EMA), 2004.
SHEPHARD, R.W. et alli., Applied Operations Research: examples from defence
assessment, Plenum Press, EUA, 1988.
US NAVY, Naval Operations Analysis, EUA, Naval Institute Press, 2 a
edição, 1977.
Internet:
AeroSpaceweb, Missile Guidance, http://www.aerospaceweb.org/
question/weapons/q0187.shtml, 2006.
SEAROADS: Simulation, Evaluation, Analysis and Research on Air
Defence Systems, http://www.tno.nl/defensie_en_veiligheid/
militair_optreden/ operational_analysis/searoads_simulation,_eval/
index.xml, 2006.
101
MAURICIO JOSÉ MACHADO GUEDES, ENGENHEIRO
GLOSSÁRIO
AA: antiaéreo
AEW: “Aerial Early Warning” – Alarme Aéreo Antecipado
AO: avaliação operacional
AR: a ré
AV: a vante
Cenário: é a descrição imaginária que será utilizada para simular um
ambiente real de operação do navio
DT: direção de tiro
hard-kill: neutralização do incursor por destruição
HR: horizonte radar
MAS: míssil ar-superfície
MB: Marinha do Brasil
102
MEO: medida de eficácia operacional
mima: milha marítima » 1.852 metros
MSA: míssil superfície-ar
MSS: míssil superfície-superfície
PO: pesquisa operacional
Ps: probabilidade de sobrevivência do navio
Radar de busca: Principal radar do navio, para busca aérea e de
superfície
sea-skimmer: vôo em baixa altura (< 50 pés) sobre a superfície do
mar
soft-kill: neutralização do incursor por despistamento
(eletronicamente)
TI: “target indication”, indicação da posição do alvo para um radar
DT
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 96-102
PROCESSOS DECISÓRIOS
Um sistema de inferência nebuloso para apoio a
tomada de decisão do analista de crédito de
empresas de crédito pessoal
Paulo Soares Barreto Filho
Faculdades IbmecRJ
Maria Augusta Soares Machado
Faculdades IbmecRJ
E-mail: [email protected]
Resumo
O analista de crédito tem como tarefa analisar o perfil de um
cliente, com o objetivo de emitir um parecer sobre sua
situação e, então, decidir se este merece ou não o crédito
solicitado. Analisando o perfil desse cliente em potencial, é
possível ter bons indicadores se será um bom pagador, ou
se será um cliente inadimplente. Com a intenção de auxiliar o
analista de crédito de empresas especializadas em crédito
pessoal, este trabalho tem o objetivo de implementar e avaliar
uma metodologia, usando conceitos de matemática nebulosa,
inteligência computacional e um banco de dados como fonte
de conhecimento.
Palavras-chave
Crédito pessoal. Inadimplência. Matemática nebulosa.
A fuzzy inference system for support the
decision making of credit’s analyst of personal
credit’s enterprises
Abstract
Financial corporations need to manage their credit portfolio
in a effective way, avoiding losses to their customers and
shareholders .With competition growth among banks in the
fight for clients, they saw the contraction of profit margin
associated to credit operations , being forced to enlarge
their client´s base to improve earnings . To this end , it´s
necessary that corporations develop fast and reliable
methods to aid in the decision making process. This paper
describes , through Fuzzy Logic methods , an expert
system to automate the decision making mechanism, typical
of financial institutions working in the personal credit
segment .
Keywords
Fuzzy logic. Credit analysis. Fuzzy systems. Fuzzy
inference.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109
INTRODUÇÃO
Toda vez que uma empresa resolve conceder crédito
a um cliente, seja ela uma pequena loja de bairro, uma
mercearia, um banco ou uma empresa especializada
em conceder crédito, é feita uma análise da situação
desse cliente, pessoa física ou jurídica, para tentar
identificar se será ou não um cliente inadimplente.
Assim como as empresas que concedem crédito, seus
métodos de análise e clientes são bem diferentes. Os
métodos utilizados para analisar um futuro cliente vão
desde simples confiança, verificação de sua situação
financeira atual, consulta a bancos e empresas que
possuam seu cadastro, até métodos computacionais e
sistemas especializados em análise de crédito.
Como em algumas empresas especializadas, a análise
de credito é fundamental para a sobrevivência do
negócio, este trabalho propõe uma nova metodologia
para analisar o problema. Este trabalho propõe um
sistema baseado em conceitos de lógica nebulosa, para
tentar tornar a tarefa de analisar o perfil do cliente
mais rápida, correta e eficaz, tentando diminuir o nível
de inadimplência da empresa.
Crédito é uma palavra que possui vários significados
e usos; pode significar confiança, boa reputação ou
boa fama. Também podemos defini-la como o ato
de disponibilizar uma quantia em dinheiro a um
terceiro, com a promessa de pagamento futuro,
acrescido de juros ou não. No comércio, o crédito
facilita a venda de mercadorias, permitindo que os
clientes comprem, levem a mercadoria no ato e
paguem em parcelas. Essa modalidade é chamada de
crédito direto ao consumidor. Desta forma, algumas
empresas conseguem obter um resultado financeiro
melhor (ganho com o parcelamento das vendas) do
que o resultado operacional (ganho com a venda de
mercadorias), por causa do valor das taxas de juros
cobradas. Na indústria, como no comércio, o crédito
facilita a compra de equipamentos, matéria-prima e
produtos manufaturados, fazendo com que o número
103
PAULO SOARES BARRETO FILHO, MARIA AUGUSTA SOARES MACHADO
de compradores potenciais aumente. Nos bancos,
é uma das vertentes de seu negócio básico, a
intermediação financeira. O banco capta dinheiro
com clientes que têm recursos disponíveis e os
repassa aos tomadores de recursos em forma de
empréstimo. Assim, seu lucro é obtido com a
diferença entre o que ele recebe do tomador e
quanto ele paga do aplicador/investidor.
Em todas as modalidades de crédito e, em todas
as empresas que trabalham direta ou indiretamente
com crédito, existe uma política que norteia toda
operação. Nesta política, basicamente devem ser
definidos: a quem e de que modo será feita a
concessão, e que quantia será concedida a um, ou a
um grupo, de indivíduos.
O processo de concessão de crédito para pessoas
físicas ou jurídicas é muito parecido, todos têm um
fluxograma bem semelhante. A pessoa física tem
sua fonte de renda e suas despesas, que podem ser
de curto ou longo prazo. Ela tem que tentar fazer
com que sua receita seja suficiente para honrar suas
despesas. Muitas vezes, a falta de controle, o
surgimento de despesas imprevistas ou outros
fatores, fazem com que exista a necessidade de se
buscar um suprimento de dinheiro extra para
preencher uma lacuna em seu orçamento. Nesta
situação, é que surge o profissional de crédito com
a missão de analisar se esse proponente merece que
a empresa/instituição conceda a ele os recursos de
que necessita. Há também a situação do proponente
estar procurando recursos para investimento. Neste
caso, a análise é feita de maneira um pouco diferente,
mas os princípios são os mesmos.
A análise de crédito consiste em atribuir valores a
um conjunto de fatores que permitam a emissão
de um parecer sobre determinada operação de
crédito. Para cada fator individual é emitido um
valor subjetivo (positivo ou negativo). Se o conjunto
de fatores apresentarem valores positivos em maior
número do que os negativos, a tendência é de que
o parecer seja favorável à concessão do crédito,
senão o analista não deve concedê-lo.
Existem diversos fatores que são utilizados na
análise, como caráter e capacidade. Analisando esses
fatores é possível emitir um parecer. Os fatores
possibilitam uma idéia do provável comportamento
do cliente, ou seja, analisando seu passado, tenta-se
104
prever seu comportamento futuro, tentando assim
só conceder crédito aos que demonstrem maiores
e melhores chances de honrar seus compromissos.
Por isso, outro fator de vital importância nessa
análise são as garantias. Apesar de uma operação
de crédito não dever ser baseada somente nas
garantias, esse é um fator fundamental na análise
do crédito, pois ele pode dar a certeza de que, no
caso de um sinistro, nosso capital investido retornará
mais rápido.
De acordo com o que foi descrito, todas as
empresas que, de alguma for ma, emprestam
dinheiro aos seus clientes, fazem uma análise prévia
de seu perfil, sejam elas uma empresa ou uma
pessoa física. Essa análise pode ser baseada em
simples conhecimento pessoal, ou seja, apenas na
confiança, ou pode se valer de um longo estudo
sobre sua situação financeira. Com o intuito de
auxiliar o analista no momento da concessão do
crédito, este trabalho pretende apresentar uma nova
metodologia, a fim de facilitar o trabalho desse
analista, além de torná-lo menos impreciso e
totalmente imparcial.
MATEMÁTICA NEBULOSA
Na metade da década de 60, começou a ser
desenvolvida uma nova teoria com o objetivo de
tornar o desenvolvimento e a análise de problemas
complexos de controle mais tratáveis. Essa nova
teoria foi proposta pelo professor Lotfi Zadeh, em
artigo publicado em 1965. Zadeh, professor de
engenharia elétrica e ciências da computação na
Universidade da Califórnia em Berkeley, observou
que as regras que muitas pessoas usavam para fazer
inferências eram inconsistentes, ou seja, essas
pessoas não conseguiam explicar as regras que elas
próprias usavam [6].Como exemplo, pode-se citar
o fato de muitas vezes simplesmente olhando para
uma pessoa desconhecida ser possível dizer quantos
anos ela tem, qual o seu peso, altura, etc. Se
questionados sobre quais as regras foram utilizadas
para chegar a essas conclusões, não haveria uma
resposta clara e objetiva, pois se chega a essas
conclusões utilizando apenas a intuição. Assim, a
grande contribuição dessa nova teoria é a
possibilidade de capturar, em um modelo
matemático clássico, conceitos intuitivos [11].
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109
PROCESSOS DECISÓRIOS
Toda essa metodologia, apresentada por Zadeh em
1965, ficou conhecida como Fuzzy Logic. Como toda
nova idéia, essa também foi bastante criticada no início,
sendo depois bem aceita por engenheiros e cientistas
da computação [6]. Assim, a nova metodologia foi
sendo utilizada em diversos países, e, em cada um,
teve seu nome modificado de acordo com a língua
oficial. Em Portugal, é chamada de Lógica Difusa ,
em espanhol, também foi traduzida como Lógica
Difusa ou Lógica Borrosa . Já em Português, temos
duas denominações bastante utilizadas: Lógica Difusa
[11] e Lógica Nebulosa [4]. Neste trabalho, adotarse-á a terminologia Lógica Nebulosa.
Um bom exemplo para ilustrar o conceito de lógica
nebulosa é o problema dos três copos [11].
Convidados a descrever a situação dos três recipientes
mostrados na figura abaixo, utilizando apenas os
predicados CHEIO e VAZIO, como deveriam ser
descrita a condição do recipiente do meio? (Figura 1).
(Matlab® Toolbox). Os sistemas de inferência
nebulosos são sistemas fundamentados em regras que
utilizam variáveis lingüísticas nebulosas para executar
um processo de tomada de decisão [1]. A Figura 3
mostra um modelo geral, indicando os cinco blocos
principais de um sistema de inferência nebuloso [6].
FIGURA 1
O problema dos três copos
Afinal, o recipiente do meio está CHEIO ou VAZIO?
Na verdade, pode ser dito que o recipiente está meio
CHEIO e meio VAZIO. O problema é que
normalmente as coisas não são classificadas dessa
forma, sempre se tenta classificar as coisas de maneira
exata ou abrupta [11], muitas vezes descartando os
estados inter mediários. Um conhecedor da
metodologia proposta por Zadeh analisaria da seguinte
forma:
• O recipiente do meio está CHEIO com grau 50%
e VAZIO com grau 50%.
• O recipiente da direita está CHEIO com grau 0% e
VAZIO com grau 100%.
• O recipiente da esquerda está CHEIO com grau
100% e VAZIO com grau 0%.
O programa Matlab® possui uma ferramenta para
implementação de sistemas de inferência nebulosos,
chamada Fuzzy Logic Toolbox. Essa ferramenta possui
onze tipos de funções de pertinência já programadas.
Como o Matlab® foi utilizado para implementar o
sistema proposto por este trabalho, a Figura 2 mostra
um exemplo de cada função de pertinência existente
no programa (Matlab® Toolbox).
Normalmente, a lógica nebulosa é empregada na
construção de sistemas, chamados Sistemas de Lógica
Nebulosa [3] ou Sistemas de Inferência Nebuloso
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109
FIGURA 2
Funções de pertinência existentes no Matlab®.
FIGURA 3
Blocos principais de um sistema de inferência nebuloso.
105
PAULO SOARES BARRETO FILHO, MARIA AUGUSTA SOARES MACHADO
O Sistema de inferência nebuloso tem como entrada
valores precisos, não nebulosos, que são mapeados
pelas funções de pertinência estabelecidas na construção
do sistema. Essa é a etapa de nebulização. Essa etapa
fornece parâmetros nebulosos a uma máquina de
inferência, que processa uma série de regras do tipo
SE-ENTÃO, constituída de proposições, envolvendo
termos de variáveis lingüísticas. Ao final do
processamento das regras, o valor nebuloso, que foi
obtido como resposta, é denebulizado se a máquina
de inferência tiver como saída valores nebulosos,
obtendo-se assim uma saída precisa novamente. Se a
máquina de inferência tiver como saída valores
precisos, esses já são respostas do sistema [3],[6],[7].
Cabe aqui ressaltar que, neste trabalho, foram utilizadas
as palavras Nebulização e Denebulização em
substituição às palavras fuzzification e defuzzification,
empregadas por diversos autores [12],[13], e em
substituição às palavras fuzzificação e defuzzificação
[11], utilizadas por alguns autores brasileiros. As
palavras serão assim utilizadas para que não haja
qualquer dúvida, já que neste trabalho foi adotada a
nomenclatura Lógica Nebulosa ao invés de Lógica
Difusa.
A base de regras é a parte do sistema que contém o
conjunto de regras ou proposições, todas nebulosas.
As variáveis antecedentes ou conseqüentes são variáveis
do tipo lingüísticas e os valores possíveis dessas
variáveis são representados por conjuntos difusos
[2],[9],[10],[11]. As regras ou proposições devem estar
no formato SE – ENTÃO, correlacionando as
variáveis antecedentes e conseqüentes.
METODOLOGIA
Neste trabalho, toda a informação utilizada na criação
das funções de pertinência e das regras foi extraída de
um banco de dados de uma grande empresa brasileira
especializada em crédito pessoal. A amostra do banco
de dados utilizada contém todos os clientes da empresa,
ou seja, pessoas que conseguiram algum empréstimo,
no período de novembro de 2001 a outubro de 2002.
Extraindo o conhecimento desta forma, qualquer
alteração de comportamento dos clientes da empresa
deverá ser refletida pelo banco de dados
imediatamente. Assim é possível sempre fazer essa
106
análise com uma amostra atualizada do banco de
dados, e conseguir que o sistema responda sempre de
modo a mostrar o que está ocorrendo com os clientes
da empresa naquele momento.
Primeiramente, foi extraída uma amostra do banco
de dados da empresa. Na retirada desta, não foi
utilizado um filtro, ou seja, todos os clientes da
empresa, no período estudado, estão na amostra com
todas as informações disponíveis [5].
Após a retirada da amostra, os dados de todos os
clientes foram carregados em uma planilha Excel®.
O próximo passo foi, então, analisar as informações
disponíveis e retirar aquelas que não seriam utilizadas
no decorrer do trabalho. Para isso, foram criados filtros nas colunas, a fim de que os registros incompletos ou as informações digitadas incorretamente fossem retirados. Desta forma, restaram ainda, aproximadamente 35.500 perfis de clientes.
As informações utilizadas neste trabalho foram:
Estado Civil (casado, solteiro, divorciado e viúvo),
Tipo de Profissão (assalariado, autônomo, funcionário
público e aposentado), Renda em Reais (menos de
R$ 500,00, entre R$ 500,00 e R$ 800,00, entre R$
800,00 e R$ 1.100,00, entre R$ 1.100,00 e R$ 1.400,00
e mais de R$ 1.400,00), Idade (menos de 30 anos,
entre 30 e 40, entre 40 e 50, entre 50 e 60 e mais de 60
anos) e Porcentagem que a prestação do empréstimo
compromete da renda do cliente (menos de 10%, entre
10 e 15, entre 15 e 20, entre 20 e 25 e mais de 25%).
A situação do cliente pode ser Adimplente ou
Inadimplente.
Após a mineração de dados, foi criada uma outra planilha, onde foram elaboradas fórmulas simples para
verificar a quantidade de cada um dos itens escolhidos
na planilha inicial que continha o banco de dados. Após
toda essa contagem, foi utilizada a teoria de probabilidade para encontrar os valores de todos os itens relacionados com a Situação do cliente, como por exemplo,
a quantidade de cientes Adimplentes e Inadimplentes
por Estado Civil, Tipo de Profissão ou Faixa Etária.
Nesse caso, foi utilizada a noção de probabilidade da
interseção entre dois eventos mutuamente exclusivos,
por exemplo, quantos clientes são Assalariados e Adimplentes. O resultado é mostrado na Tabela 1, a seguir.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109
PROCESSOS DECISÓRIOS
Consolidação das Informações Retiradas do Banco de Dados
Situação
Adimplente 72,19% 25678
Inadimplente 27,81%
9891
100,00%
Adimplente
Inadimplente
Tipo de Profissão
Assalariado 36,55% 13002
25%
8960
11%
4042
Autônomo 18,09%
6433
12%
4364
6%
2069
Func. Público 16,69%
5937
12%
4377
4%
1560
Aposentado 28,67% 10197
22%
7977
6%
2220
100,00%
72,19% 25678 27,81% 9891
####
6433
5937
####
####
Adimplente
Inadimplente
8%
2815
4%
1326
19%
6660
8%
2978
17%
6034
6%
2309
10%
3401
3%
1165
19%
6768
6%
2113
72,19% 25678 27,81% 9891
4141
9638
8343
4566
8881
####
Salário (R$)
Menor que 500,00 11,64%
De 500,00 a 800,00 27,10%
De 800,00 a 1.100,00 23,46%
De 1.100,00 a 1.400,00 12,84%
Maior que 1.400,00 24,97%
100,00%
4141
9638
8343
4566
8881
Adimplente
Inadimplente
Estado Civil
Solteiro 31,65% 11259
21%
7607
10%
3652
Casado 57,00% 20276
44%
15488
13%
4788
Divorciado 6,69%
2378
4%
1515
2%
863
Viúvo 4,66%
1656
3%
1068
2%
588
100,00%
72,19% 25678 27,81% 9891
Idade (anos)
Menor que 30 14,29%
Entre 30 e 40 23,23%
Entre 40 e 50 24,97%
Entre 50 e 60 19,41%
Maior que 60 18,10%
100,00%
5083
8263
8881
6905
6437
Prestação / Salário (%)
Menor que 10 12,16%
4327
Entre 10 e 15 20,20%
7186
Entre 15 e 20 30,26% 10762
Entre 20 e 25 22,30%
7932
Maior que 25 15,07%
5362
Adimplente
Inadimplente
9%
3292
5%
1791
16%
5612
7%
2651
18%
6314
7%
2567
15%
5311
4%
1594
14%
5149
4%
1288
72,19% 25678 27,81% 9891
Adimplente
9%
3203
15%
5313
21%
7631
16%
5533
11%
3998
Inadimplente
3%
1124
5%
1873
9%
3131
7%
2399
4%
1364
TABELA 1
Consolidação das Informações Retiradas do Banco de Dados
A criação das funções de pertinência foi baseada nas
informações retiradas do banco de dados, mostradas
na tabela 1. Essas funções descreverão todos os valores
dos graus de pertinência dos elementos do universo
em discussão, em relação a um dado subconjunto
difuso. A escolha da função de pertinência deve ser
feita analisando todo o problema, pois qualquer que
seja a função escolhida, o mais importante é que ela
retrate com máxima fidelidade o conceito apresentado
e o comportamento dos elementos do universo em
estudo [11].
FIGURA 5
Função de pertinência para Tipo de Profissão
O primeiro passo foi a criação das funções de
pertinência. Todas as funções de pertinência são
mostradas nas figuras 4, 5, 6, 7 e 8, a seguir.
FIGURA 6
Função de pertinência para Salário
FIGURA 4
Função de pertinência para Estado Civil
FIGURA 7
Função de pertinência para Idade
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109
107
PAULO SOARES BARRETO FILHO, MARIA AUGUSTA SOARES MACHADO
TESTES E RESULTADOS
FIGURA 8
Função de pertinência para comprometimento da renda
Após a criação das funções de pertinência para as
variáveis de entrada, foi criada a função de pertinência
para a variável de saída Situação, como mostrado na
Figura 9.
FIGURA 9
Função de pertinência para situação
No caso da variável de saída, foram criadas as funções
de pertinência apenas para o sistema de inferência que
utiliza o Modelo Mamdani em sua máquina de
inferência, pois quando é utilizado na máquina de
inferência o modelo Sugeno, as saídas são do tipo
linear ou constantes. Neste trabalho, foram utilizadas
saídas do tipo constante com o valor correspondente
à porcentagem de cada situação, ou seja, Inadimplentes
0.28 e Adimplentes 0.72.
Após a criação das funções de pertinência, todas as
regras foram inseridas no sistema. A última etapa da
implementação foi a configuração do sistema, o
modelo utilizado para denebulização foi o centróide
e os demais parâmetros utilizados não foram alterados,
permanecendo a configuração padrão do sistema.
108
O passo seguinte à implementação do sistema, foi seu
teste automatizado, o qual foi realizado utilizando os
dados do mesmo banco de dados usado na criação
do sistema. Foram escolhidos aleatoriamente os perfis
de 100 clientes adimplentes e 100 inadimplentes. Esses
perfis foram inseridos no sistema, produzindo uma
resposta, que foi comparada com a situação do cliente
descrita no banco de dados.
Os resultados obtidos com a utilização do sistema
concordaram com o que está descrito no banco de
dados em, aproximadamente, 80% das vezes, tanto
utilizando o sistema de inferência com o modelo
Mamdani quanto com o modelo Sugeno. Esse
resultado foi obtido analisando todos os dados como
um conjunto único de teste e não escolhendo o melhor
resultado entre as amostras de clientes adimplentes e
inadimplentes.
Os resultados obtidos foram comparados com o nível
de inadimplência da empresa, pois, este nível, mostra
o quanto eficiente é o resultado da análise que a
empresa faz quando concede o empréstimo aos seus
clientes. Assim, pode-se dizer que o sistema obtém
resultados um pouco mais satisfatórios do que a análise
realizada pela empresa, pois esta possui um
procedimento para análise do cliente em potencial e
tenta emitir um parecer sobre este. Se o parecer não é
favorável, de acordo com a política da empresa, o
crédito não é concedido. Então, pode-se afirmar que
o procedimento conseguiu emitir um parecer correto
em aproximadamente ,72% das vezes, pois 28% dos
clientes da empresa tornaram-se inadimplentes.
TRABALHOS FUTUROS
Após esses os resultados obtidos, a empresa está
implementando um sistema especialista piloto para
automatizar a análise de crédito, com a finalidade de
auxílio à decisão minimizando o risco na concessão
de crédito pessoal.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109
PROCESSOS DECISÓRIOS
REFERÊNCIAS
1. WAGNER, ADILÉIA , “Extração de Conhecimento a Partir de
Redes Neurais Aplicada ao Problema de Cinemática Inversa na
Robótica”, Rio Grande do Sul. Dissertação (Mestrado em
Computação Aplicada) ,UNISINOS, 2003.
2. ÁLVAREZ, CARLOS J. V.; CANTOR, DIEGO A. R. ,
“Automatización de una Lavadora Industrial de Ropa Utilizando
Técnicas de Control Lógico Secuencial y Lógica Difusa”, Bogotá.
Monografia (Graduação em Engenharia Eletrônica), Pontifica
Universidad Javeriana, 2001.
3. FILHO, BERNARDO , O.; NASCIMENTO, CARLOS AUGUSTO
S. A. do; RIBEIRO, JOÃO A. , “Sistema de Informação Geográfica
para Auxiliar a Implantação e Avaliação de Provedores de Internet
(SIGAIAPI)”, Rio de Janeiro, Departamento de Engenharia de
Sistemas e Computação. FEN/UERJ, 2002.
4. BRAGA, M. J. F.; BARRETO, J. M.; MACHADO, M. A. S. , “ Conceitos
de Matemática Nebulosa na Análise de Risco”, Rio de Janeiro,
Editora Arte & Rabiskus, 1995.
8. LÓPEZ, IHOSVANY A.; SANTIAGO, ORESTES L.; GALDEANO,
JOSÉ L. V., “ Una Aplicación de control difuso para secado de
tabaco en hojas”, Granada, Departamento de ciências da computação
e inteligência artificial, Universidad de Granada, 2002.
9. MUKAIDONO, MASAO , “Fuzzy Logic for Beginners”,
Singapura, Editora World Scientific, 2001.
10. MUKAIDONO, MASAO; INTAN, ROLLY, “On Knowledgebased Fuzzy Sets”. In: International Journal of Fuzzy Systems. Vol.
4, Nº 2. Junho, 2002.
11. OLIVEIRA JÚNIOR, HIME A. , “Lógica Difusa: Aspectos
Práticos e Aplicações”, Rio de Janeiro, Editora Interciência, 1999.
12. WEBER, ROSINA , “ Sistema Especialista Difuso para Análise
de Crédito”, Santa Catarina. Dissertação (Mestrado em Engenharia
de produção), UFSC, 1999.
13. YAGER, RONALD R.; FILEV, DIMITAR P. , “Essentials of Fuzzy
Modeling and Control”, Nova Iorque. John Wiley & Sons Editores
1994.
5. BUSSAB, W. O., “ Análise de Variância e Regressão”, 2ª ed. São
Paulo, Editora Atual, 1990.
6. COSTA, ALEX da; RODRIGUES, ANTONIO G.; SIMAS, ETIENE
P. L. et al. , “Lógica Fuzzy: Conceitos e Aplicações”, Rio Grande do
Sul. Centro de Ciências Exatas e Tecnológicas, UNISINOS, 2003.
7. JÚNIOR, DAVID; CORRAR, JUIZ J., “ Mensuração do Risco de
Mercado Utilizando Lógica Fuzzy”, São Paulo, Departamento de
Economia, FEA/USP, 2002.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 103-109
109
CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES
Gerenciamento da mudança organizacional
Capitão-de-Fragata (T) Sérgio Luís Dutra de Lamare
Centro de Análises de Sistemas Navais (CASNAV)
E-mail: [email protected] , [email protected]
Maria Lucia Novaes Simões
Psicóloga (PNUD/PMSS)
E-mail: [email protected]
Resumo
Organizational change management
As pessoas, em geral, movem-se num processo de mudança
organizacional dentro de um esquema personalizado de
aceitação. Não importa quão positiva possa parecer a
mudança. Será mais produtivo enfrentá-la que tentar ignorála. Nesse processo, a liderança deve assumir uma posição
de participação e de comprometimento para que todos os
níveis da organização se sintam engajados nessa
transformação, garantindo a identidade institucional e
vislumbrando a excelência no desempenho, numa visão de
cenário mais longo. As pessoas precisam estar,
permanentemente, sendo informadas das mudanças
organizacionais, para conhecer ao que se quer aderir a fim
de que seja considerado o conjunto de crenças e valores
impressos e expressos na história de vida de seus
colaboradores. Procurou-se identificar em conteúdos
expressivos da literatura científica, se estratégias
implementadas numa organização atuarão, preventivamente,
nos efeitos indesejáveis porventura advindos da mudança
organizacional, identificando falhas e corrigindo-as de modo
a minimizá-los. Foram consideradas, também, situações em
que persistem esses efeitos de modo localizado na
organização, recomendando-se, para tanto, uma intervenção
pontual para reduzi-los ou eliminá-los, e, assim, preservar o
processo de transição para o novo como estratégia de
melhoria da gestão.
Abstract
Palavras-chave
Mudança organizacional. Resistência. Estratégia de melhoria
da gestão.
People interact with an organizational transition process in
an individual way, which may be defined as an acceptancerejection process. In general, they preserve their own nature
rejecting the transformations within the organization, no
matter how hard or positive it should be. Dealing with the
transformations, instead of ignoring them, is more
productive. During this process, the leader/manager should
participate and be committed to it, motivating all levels of
the organization. Organizations are made of persons and
they should be permanently informed about any change
occurring in it, so a new stance can be built. Everyone in
the organization has a life history and all the individual
beliefs and values should be considered during this
transformation. Many reference texts were consulted to
verify the use of different strategies implemented within an
organization. Those strategies are used to prevent
inevitable undesirable effects, which may occur due to the
organizational changes. They are also used to identify and
correct failures. Specific situations, where the undesirable
effects may occur, were considered. For example, it may
occur in isolated sectors of the organization. In this case, to
preserve the transition process, a punctual intervention is
recommended to minimize or to eliminate the problem. The
intervention should work as a new strategy for the
improvement of key-techniques.
Keywords
Organizational transition. Acceptance-rejection process.
Strategy for key-techniques improvement.
110
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116
PROCESSOS DECISÓRIOS
INTRODUÇÃO
A mudança é um fator fundamentalmente histórico,
posto que inevitável. Mudar paradigmas significa
mudar com eles o próprio mundo, que passará a ter
diferenciais notáveis (KUHN, 1994). Isto porque,
segundo Kuhn (1994), “a emergência de um paradigma afeta a estrutura do grupo limitado ao campo da
mudança, posto que são adotados novos instrumentos,
procedimentos que orientarão e nortearão os olhares
desse grupo adepto ao novo paradigma para novas
direções”. Há os que resistem e continuarão a resistir
às mudanças. Para Kuhn, os resistentes serão,
naturalmente, excluídos do contexto e suas convicções
serão simplesmente ignoradas, pois terão que passar a
atuar de forma isolada ou unir-se a algum outro grupo.
Tudo o que uma pessoa tem a possibilidade de
vivenciar, pode também rejeitar de modo inconsciente,
seja imediatamente ou algum tempo depois. Pois tudo
o que não se adapta ao seu autoconceito oficial ou
que evoca ansiedade, seja qual for a reação, ela pode
rejeitar. O novo assusta, intimida, coloca a capacidade
de compreensão e aceitação à prova, porque
inconscientemente pode significar uma negação à
prática de crenças e valores adotados e tidos, até então,
como imutáveis.
A Revolução Industrial, que teve início na segunda
metade do século XVIII, na Inglaterra, proporciona
um excelente exemplo nesse sentido, já que ela
explicitou a mudança, por ter provocado
transformações profundas, rápidas, caracterizadas pela
irreversibilidade e que resultaram em alterações
substanciais de ordem econômica, política e social,
marcando a transição entre feudalismo e capitalismo
(GALBRAITH, 1991). Com a invenção da máquina
a vapor, por James Watt, surgiram as cidades fabris,
onde se concentravam fábricas de tecidos, com
máquinas de fiação e teares movidos a vapor.
A substituição das ferramentas pelas máquinas, da
energia humana pela energia motriz e do modo de
produção doméstico pelo sistema fabril causou um
enorme impacto sobre a estrutura da sociedade, num
processo de transformação acompanhado por uma
notável evolução tecnológica. Isto porque,
anteriormente à Revolução Industrial, o cenário era
predominantemente rural. Até então, o artesão garantia,
primordialmente, sua subsistência familiar com
trabalhos esculpidos, confeccionados e montados à
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116
mão, um a um, utilizando-se de insumos advindos do
mundo animal e vegetal (GALBRAITH, 1991). E o
escasso excedente era comercializado a preço elevado,
com pouco acesso de consumo pela maioria,
enfatizando as diferenças sociais. Esse cenário foi
sendo gradativamente substituído pela máquina, que,
com a ajuda do homem, passou a produzir bens de
consumo em maior escala, e, portanto, a custos
menores, obedecendo a uma linha de produção e
disponibilizando-os, em razão disso, a um maior
número de pessoas.
Esse instinto generalizado de mudança técnica que
marcou, à época, a produção em série, subjugou o
ser humano a situações muitas vezes desgastantes: ou
ele se adequava às novas concepções e condições de
trabalho ou se tornava demasiado reativo, colocandose numa situação de descompasso e desarmonia com
o novo cenário. Mudanças bruscas de paradigmas, a
despeito de trazerem enormes benefícios à sociedade
– progresso, comodidade, cooperação, interação, troca
– se não bem trabalhadas, muitas vezes submetem o
ser humano à aceitação e à prática de novas realidades,
quer queira, quer não, provocando desgastes
acentuados nas suas relações interpessoais,
principalmente.
O principal propósito deste trabalho é tratar
especificamente de mudanças nas organizações dentro
do contexto da inevitabilidade, com o fim de
promover um maior bem-estar entre os que delas
participam – liderança e colaboradores – para a
superação de situações que contradizem convicções
engessadas, e que exigem, portanto, criatividade e
adaptação a distintas modalidades de gestão, de
receptividade a novas informações e tecnologias, a
diferentes formas de se relacionar e de disponibilizar
produtos e serviços ao cliente (percepção). Torna-se
imprescindível desenvolver no grupo social das
organizações a capacidade de aceitar e usufruir novas
realidades organizacionais de maneira pró-ativa e
participativa, para que ocorra uma integração de forma
plena, prazerosa e mais consciente, sem disputas
pessoais e envolvimentos emocionais.
DESENVOLVIMENTO
A influência das mudanças nas organizações
Várias formas de funcionamento das organizações
vêm sendo exercitadas, testadas, com a finalidade de
111
CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES
promover ajustes e arranjos estruturais a cada nova
realidade.
O grupo social de uma organização, até mais da
metade do século passado, considerava-se a razão de
ser da organização. Os processos de trabalho
adaptavam-se subliminarmente a ele como um meio
de se atingir sua eficiência e eficácia, e, por fim, a
efetividade. O paradigma vigente não se sustenta mais
nessa assertiva. Isto porque hoje a empresa tem que
ser rentável, competitiva e criativa, se privada, e voltada
para os cidadãos e a sociedade, se pública, ambas por
meio de uma cadeia de relacionamentos, que envolvem
metas e objetivos institucionais, e contemplem,
também, suas necessidades e interesses (SHELL, 2001).
Na abordagem de Shell (2001), as relações são
fundamentais para que se atinjam as metas e, podem,
inclusive, induzir a que se modifiquem. Na essência,
esses relacionamentos guardam uma frágil dinâmica
interpessoal: a confiança. Sem ela, situações novas ficam
mais difíceis de serem implantadas e a troca de
incentivos à mudança torna-se substancialmente
vulnerável.
Geralmente as pessoas nas organizações tendem a
enfrentar e solucionar problemas dentro de um
modelo reativo (CHUNG, 2002). Na verdade, parece
que é preciso que aconteça um fato desconfortável,
concreto, para que elas o resolvam. Isto endossa uma
tradição – porque não dizer, quase que consagrada? –
de que o trabalho é feito dentro de um constante
quadro de ameaças e não de oportunidades. E mais.
Inconscientemente, as pessoas acreditam que foram
contratadas e que não são pagas para resolverem
problemas. Sentem-se excessivamente cobradas,
principalmente num quadro de mudança circunstancial.
Não têm o hábito de atuar com pró-atividade, de
exercitar a iniciativa, a criatividade, o conhecimento,
num clima sadio de relações, pois se sentem sem tônus
para tanto. Isso acontece quando a liderança é
autoritária, centralizadora. Para as lideranças
democráticas e descentralizadoras, os colaboradores
estão bem informados e são participativos.
Shell adverte que se deve estar atento ao planejamento
da ação a ser empreendida numa perspectiva calcada
no poder e na influência. Isto porque, geralmente, os
colaboradores ficam condicionados a uma rotina a
qual já estão habituados e qualquer fato novo os
incomoda, tornando-os reativos por não estarem
preparadas psicologicamente para agir e aceitar
112
situações novas, diferenciadas, e que passam a ser
percebidas como uma sutil imposição. Agrava-se mais
ainda a postura adotada por alguns gestores, que,
desprovidos de habilidades para tratar diferenças
individuais, poderão contribuir para o surgimento de
desgaste antecipado na credibilidade ao novo, em
prejuízo de uma aceitação mais ampla, sem traumas,
exigências e conflitos desgastantes. A credibilidade é
uma força subjacente às mais diversas interpretações
e permite identificar elementos que poderiam
desencadear comportamentos desagradáveis nas
pessoas, como, por exemplo, tornarem-se inacessíveis
à aceitação de conceitos e novas práticas (FIORELLI,
2001).
Resistir às mudanças nas organizações tem, geralmente,
nos mecanismos de defesa, a manifestação maior de
se tentar reagir a elas, considerando que o ser humano
“possui seu próprio senso autônomo de identidade e
sua própria definição de quem é ou o que é.” (LAING,
1960).
Ressalta-se que sua carga genética, aliada ao seu perfil
psicológico, delineado na primeira infância, é que irão
definir realmente a sua capacidade de sublimação,
superação, na fase adulta, ao se deparar com situações
novas, inesperadas, e que irá descrevê-lo como uma
pessoa pró-ativa, reativa, ou simplesmente apática.
É justamente na sua fase produtiva que o ser humano
se depara mais freqüentemente com situações de riscos, perguntando-se, inconscientemente, se vale a pena
corrê-los. É fato que, a partir daí, serão explicitados
comportamentos que demonstrarão a sua capacidade de enfrentar novas situações, sem receios de que
venha sofrer alguma frustração, pois vê algum ganho,
mesmo com eventuais perdas; ou de utilizar a fuga
como um mecanismo de defesa ante a iminência do
desmoronamento de suas estruturas internas, levando-o à práticas de ações e atitudes reativas, ou de simplesmente adotar uma postura de aparente aceitação,
abdicando-se de participar e de colaborar ativamente
em oportunidades que o levarão ao crescimento e desenvolvimento pessoal e, conseqüentemente,
organizacional.
A Figura 1, a seguir, demonstra um quadro de mudança
circunstancial, dentro de uma perspectiva baseada na
baixa credibilidade.
Quando o indivíduo passa a integrar e participar
ativamente de uma organização, sua vida praticamente
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116
PROCESSOS DECISÓRIOS
se resume a uma dupla finalidade: assegurar os meios
para a sua sobrevivência e dela extrair, também, o
prazer, para que possa vivê-la de forma agradável e
plena. Cada indivíduo obtém resultados diferenciados,
devido a dois fatores variáveis: o vigor das forças
emocionais que carrega internamente e
inconscientemente (o duo amor e ódio); e a influência
do ambiente no decurso de sua vida, fatores esses que
estarão em constante interação, desde o seu nascimento
até a sua morte.
Nesse contexto, ininterruptamente, a atitude e o
comportamento das pessoas sofrem constantes
alterações nos acontecimentos organizacionais
(LAING, 1960) pelas influências que recebem de
fatores internos e externos, exigindo ajustes, o que faz
com que a organização assuma um caráter adaptativo
(PINA E CUNHA, 2002). No estudo realizado por
Pina e Cunha, e Rego, o dia a dia nas organizações
expressa o clima organizacional dentro de uma cultura
de valores, hábitos e crenças, de modo relativo e
dependente de interesses pessoais e políticos, restritos
ao domínio de “territórios”, a reformatação de redes
e alianças, impasses e conflitos. De certa forma, as
pessoas ficam presas a uma cultura e clima
organizacional que contemplam mudanças, com
característica planejada ou inesperada, dentro de uma
dinâmica circunstancial. E este quadro tem revelado o
quanto é fundamental estar atento aos aspectos
psicológicos de seus profissionais.
Em geral, as organizações prescindem de um quadro
de diagnósticos e conhecimentos dedicados a prever
e a interpretar as reações das pessoas que delas fazem
parte, e, por causa disso, muitas vezes são enquadradas
como organizações que possuem características
estigmatizadas, estereotipadas, que levam a um
corporativismo e estilos de gestão perversos.
Segundo Pina e Cunha, e Rego (2002), há trabalhos
que guardam características pela presença de constantes
desafios e situações de risco. Outros se condicionam
a uma rotina, norteada por padrões e normas
preestabelecidas. Há trabalhos que precisam de pessoas
no comando de equipes. Outros exigem um perfil de
profissional mais independente e com capacidade de
gerir suas atividades, pelo fato de carregar
intrinsecamente um espírito nato de iniciativa. Notase aí uma diversidade de situações e de
comportamentos que, se não forem bem tratados irão
levar irremediavelmente o grupo social da organização
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116
FIGURA 1
Quadro de mudança circunstancial x baixa credibilidade
a conflitos desgastantes. Isto porque (PINA E
CUNHA, 2002) a liderança tem a tendência de definir
diretrizes e objetivos estratégicos sem a consulta prévia
e o consenso daqueles que as integram; outros querem
testar novos processos de trabalho que não estão
compatíveis com a realidade da organização, deixando
os integrantes da equipe assustados com os riscos que
terão que assumir; alguns querem marcar seu estilo na
organização sem que avaliem os efeitos indesejáveis
que poderão trazer à equipe; e há aqueles que apenas
determinam as ações, numa demonstração clara de
que detêm o poder da informação, explicitando o
papel dos integrantes do grupo como meros
executores.
Essas são algumas das situações vivenciadas pelas
pessoas, diariamente, nas organizações e que não estão
condicionadas a estilos de comando padronizados,
rígidos, pois se mesclam e se alternam de acordo com
o momento organizacional e estilo de gestão,
interferindo profundamente nas suas relações sociais,
tornando-as complexas, conflituosas, e, inviabilizandoas, muitas vezes.
Boas práticas de gestão auxiliam nos processos
de mudança
As mudanças estão alicerçadas no desempenho
institucional. A auto-avaliação e o planejamento de
melhorias da gestão, por meio de critérios
preestabelecidos, comprometem a liderança e os
colaboradores a partir do exercício da crítica quanto
à efetividade da instituição. É um forte antídoto para
minimizar resistências a mudanças, pois contempla a
proposição de um plano de melhoria da gestão autoavaliada, proporcionado por uma análise criteriosa dos
processos de trabalho, da disseminação das
informações na organização, levando à reflexão sobre
113
CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES
a qualidade do atendimento ao cliente, suas expectativas
e a visão que esse cliente tem dos produtos e serviços
oferecidos.
Os procedimentos para a auto-avaliação direcionamse para a análise das práticas de gestão da organização
por meio de três construtos básicos: o método, que é
orientado pelos fatores adequação, pró-atividade,
refinamento e inovação; a aplicação, orientada pelos
fatores disseminação e continuidade; e resultados,
orientados pelos fatores relevância, desempenho e
tendência. Diz-se que a verificação da efetividade da
organização está excelente, quando, em última instância,
reflete o seu desempenho em um maior grau de
aderência nesses construtos.
Esses procedimentos baseiam-se em critérios de
excelência (liderança, estratégias e planos, clientes e
sociedade, infor mação, pessoas, processos e
resultados), utilizados como ferramenta de avaliação
continuada da gestão, e preconizados tanto pelo
Programa Nacional da Qualidade (FPNQ, 2005) –
setor privado, quanto pelo Programa Nacional de
Gestão Pública e Desburocratização (GESPÚBLICA,
2006) – setor público, com foco orientado para
resultados, de modo a explicitar crescentes níveis de
desempenho institucional, estando, para tanto,
contextualizados no princípio da busca incessante da
melhoria contínua da gestão.
O envolvimento da alta administração da organização
é fundamental no processo de auto-avaliação da gestão,
que deverá designar uma equipe de trabalho, constituída
de colaboradores das unidades organizacionais. Essa
equipe, em geral, tende a assumir, posteriormente,
papel primordial na implementação do plano de
melhoria da gestão, por estar caracterizada uma
tendência natural de seus integrantes explicitarem
vontade de atuar como agentes potenciais de
transformação, incidindo diretamente nos locais de
trabalho, sinalizando e inteirando a alta administração
de temas e situações que exigem maiores cuidados e
atenção para o sucesso das oportunidades de melhoria
propostas, de modo contínuo, sistematizado e objetivo,
e, assim, elevar a qualidade dos seus serviços em
benefício do cidadão e da sociedade.
Critérios de Excelência em Gestão
Liderança
A credibilidade, o envolvimento e o
comprometimento são condições essenciais para que
114
a liderança crie uma relação de confiança com seus
colaboradores. Merecem destaque nessa relação: a
ética, a honestidade de propósitos, a inspiração
empreendedora, a visão direcionadora e a
competência.
Estratégias e Planos
Uma organização ágil e flexível está atenta às mudanças
de cenário e dá respostas rápidas, revendo sua visão
de futuro e estratégias, se necessário. Pratica um
planejamento coerente com os objetivos da
organização, fator crítico de sucesso na superação de
eventuais desajustes.
Cidadãos e Sociedade
As lideranças tendem, geralmente, a pensar que já
conhecem as necessidades dos clientes, o que
freqüentemente não corresponde à realidade. É preciso
ouvir a voz dos clientes, para conhecer suas
necessidades e expectativas, identificar os requisitos
mais importantes e estabelecer a melhor maneira de
satisfazê-los.
Informação e Conhecimento
A base para a tomada de decisão nos diversos níveis
da organização centra-se na análise sistemática de fatos
e dados gerados em cada um de seus processos. A
informação relaciona-se à eficácia no gerenciamento
e no desempenho, influenciando diretamente nas
condições de competitividade da organização. Para
tanto, deverá estar permanentemente atenta a tudo o
que influencia os ambientes interno e externo, para
melhor subsidiar as avaliações dos seus resultados, que
garantirão a continuidade de um novo ciclo de
melhorias.
Pessoas
O sucesso de uma organização depende fortemente
de seus colaboradores, devendo-se criar
oportunidades para a criatividade, a inovação, o
compartilhamento de conhecimentos, com a
valorização do capital intelectual que representam.
Processos
O mapeamento e a análise dos processos finalísticos e
de apoio levam a um melhor entendimento do
funcionamento da organização, permitindo definições
corretas de responsabilidades, utilização eficiente de
recursos, prevenção ou solução de problemas, além
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116
PROCESSOS DECISÓRIOS
da eliminação de atividades redundantes e da nítida
identificação do perfil de cada cliente.
É importante identificar quais fatores causam impacto
substancial nos resultados, para que sejam evitados e/
ou minimizados, ou maximizados, conforme o caso.
Resultados
O monitoramento dos resultados da organização é
uma prática que per mite acompanhar o seu
desempenho. Esse monitoramento é feito pela
utilização de indicadores financeiros, de qualidade, de
produtividade, tido como instrumentos de avaliação
e controle dos resultados de uma ação planejada.
Os efeitos gerados pelas práticas de gestão e pela
dinâmica do ambiente externo devem ser confrontados
com as metas estabelecidas na fase de definição das
estratégias e planos, para eventuais correções de rumo.
A estrutura dos sete critérios que compõem o Modelo
de Excelência em Gestão Pública do GESPÚBLICA
com as relações de causa e efeito, composto pelos
critérios Liderança, Estratégias e Planos, e Cidadãos e
Sociedade formam um bloco que pode ser
denominado de planejamento, por guardarem intensa
relação entre si. Os critérios Pessoas e Processos
representam a execução do planejamento.
O critério Resultados explicita o grau de efetividade:
a satisfação dos clientes, o controle do orçamento e
das finanças, a gestão das pessoas, a gestão dos
fornecedores e das parcerias institucionais, e o
desempenho dos serviços e produtos e dos processos
de trabalho.
E, finalmente, a Informação e Conhecimento, critério
que permeia os demais e que constitui a base das ações
planejadas e executadas para a tomada de decisão em
função das análises críticas realizadas, atuam de modo
ininterrupto, no modelo, dentro do princípio do
aperfeiçoamento contínuo.
O Plano de Melhoria da Gestão (PMG) define um
“estado futuro desejado” para a organização, pública
ou privada, e permite o monitoramento dos resultados
parciais e globais em função das metas estabelecidas,
geralmente para um ano. Viabiliza uma resposta mais
rápida às mudanças, reconhece o bom desempenho
de processos e equipes de trabalho, concede coerência
ao processo decisório e propicia uma gestão
participativa e o envolvimento de todos.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116
Esse estágio ocorre dentro de um clima favorável,
em que as pessoas envolvidas sentem-se mais predispostas a colaborar, reagem favoravelmente às inovações, e tornam-se visivelmente receptivas e pró-ativas.
Inevitavelmente entram em estado de franca cooperação. E, naturalmente, conscientemente, passam a interagir com outras pessoas, de forma a alavancar ações
para a melhoria contínua do contexto do qual fazem
parte, por estarem irreversivelmente predispostas às
mudanças e à aceitação de novos paradigmas, tornando-se agentes potenciais de transformação. Observa-se que suas ações ganharão visibilidade, gerando, consequentemente, satisfação com o trabalho que
fazem, pelos resultados explícitos do efetivo desempenho institucional.
CONCLUSÃO
O contexto social da organização contempla pessoas
vindas de núcleos familiares e níveis sócio-culturais
diferentes, trazendo consigo histórias de vida bem
próprias, singulares, tornando-o bastante diversificado.
Os colaboradores, além de ter que se ajustar às regras
da organização, expressas nos direitos e deveres, têm
que se adaptar e se integrar ao ritmo comportamental
adotado pelo grupo maior, para que não se sintam à
margem do processo social e produtivo desse grupo.
Esse comportamento linear, entretanto, é compensado
na maneira como as pessoas atuam na cadeia emissorreceptor-transmissor (CHUNG, 2002), na forma
como recebem uma mensagem, a decodificam e,
posteriormente, respondem-na. Se a mensagem
recebida não está adequada à sua estrutura emocional
e intelectual, elas poderão reagir negativamente, de
modo passivo ou não, criando uma situação de
resistência, por sentirem contraposição a determinados
paradigmas seus. São pessoas que, geralmente, têm
conceitos cristalizados e vêem o que querem ver,
sentem o que querem sentir e fazem o que querem
fazer, mesmo que não demonstrem sua insatisfação
explicitamente. Essa dissonância pode causar
resultados negativos.
O processo de mudança vem ocorrendo,
gradativamente, e, cada vez mais intensamente, muitas
vezes propiciando que a revisão organizacional esbarre
em fortes resistências. E essa resistência ao novo é
inerente ao ser humano, com o agravante de assumir,
muitas vezes, caráter inconsciente. Para que esse
115
CAPITÃO-DE-FRAGATA (T) SÉRGIO LUÍS DUTRA DE LAMARE, MARIA LUCIA NOVAES SIMÕES
processo seja bem sucedido, é necessário o
envolvimento de todos os colaboradores, explicandolhes a importância da mudança, sendo, para tanto,
imprescindível que haja uma definição muito clara dos
objetivos a serem alcançados, o que exige um sério
comprometimento de todos, principalmente da
liderança, de modo a inspirar credibilidade e confiança,
fatores indispensáveis para que a mudança seja bem
sucedida.
Para sanar situações, tidas como bloqueadoras da próatividade e da receptividade, recomenda-se o
estabelecimento de uma comunicação clara (PEARL,
1999), precisa, franca, em nível mais profundo. A
superficialidade das relações nas organizações tem
gerado desgastes expressos pela má vontade e alta
reatividade.
Em razão disso, propõe-se a utilização de ações
estratégicas que atuarão, positivamente, quando a
mudança assumir conotação de inevitabilidade. A
adoção de um criterioso planejamento deve
contemplar, além dos objetivos e meios para que a
mudança aconteça, um programa de sensibilização
que permeie todos os níveis da organização, levando
os colaboradores a compreender e a aceitar,
conscientemente, os benefícios advindos da
transformação prestes a ocorrer.
Caso persistam fatores desagregadores ou
dificultadores à aceitação do modelo proposto, é de
todo conveniente rever os focos de resistência e atuar
pontualmente sobre eles, com ações de sensibilização,
que contemplem revisão de atitudes e
comportamentos, para restabelecer e garantir ampla
credibilidade e aceitação do novo.
REFERÊNCIAS
CHUNG, Dr. Tom. A Qualidade Começa em Mim – Manual Neurolingüístico
de Liderança e Comunicação. Novo Século Editora. Osasco – SP, 2002.
FIORELLI, José Osmir. Psicologia para Administradores. Editora AtlasSP. 2ª edição, 2001.
FLYNN, Barbara B.; SCHROEDER, Roger G.; SAKAKIBARA, Sadao.
A Framework for Quality Management Research and an Associated Messurement
Instrument. Journal of Operations Management, Vol. 11, p. 339-366,
1994.
FPNQ, Fundação para o Prêmio Nacional da Qualidade. Critérios de
Excelência. São Paulo-SP, 2005.
GALBRAITH, John Kenneth. The Age of Uncertainty. Editora Pioneira.
8ª edição, 1991.
GESPÙBLICA, Programa Nacional de Gestão Pública e
Desburocratização. Documento 1, Instrumento para Avaliação da Gestão
Pública – ciclo 2006. Secretaria de Gestão, Ministério do Planejamento.
Brasília-DF, 2006.
GIL, Antônio Carlos. Métodos e Técnicas de Pesquisa Social. São Paulo.
Editora Atlas, 1994.
GRANDZOL, John R., GERSHON, Mark. Which TQM Practices Really
Matter: An Empirical Investigation. Quality Management Journal. 97(4),
p.43-59. Quality Press, Milwaukee, Wisconsin, 1997.
HAIR, Joseph F.; ANDERSON, Ralph E.; TATHAM, Ronald L .;
BLACK, Willian C. Multivariate Data Analysis. Fourth Edition, Ed.
Prentice Hall, New Jersey, 1995.
HARRISON, Michael I.; SHIROM, Arie. Organizational Diagnosis and
Assessment. Ed. Sage Publications, Inc. Thousand Oaks, California,
1999.
KUHN, Thomas S. The Structure of Scientific Revolutions. Copyright
The University of Chicago Press. 3ª. Edição, 1994.
LAING, R.D. The Divided Self. Tavistock Publications 11 New Fetter Lane,
London E.C. 4. 4a. edição, 1960.
PEARL, Judea. Graphs, Causality, and Structural Equation Models, Cognitive
Systems. Laboratory, Computer Science Department, University of
California, Los Angeles, CA 90024, 1999.
PINA E CUNHA, Miguel; REGO, Armênio. As Duas Faces da Mudança
Organizacional Planejada e Emergente. Universidade Nova Lisboa e
Universidade de Aveiro. Portugal, 2002.
SHELL, Richard G. Bargaining for Advantage. Negócio Editora, 2001.
WEIL, Pierre; TOMPAKOW, Roland. O Corpo Fala. Editora Vozes.
49ª edição. Ed. Petrópolis – RJ, 1986.
116
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 110-116
SENSORES E GUERRA ELETRÔNICA
Estratégias de detecção multiusuário para
minimizar a interferência em sistemas de
comunicação sem fio DS-CDMA
Deolinda Fontes Cardoso
Centro de Análises de Sistemas Navais – CASNAV – MB
Praça Barão de Ladário s/ nº, Ilha das Cobras, Edifício 8, 3º andar
Centro
Rio de Janeiro – RJ – CEP 20091-000
[email protected]
Tiago Travassos Vieira Vinhoza
Centro de Estudos em Telecomunicações da PUC-Rio – CETUC
Rua Marques de São Vicente nº 225 – Gávea
Rio de Janeiro – RJ – CEP 22453-900
[email protected]
Resumo
DS-CDMA (Direct-Sequence Code Division Multiple Access) é
uma das tecnologias mais promissoras para multiplexar
usuários em sistemas de comunicações sem fio, atuais e
futuros. Na tecnologia CDMA os usuários são separados por
códigos distintos e, assim, todos podem transmitir ao mesmo
tempo e, ainda, cada usuário utiliza todo o espectro de
freqüência disponível para transmissão. Este artigo descreve
a técnica de detecção multiusuário ótima (de máxima
verossimilhança) proposta por Verdu, para minimizar os
efeitos adversos da interferência de múltiplo acesso em
sistemas de comunicações. Além disso, nós apresentamos
alguns métodos sub ótimos baseados em heurísticas e meta
heurísticas para resolver o problema NP-Hard da detecção
multiusuário ótima.
Palavras-chave
Sistemas de comunicações, técnicas de múltiplo acesso;
Detecção multiusuário (MUD); Interferência de Múltiplo
Acesso (IMA), métodos heurísticos, detecção multiusuário
ótima.
Multiuser Detection Strategies to Minimize the
Interference in Wireless Communication
Systems DS CDMA
Abstract
Direct-Sequence Code Division Multiple Access is a
promising wireless communication technology. In DS-CDMA
systems all users signals overlap in time and frequency and
cause mutual interference. This article describes the
optimal multiuser detector (maximum likelihood) proposed
by Verdu in order to minimize the effects of multiple access
interference in wireless communication systems. In
addition, we present several sub-optimum methods based in
heuristics and meta-heuristics for solving the NP-Hard
optimal multiuser detection problem.
INTRODUÇÃO
O sistema CDMA implementado com espalhamento
por seqüência direta DS-CDMA (Direct Sequence
CDMA) é considerado a técnica mais popular e
promissora para multiplexar usuários em sistemas
de comunicações. Na tecnologia CDMA, os usuários
são separados por códigos distintos, ao invés de
bandas de freqüências ortogonais. Desta forma,
todos os usuários podem transmitir ao mesmo tempo
e cada usuário utiliza todo o espectro de freqüência
disponível para a transmissão. Por esta razão, os
sistemas CDMA também são conhecidos como
Spread-Spectrum Multiple Access (SSMA), ou
simplesmente, comunicações com espalhamento de
espectro. Na literatura, existem diversas variações da
tecnologia CDMA, dentre as quais, podemos citar:
FH-CDMA Frequency Hopping-CDMA, que utiliza
saltos de freqüência, muito utilizados em aplicações
militares; MC-CDMA Multicarrier-CDMA, que utiliza
múltiplas portadoras; e WCDMA Wideband-CDMA,
que utiliza maior largura de banda.
Nos últimos anos, observou-se um crescente interesse
na tecnologia DS-CDMA, principalmente, devido às
propriedades atrativas para as comunicações sem fio,
tais como: bom desempenho em canais com múltiplos
percursos; boa capacidade em ambientes com rajadas
ou surtos de erros e desvanecimento; e flexibilidade
na alocação de canais.
O maior obstáculo que limita a capacidade e
desempenho dos sistemas CDMA é a Interferência
de Múltiplo Acesso (IMA). Esta fonte de interferência
é resultante da impossibilidade de manter a
ortogonalidade entre os sinais dos usuários na recepção.
Outros fatores como efeitos do canal de transmissão
e possíveis desajustes no tempo contribuem para
incrementar os efeitos adversos da IMA [1].
Keywords
Communication Systems; Multi-user detection; Multiple
Access Interference (MAI); heuristics search methods,
optimum detection.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122
117
DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA
Além da IMA, outras fontes de interferência afetam o
desempenho dos sistemas CDMA, entre os quais estão:
a IBE – Interferência de Banda Estreita; a IES –
Interferência entre símbolos e o ruído no receptor.
Dessa forma, a demodulação de um usuário desejado,
em uma rede CDMA, requer o processamento do
sinal recebido, de modo a combater os diferentes tipos
de interferência presentes [2]. O receptor ótimo ML
(Maximum Likelihood) [3], capaz de minimizar a
probabilidade de erro, é considerado NP-Hard,
limitando, assim, o uso exclusivo de métodos exatos.
Por esta razão, métodos aproximados ou heurísticos
são utilizados para fornecer soluções com tempos de
conclusão quase ótimos.
A: Espaço de Decisões;
Existem diversas técnicas para a formulação de
soluções sub-ótimas. As principais técnicas adotam
desde heurísticas de construção (como a heurística de
List Scheduling , considerada greedy mas de
complexidade atrativa) até as meta heurísticas.
FIGURA 1
Diagrama do Modelo Matemático
Este artigo está organizado da seguinte maneira: na
seção 2, são apresentados conceitos da teoria da decisão
para a construção do modelo matemático utilizado
na detecção multiusuário. Na seção 3, é apresentado
o modelo básico do canal síncrono CDMA para K
usuários; na seção 4, é analisada a detecção multiusuário
ótima e sub-ótima, apresentando as estratégias
heurísticas que podem ser adotadas. Os resultados
comparativos dos métodos, baseados em heurísticas
de busca, são descritos na seção 5. As conclusões deste
estudo são apresentadas na seção 6, e a seção 7 lista a
bibliografia relevante a este trabalho.
A TEORIA DA DECISÃO NA DETECÇÃO
MULTIUSUÁRIO
Modelo Matemático
No projeto do receptor, em um sistema de
comunicações, é fundamental construir o modelo
matemático do problema e do ambiente envolvido.
A Figura 1 apresenta o diagrama do modelo
matemático utilizado neste trabalho.
Os principais elementos do modelo são:
Ω : Espaço de Sinais ou conjunto de hipóteses iniciais;
Γ: Espaço de Observações;
118
p(y|s): Função densidade de probabilidade
condicional; e
D(a|y): Função de decisão que caracteriza o decisor.
O modelo geral consiste de um espaço abstrato
dimensional suficiente, conhecido como espaço de
sinais Ω composto de elementos s. É assumido que a
ocorrência de elementos, nesse espaço, apresenta
funções de densidade de probabilidade π (s),
conhecidas como probabilidades à priori dos sinais ou
das hipóteses iniciais. Essas funções especificam
probabilidades ou densidades de probabilidades dos
sinais transmitidos. O receptor que captura o sinal está
habilitado para observar somente versões distorcidas,
devido ao ruído, das formas de onda transmitidas e
não os próprios elementos do espaço de sinais. O
segundo elemento do modelo é o espaço de
observações Γ, composto por elementos y , que
correspondem às observações ou possíveis entradas
do receptor. Em adição, é também necessário definir
o espaço de decisão A, composto por elementos a
(escolhas disponíveis ao receptor), que representam o
conjunto de possíveis decisões a serem tomadas,
depois de observado o valor y ∈ Γ no espaço de
observações.
Uma vez definidos os elementos do modelo, o
problema consiste em verificar, primeiro, um valor y
no conjunto de observações e, assim, o receptor ótimo
toma uma decisão Dj (j=1,...k) com uma probabilidade
P(Dj |y=Y)=fj(Y). O conjunto destas funções forma
uma regra de decisão. A escolha de uma particular
regra de decisão depende de um critério de decisão
arbitrário para o sistema decisório. Sob as condições
dadas, queremos encontrar o receptor ótimo que
melhor determina qual sinal foi transmitido. O receptor
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122
SENSORES E GUERRA ELETRÔNICA
ótimo é aquele que minimiza a probabilidade do erro,
ou da mesma forma, maximiza a probabilidade do
acerto. P(acerto) = 1-P(erro).
MODELO DO SISTEMA CDMA
Neste trabalho, nós adotamos um canal vetorial
CDMA síncrono com K usuários, que transmitem em
um canal com um único percurso comum, que sofre
a interferência de ruído aditivo gaussiano branco
(RAGB). Sob esses aspectos, é suficiente considerar
que o sinal recebido existe apenas dentro do intervalo
[0,T] [3]. A forma de onda contínua r(t) que chega ao
receptor pode ser expressa por:
Onde as amplitudes wk½ dos K usuários formam a
matriz diagonal:
W=Diag(w1½,..., wK½)
R é a matriz de correlação K x K com elementos dados
por:
T
Rij = òsi (t ) s j (t )dt
onde
i, j = 1,2,....K
0
O vetor z contém amostras de ruído gaussiano e tem
média zero e matriz de autocorrelação dada por: E[zzT] =
ó2R = Rz
r (t ) = åwk1 / 2 d k sk (t ) + n(t )
O vetor y constitui um conjunto de estatísticas
suficientes para estimar o vetor de dados
transmitidos d.
onde sk(t) é a sequência de espalhamento do k-ésimo
usuário;
DETECÇÃO MULTIUSUÁRIO (MUD)
K
k =1
dk ∈ {-1,1} é o símbolo de informação transmitido
pelo k-ésimo usuário;
n(t) é o ruído gaussiano com densidade espectral de
potência ó2; e
Cada forma de onda é considerada zero fora do
intervalo [0,T].
Os símbolos de informação dos usuários são
assumidos serem independentes e equiprováveis.
A amostra de saída do filtro casado à seqüência de
espalhamento do usuário k é:
T
y k = òr (t ) sk (t )dt
0
t Î[0, T ], k = 1,2,..., K
O vetor contendo amostras da saída do filtro casado
é definido como y=[y1, y2,..., yK]T
Definindo-se o vetor de dados transmitidos como
d=[d1, d2,..., dk]T
Tem-se que o vetor na saída do filtro pode ser
expresso por:
y = RWd + z
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122
No receptor, a demodulação de determinado usuário
requer o processamento do sinal, de forma a suprimir
os efeitos adversos da interferência de múltiplo acesso
IMA. Esta interferência é considerada o maior
obstáculo ao desempenho e aumento da capacidade
dos sistemas CDMA. O projeto de receptores, capazes
de minimizar a interferência, tem sido exaustivamente
investigado. Detectores do tipo convencional, que
empregam um filtro casado à seqüência de assinatura,
são ineficientes para suprimir a IMA e, ainda, são
demasiadamente sensíveis às diferenças de potência
entre os sinais recebidos. O efeito decorrente dessas
diferenças é chamado de near-far (perto-longe) e ocorre
quando os transmissores possuem localizações
diferentes em relação ao receptor [3].
A MUD é a estratégia mais promissora para aumentar
a capacidade e o desempenho de sistemas CDMA,
através da minimização dos efeitos adversos da
Interferência de Múltiplo Acesso (IMA). Nesta
estratégia, desde que os códigos e as amplitudes dos
usuários sejam conhecidos pelo receptor, a informação
dos vários usuários é usada de forma conjunta, com
o intuito de melhorar o processamento do sinal de
cada usuário. Em [4], o autor apresentou o detector
multiusuário ótimo, que consiste em minimizar a
probabilidade do erro através da ML (Maximum
Likelihood). O problema ML não é trivial, e sim
119
DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA
considerado NP-Hard com elevada complexidade
(exponencial com o número de usuários), sendo
proibitivo para sistemas DS-CDMA. Além disso, a
solução ótima requer sincronização e o conhecimento
das amplitudes e das seqüências de códigos dos
usuários, sendo praticamente inviável, em termos de
complexidade computacional, para aplicações práticas
[5]. Em decorrência, isto motivou o desenvolvimento
de métodos aproximados ou heurísticos para o
problema da detecção multiusuário [6]. Tais métodos
fornecem resultados satisfatórios com desempenho
próximos do ótimo.
Detecção multiusuário ótima
O receptor multiusário ótimo é aquele que fornece a
estimativa de maxima verossimilhança para a sequência
de bits transmitida:
d’ = arg max p(y|d) com d ∈ {-1,1}k
Considerando que o canal é RAGB, a função negativa
da log-likelihood, baseada na função densidade de
probabilidade condicional p(y|d), é proporcional a
d’ = dTWRWd – 2yTWd
No caso binário, o problema ML (Maximum
Likelihood) é descrito pela seguinte expressão:
d’ = arg min dTWTRWd – 2yTWd com d ∈ {-1,1}k
A solução dessa expressão requer a procura em todas
as 2K possíveis combinações dentre os componentes
do vetor d. Assim, para fazer decisões que maximizam
a verossimilhança (maximum likelihood) em um
problema de detecção multiusuário, é preciso resolver
o problema de minimização binária, conhecido na área
de otimização, como o problema da programação
quadrática binária (BQP). Este problema, e por
conseguinte, o problema ML é considerado NP-Hard,
com complexidade que aumenta exponencialmente
com relação ao número K de usuários. Por essa razão,
o problema da detecção multiusuário é considerado
um problema de otimização combinatória, com um
conjunto finito de possíveis soluções exatas ou
aproximadas.
120
Detecção multiusuário sub-ótima
A detecção multiusuário sub-ótima pode ser
dividida em detecção multiusuário aproximada e
em detecção multiusuário heurística. A detecção
multiusuário aproximada ocorre quando o
algoritmo utilizado possui limite de pior caso
conhecido. Por outro lado, a detecção heurística
utiliza critérios identificados empiricamente ou
intuitivamente como responsáveis por algum fator
de desempenho na recepção.
A detecção multiusuário heurística pode ser
classificada em duas grandes categorias. Na primeira,
encontram-se a as heurísticas de Construção que
utilizando um modelo para o sistema, constroem,
a cada passo, um único resultado como resposta
para uma determinada entrada. Heurísticas desta
categoria, geralmente, são utilizadas quando o
tempo de construção do resultado é considerado
um fator crucial e de grande importância ao objetivo
final.
Na outra categoria, encontram-se as heurísticas de
construção e busca, nas quais vários resultados são
criados, durante a execução do algoritmo, na busca
da melhor solução final. Um aspecto importante
de algoritmos pertencentes a esta categoria é que,
apesar de consumirem um tempo mais significativo
para fornecer a solução final, os resultados podem
apresentar melhor qualidade que os produzidos
pelas heurísticas de construção acima descritas. Isto
porque, as heurísticas de construção e busca podem
gerar diversas soluções, durante a sua execução, com
a finalidade de, a cada passo, melhorar cada vez
mais a solução resultante da iteração anterior.
Dentro desta categoria, podemos citar os métodos
de busca de propósito geral, que objetivam
encontrar uma boa solução, através da aplicação
de heurísticas modeladas para um determinado
problema, conhecidas como meta heurísticas. Por
serem de caráter geral, as meta heurísticas possuem
mecanismos que permitem percorrer o espaço de
busca do problema escapando dos mínimos locais.
São exemplos clássicos de meta heurísticas:
Algoritmos Genéticos; Simulated Annealing; Busca
Tabu e Variable Neighborhood Search.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122
SENSORES E GUERRA ELETRÔNICA
RESULTADOS EXPERIMENTAIS
O trabalho de Tan e Rasmussen [7] apresenta alguns
métodos de otimização para solucionar, de forma
exata ou aproximada, o problema da detecção
multiusuário ótimo. São comparados 6 métodos de
busca heurística com o receptor ótimo ML –
Maximum Likelihood, são eles: DEC – Detector
Decorrelator; SD-1 Slowest Decent; DEC-LS Decorrelator
com Local Search; GRE-1 heurística Greedy; RTS – Reactive
Tabu Search (M=15); e ILS – Iterated Local Search.
Maiores detalhes podem ser verificados em [7].
O objetivo dos experimentos é avaliar a detecção
multiusuário, baseada em métodos de otimização,
investigando quanto os desempenhos sub-ótimos, em
relação à Taxa de Erro de Bit (BER), se aproximam
do desempenho ótimo ML. O canal de transmissão
do sistema CDMA é considerado síncrono e
perturbado por RAGB, onde todos os usuários
transmitem com a mesma potência.
A Figura 2 ilustra o desempenho dos detectores
baseados em busca heurística para dois sistemas
distintos.
O primeiro sistema apresenta carga de 10 usuários e
ganho de processamento (fator de espalhamento) de
32. Nesse sistema, o detector RTS com 15 interações
se aproxima do desempenho do detector ótimo em
FIGURA 2
Comparação da Taxa de Erro de Bits média versus Razão
Sinal Ruído para os detectores baseados em busca
heurística em sistemas com K=10 e K=24 usuários e
N=32.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122
termos da BER. O detector ILS precisa de 40 iterações
para se aproximar do desempenho ótimo. O detector
greedy GRE-1 apresenta o mesmo desempenho BER
que o detector ILS. Os detectores DEC-LS e SD-1
também conseguem boas aproximações, sendo o de
pior desempenho o detector DEC.
No segundo sistema, aumentou-se a carga para 24
usuários, mantendo o mesmo ganho de
processamento de 32. O detector de busca tabu RTS,
para manter o mesmo desempenho anterior, precisou
realizar 150 iterações; enquanto o detector ILS precisou
de 250 iterações. O detector GRE-7 não consegue se
aproximar do desempenho ML, mantendo
complexidade similar ao primeiro teste. Os detectores
DEC-LS, SD-24 e DEC apresentam desempenhos
pobres quando a carga no sistema aumenta.
CONCLUSÕES
Neste trabalho, nós apresentamos uma breve
introdução ao sistema CDMA, considerado um dos
métodos mais eficientes para multiplexar usuários em
sistemas de comunicações sem fio. O maior obstáculo
ao desempenho, desses sistemas, é a interferência de
múltiplo acesso – IMA, resultante da impossibilidade
de manter a ortogonalidade entre os sinais dos usuários
na recepção. A detecção multiusuário (MUD) é a
estratégia desenvolvida para suprimir os efeitos
adversos da IMA, aumentando a capacidade de
sistemas CDMA. Infelizmente, a detecção multiusuário
ótima padece de uma complexidade exponencial
proibitiva para aplicações práticas, sendo considerada
um problema NP-Hard. Por este motivo, nos últimos
anos observou-se um grande esforço de pesquisa para
desenvolver receptores sub-ótimos, que minimizam
os efeitos adversos da IMA, com baixos requisitos de
complexidade e desempenhos próximos ao detector
ótimo.
Dentre as possíveis soluções sub-ótimas, os métodos
heurísticos de construção e os métodos heurísticos de
construção e busca promovem soluções bastante
atrativas e satisfatórias. Nossa investigação, baseada em
[7], permitiu observar que os métodos heurísticos de
busca: LS – Local Search e SD – Slowest Decent são
muito rápidos, porém, incapazes de escapar de
mínimos locais. A fim de evitar tais situações, podem
ser empregados os métodos ILS Iterated Local Search
e RTS Reactive Tabu Search. Estes métodos são
121
DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA
específicos para procurar ótimos globais, entretanto,
não podem garantir que a melhor solução global
encontrada, apos determinado critério, seja a solução
ótima global do problema.
Na instância de testes realizados para um número de
usuários K = 10, K = 24 e ganho de processamento N
= 32, ambos os métodos RTS e ILS têm desempenho
similar ao desempenho do receptor ótimo ML
(Maximum Likelihood), com taxa de erro de bit (BER)
indistinguível. O método de busca tabu é bastante
efetivo em termos da BER e eficiente, em termos da
complexidade computacional, quando comparado
com as heurísticas LS e ILS. Além disso, quando o
número de usuários aumenta, a busca tabu é a mais
efetiva e eficiente que as outras.
O objetivo deste trabalho foi investigar a eficiência de
alguns métodos sub-ótimos, baseados em busca
heurística, para o problema da detecção multiusuário.
Os métodos foram comparados, com o intuito de
mostrar quanto se aproximam do desempenho ótimo
da Máxima Verossimilhança ML, em termos da taxa
de erro de bit (BER).
REFERÊNCIAS
[1] DE LAMARE, R. C.; SAMPAIO NETO, R. Reduced-rank
Interference Suppression for DS-CDMA using Adaptive Interpolated
FIR Filters with Adaptive Interpolators. In: Proceedings IEEE
International Symposium on Personal Indoor and Mobile Radio
Communications (PIMRC), Barcelona. CD-ROM, 5 páginas, 2004.
[2] DE LAMARE, R. C.; SAMPAIO NETO, R. . Adaptive Decision
Feedback Multiuser Detectors with Recurrent Neural Networks for
DS-CDMA in Fading Channels. In: Proceedings IEEE International
Conference on Telecommunications (ICT), Fortaleza. CD-ROM, 5
páginas. 2004
[3] VERDU, Sérgio. Multiuser Detection. Livro Didático. Cambridge
University Press. 1998.
[4] VERDU, Sérgio. Computacional Complexity of Optimum
Multiuser Detection. Algorithmica, vol.4, 303-312, 1989.
[5] MOSHAVI, S. Multi-User Detection for DS-CDMA
Communications. IEEE Communications Magazine. Outubro de
1996.
[6] ALRUSTAMANI, A e VOJCIC B. R. Greedy multiuser detection
over single-path fading channel. In Proc. IEEE Int. Symposium
Spread Spectrum Techiques and Application, (New Jersey, USA)
708-712, 2000.
[7] TAN, P. H.; RASMUSSEM, L. K. Multiuser Detection in CDMA –
A Comparison of Ralaxations, Exact, and Heuristic Search Methods.
IEEE julho de 2003
AGRADECIMENTOS
Os autores apresentam um agradecimento especial ao
Professor-Orientador Raimundo Sampaio Neto e ao
Professor Weiler Alves Finamore, ambos do Centro
de Telecomunicações da PUC-Rio, pelas valiosas
contribuições para este trabalho.
122
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 117-122
SENSORES E GUERRA ELETRÔNICA
Morfologia matemática como ferramenta de análise
de imagens infravermelhas
Sergio Rodrigues Neves
Grupo de Guerra Eletrônica
Instituto de Pesquisas da Marinha (IPqM)
E-mail: [email protected]
Resumo
Imagens infravermelhas adquiridas por sistemas ópticos
navais possuem importância tática relevante no combate de
ameaças, tais como mísseis com guiagem a infravermelho,
em que a detecção, através de equipamentos MAGE, não é
impossível.
As técnicas de processamento de imagens são usadas,
basicamente, para melhorar a aparência de uma imagem para
a visão humana e preparar a imagem antes de se fazerem
medições de suas características. As medições e extração
de características que permitam o acompanhamento e
identificação de um alvo numa imagem infravermelha tem uma
poderosa ferramenta na morfologia matemática.
Este trabalho tem como objetivo fazer um resumo das
técnicas da morfologia matemática aplicáveis a imagens
infravermelhas, com o objetivo de extração de característica
para classificação de alvos.
Palavras-chave
Infravermelho. Processamento de imagens. Morfologia
matemática.
Mathematical morphology as a tool for infrared
images analysis
Abstract
Infrared images acquired by naval optical systems have a
relevant tactical importance on dealing with threats like
infrared guided missiles, which are not detected by
conventional electronic warfare equipments.
Image processing techniques are basically used for
improve the image appearance to human vision, or in order
to prepare the image for characteristics measure. The
characteristics measures that allow the target’s tracking
and identification on an infrared image or sequence has a
powerful tool on mathematical morphology.
In this work we summarize mathematical morphology
techniques that can be used on infrared image
characteristics extraction to target classification.
Keywords
Infrared. Image processing. Mathematical morphology.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
INTRODUÇÃO
A morfologia matemática pode ser definida como
uma teoria para a análise da forma e da estrutura [1]
[2] [3] [4]. A morfologia é matemática no sentido em
que é baseada em teoria dos conjuntos, geometria
integral e álgebra de reticulados; mas não é só uma
teoria: é também uma poderosa ferramenta para a
análise de imagens. Sua origem se remonta a meados
dos anos 60 e ao estudo de materiais porosos de G.
Matheron. Em seu trabalho pioneiro (Eléments pour
une théorie des milieux poreux – 1967), Matheron
propôs as primeiras transformações morfológicas.
Quase que simultaneamente, em 1972, o desenvolvimento e a comercialização de um “hardware”
especialista por J. C. Klein e J. Serra permitiu o uso
dessas transformações para a solução de problemas
práticos de análise de imagem. A partir dessas
primeiras definições e formalizações de operações
morfológicas para a investigação da geometria de
objetos em uma imagem binária, foi idealizada toda
uma teoria por G. Matheron e J. Serra [4]. De uma
maneira geral, podem ser considerados dois tipos
básicos de imagens às quais se aplicam as operações
morfológicas: imagens binárias e em tons de cinza.
Na morfologia aplicada a imagens binárias (os únicos
valores de pixel possíveis são 0 ou 1 – branco e preto), na vizinhança de cada pixel da imagem original é
testada uma configuração de pontos pretos e brancos
(o elemento estruturante), de acordo com uma proposição específica (por exemplo: o elemento cabe no
objeto ou toca o objeto).
Na morfologia aplicada em imagens em tons de cinza, que é o caso das imagens em infravermelho, além
do procedimento descrito para as operações binárias,
é importante o conhecimento do valor dos pixels envolvidos tanto na imagem original, quanto no elemento
estruturante, para a execução das operações de mínimo ou ínfimo (∧) e máximo ou supremo(∨). Essas
operações podem ser definidas para cada ponto x de
duas imagens f e g de domínios idênticos, como indicado na Figura 1, a seguir.
123
SERGIO RODRIGUES NEVES
( f ∨ g )( x) = max[ f ( x), g ( x)]
e
( f ∧ g )( x) = min[ f ( x), g ( x)]
(a)
(b)
(c)
(d)
FIGURA 1
Da esquerda para a direita: (a) imagem de entrada f, (b) imagem de entrada g, (c) operação de máximo ou supremo
e (d) mínimo ou ínfimo. Note que na operação de máximo, o vídeo sintético que se encontra perto do branco (valor
mais alto na escala de cinza) é conservado, enquanto na operação de mínimo este se perde.
OPERAÇÕES BÁSICAS DA MORFOLOGIA
As operações morfológicas são, basicamente,
comparações com um elemento estruturante escolhido
de acordo com um conhecimento a priori das
estruturas geométricas a serem analisadas, e cuja
finalidade é retirar ou alterar a forma dos objetos que
estão relacionados (maiores, menores ou iguais) de
alguma maneira a estes elementos estruturantes. De
uma maneira geral, podemos classificar as operações
morfológicas em três grandes grupos: filtragem,
segmentação ou medidas de imagens. Todas essas
operações são construídas através de dois operadores
fundamentais da morfologia: a erosão e a dilatação.
Elemento Estruturante
O elemento estruturante é um conjunto plenamente
conhecido e definido (forma e tamanho), usado para
ser comparado ou medido na imagem a ser estudada
a partir de uma transformação. Seu formato e o
tamanho permitem o teste e a quantização da maneira
em que este está ou não contido na imagem. O
elemento estruturante é referenciado como plano
quando ele é bidimensional e é, normalmente, utilizado
para operações com imagens bidimensionais; e como
não plano, volumétrico ou de escala de cinza, quando
se refere a elementos estruturantes compostos por
pequenas imagens em tons de cinza, aplicáveis a
operações em imagens em tons de cinza. Os
operadores morfológicos fundamentais necessitam da
especificação de uma origem para cada elemento
124
estruturante. O formato e o tamanho dos elementos
estruturantes devem ser adaptados às propriedades
geométricas dos objetos das imagens a serem
processadas. Por exemplo, quando o interesse é a
extração de objetos lineares em uma cena, elementos
estruturantes lineares são os mais adequados. Na
maioria dos casos, os elementos estruturantes devem
ser o mais simples possível (Figura 2).
(a)
(b)
(c)
FIGURA 2
Elementos estruturantes planos isotrópicos para grade
retangular e hexagonal. (a) cruz elementar, (b) quadrado
elementar e (c) hexágono. A origem destes elementos
estruturantes é o seu centro.
Apesar de ser possível estabelecer tipos muito diversos
de elementos estruturantes, somente um número
limitado destes é usado em aplicações práticas. Alguns
destes são:
– Segmentos de linhas – usados para extrair estruturas
alongadas de imagens.
– Aproximação digital de discos – devido à sua isotropia,
discos são elementos estruturantes muito utilizados.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
SENSORES E GUERRA ELETRÔNICA
Várias aproximações de discos são possíveis, como a
cruz elementar e o quadrado elementar vistos na
Figura 2.
– Par de pontos – a erosão pelo par de pontos permite
caracterizar o estado de dispersão de uma estrutura
[2].
– Elementos estruturantes compostos – compreendem dois
elementos estruturantes disjuntos que possuem a
mesma origem.
Erosão
Uma das primeiras perguntas que podem ser feitas
para a comparação entre um elemento estruturante e
um objeto é: “o elemento estruturante está totalmente
dentro do objeto?”. O objeto erodido é o lugar
geométrico dos centros dos elementos estruturantes
onde esta resposta é afirmativa (vide Figura 3). Isso
qualifica a erosão binária com os seguintes efeitos [2]:
diminuir os objetos; eliminar objetos menores que
o elemento estruturante; aumentar os buracos; e
permitir a separação de objetos próximos.
FIGURA 3
Erosão do objeto A pelo elemento estruturante B.
Considerando X como o conjunto a ser erodido e B
como o objeto estruturante escolhido, a erosão (εB)
pode ser definida como o lugar geométrico dos
pontos x nos quais B é incluído em X, quando sua
origem está posicionada em x [1]: ε B ( X ) = {x B x ⊆ X }.
Essa equação pode ser reescrita como uma interseção
de translações do objeto, com essas translações sendo
determinadas pelo elemento estruturante [1]:
ε B ( X ) = I X −b . A translação de uma imagem f por
b∈B
um vetor b (fb) é definido por fb (x) = f (x – b).
A definição de erosão binária pode ser estendida
diretamente em tons de cinza: a erosão de uma imagem
f por um elemento estruturante B é definida como o
mínimo ou ínfimo das translações de f pelos vetores
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
–b
de
B.
Considerando
ponto
a
ponto
f −b Assim, o valor da erosão em um
[1]:ε B ( f ) = b∧
∈B
pixel x é o valor mínimo da imagem na janela definida
pelo elemento estruturante, quando sua origem está
f ( x + b) .
em x [1]: [ε B ( f )]( x) = min
b∈B
Os efeitos da erosão em tons de cinza são [2]:
escurecer a imagem; alargar e engordar os vales
(padrões escuros); conectar vales próximos; reduzir
e às vezes eliminar picos (padrões claros); e separar
picos próximos.
Dilatação
A dilatação é o operador dual da erosão e está baseada
na seguinte pergunta: “O elemento estruturante toca
o objeto em análise?”. Onde a resposta é afirmativa,
o objeto é acrescido do elemento estruturante,
compondo assim o objeto dilatado (vide Figura 4).
Os efeitos da dilatação binária são então [2]: engordar
o objeto; preencher pequenos buracos; e conectar
objetos próximos.
FIGURA 4
Dilatação do objeto A pelo elemento estruturante B.
Considerando X como o conjunto a ser dilatado e B
o elemento estruturante escolhido, a dilatação (∂ B ) pode
ser definida como o local dos pontos x onde B toca
X, quando sua origem coincide com x [1]:
∂ B ( X ) = {x B x ∩ X ≠ 0} . Essa equação pode ser
reescrita em termos de uma união de translações do
objeto, com essas translações sendo definidas pelo
X −b .
elemento estruturante [1]: ∂ B ( X ) = bU
∈B
Essa última definição pode ser estendida para
imagens em tons de cinza: a dilatação de uma
imagem f por um elemento estruturante B é definida
como o máximo ou supremo das translações de f
pelos vetores –b de B. Considerando ponto a ponto:
∂ B ( f ) = ∨ f −b . Em outras palavras, o valor da
b∈B
125
SERGIO RODRIGUES NEVES
dilatação em um ponto x é o valor máximo da
imagem na janela definida pelo elemento estruturante,
quando
sua
origem
está
em
x.
[∂ B ( f )]( x) = max f ( x + b) .
b∉B
Os efeitos da dilatação em níveis de cinza são[2]:
clarear a imagem; alargar e engordar os picos
(padrões claros); conectar picos próximos; reduzir
e, às vezes, eliminar vales (padrões escuros); e separar
vales próximos.
– Gradiente metade por dilatação ou gradiente externo – é
definido pela diferença entre a imagem dilatada e a
imagem original: ρ B+ = ∂ B − I .
Os gradientes metade são de bastante valia quando
são usados para a detecção da fronteira interna ou
externa de uma borda.
Gradiente Morfológico
É comum assumir que, numa análise de imagem, os
objetos estejam contidos em regiões de níveis de cinza
mais ou menos homogêneos. Assim, os limites desses
objetos estão localizados em regiões de grandes
variações de níveis de cinza. Os operadores gradiente
são normalmente usados para enfatizar essas variações.
No entanto, alguns cuidados devem ser tomados,
como uma filtragem preliminar, no caso de imagens
infravermelhas sujeitas a ruído, para não potencializar
o componente de ruído. Variações de combinações
entre esses operadores elementares conduzem a
diferentes resultados. As combinações mais usadas são
[1]:
Gradiente morfológico básico ou gradiente de Beucher – é
definido pela diferença entre a dilatação e a erosão
pelo elemento estruturante elementar B para a imagem
considerada (Figura 5): ρ B = ∂ B − ε B.
FIGURA 5
Da esquerda para a direita: imagem original e gradiente
básico ou de Beucher
FIGURA 6
Da esquerda para a direita: imagem original, gradiente
interno e gradiente externo.
Gradiente espesso – se o elemento estruturante, aplicado
no processo do gradiente básico, é maior que o
elemento estruturante elementar (em nosso caso o
quadrado elementar), o gradiente morfológico é
conhecido como gradiente espesso, predominando
bordas dilatadas (Figura 7). Sua representação (nB)
significa que o elemento estruturante elementar terá
seu tamanho aumentado n vezes. Por exemplo, o
quadrado elementar de 3X3 para um elemento
estruturante em que o n de nB valesse 2, corresponderia
a um quadrado de 6X6. Temos então que:
ρ nB = ∂ nB − ε nB .
FIGURA 7
Da esquerda para direita: imagem original e gradiente
espesso.
Gradientes metade – podem ser de dois tipos (Figura 6):
– Gradiente metade por erosão ou gradiente interno – é
definido pela diferença entre a imagem original e a
imagem erodida: ρ B− = I − ε B .
126
Gradientes direcionais – são definidos pela substituição
de um elemento estruturante isotrópico por um
segmento de linha L numa direção a::
rLa = ¶La - eLa.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
SENSORES E GUERRA ELETRÔNICA
Com o gradiente direcional, é possível a filtragem de
elementos em determinada direção, como pode ser
visto na figura 8.
Em linhas gerais, pode ser observado que a abertura
tem a propriedade de retirar pequenas estruturas
(menores que o elemento estruturante), mas
modificando também todos os objetos da imagem
em cujo operador a abertura foi aplicada.
Fechamento
FIGURA 8
Gradiente direcional. Da esquerda para a direita:
imagem original, gradiente horizontal (com um
elemento estruturante horizontal) e gradiente vertical
(com um elemento estruturante vertical).
A idéia por trás do fechamento morfológico é a
recuperação do formato inicial de estruturas que
tenham sido dilatadas. Essa operação é realizada através
da erosão do objeto dilatado. O fechamento de uma
imagem f por um elemento estruturante B pode ser
escrito em termos de erosão e dilatação como [1]:
φ B ( f ) = ε B( [∂ B ( f )] (Figura 10).
Abertura
A erosão de uma imagem não remove somente todas
as estruturas que não contém o elemento estruturante,
mas também “encolhe” todas as outras. A procura
por um operador capaz de recuperar a maioria das
estruturas perdidas pela erosão levou a definição do
operador morfológico abertura. A idéia por trás do
operador abertura, então, é dilatar a imagem erodida,
de maneira a recuperar o máximo possível da imagem
original. A abertura de uma imagem f por um
elemento estruturante B é definida em termos de
erosão e dilatação [1]: γ B ( f ) = ∂ B( [ε B ( f )] (Figura 9).
FIGURA 9
Abertura em termos de dilatação e erosão.
Outra formulação para a abertura é possível em
termos geométricos, conservando a mesma pergunta
utilizada para a erosão: “O elemento estruturante cabe
no objeto?” É mantido, se a resposta for afirmativa,
o elemento estruturante completo (no caso da erosão
só a origem é mantida). Assim, o objeto submetido
ao operador abertura é aquele que representa a união
de todos os elementos estruturantes que cabem no
objeto [1]: γ B ( x) = U{B B ⊆ X } .
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
FIGURA 10
Fechamento em termos de dilatação e erosão.
A questão “O elemento estruturante cabe no fundo
da imagem?” pode ser aplicada para definição do
fechamento. Se a resposta for afirmativa, todos os
pontos do elemento estruturante pertencentes ao
complemento do fechamento do objeto serão
considerados [1]: φ B ( x) = [U{B B ⊆ X c }] c . Todas as
estruturas do fundo da imagem que não contêm o
elemento estruturante são preenchidas pelo
fechamento.
Transformação “hit or miss”
A idéia básica por trás da transformação “hit or miss”
consiste em se testar a parte interna e externa de um
conjunto. Para isso, são necessários dois elementos
estruturantes, que formarão um elemento estruturante
composto e que, obrigatoriamente, possuam uma única
origem. A transformação “hit or miss” também pode
ser definida em termos de uma interseção de duas
erosões [1]: HMTB ( X ) = ε B1 ( X ) I ε B2 ( X c ) . Por
definição, B1 e B2 devem possuir a mesma origem.
Estes precisam também ser disjuntos [1]: B1 I B2 = 0.
127
SERGIO RODRIGUES NEVES
A transformação “hit or miss” é usada, geralmente,
para encontrar configurações específicas de pixels em
imagens.
Afinamento
O afinamento consiste em remover os pixels que
pertencem a objetos que tem uma dada configuração.
Em outras palavras, a transformada “hit or miss” da
imagem é subtraída da imagem original.
[∂ B ( f )]( x) se [∂ B2 ( f )]( x) < f ( x) e f ( x) = [ε B1 ( f )]( x)
( f Ο B)( x) =  2
 f ( x) qualquer outro
Espessamento
O espessamento consiste em adicionar pixels de fundo
com uma configuração específica para o conjunto de
pixels do objeto.
O espessamento (X  B) de uma imagem X por um
elemento estruturante composto B é definido como a
união da transformação “hit or miss” da imagem com
a imagem original [1] (Figura 11):
[ε B ( f )]( x) se [∂ B2 ( f )]( x) = f ( x) e f ( x) < [ε B1 ( f )]( x)
( f  B)(x)=  2
 f ( x ) qualquer outro
FIGURA 11
Afinamento e Espessamento. Da esquerda para a direita:
imagem original, imagem afinada e imagem após o
espessamento.
Esqueleto
Em reconhecimento de padrões e análise de formato,
são necessários métodos para extração das
características de um objeto. Uma abordagem possível
consiste em afinar o objeto, com a intenção de formar
um conjunto de linhas finas que condensem a
informação do objeto original, preservando sua
homotopia: é o chamado esqueleto do objeto. A partir
deste, a detecção de pontos finais, pontos múltiplos e
malhas fechadas a partir do esqueleto são algumas das
ações importantes para as tarefas de reconhecimento
de formato, que podem ser realizadas.
128
Várias definições para o esqueleto de um conjunto
euclidiano estão disponíveis, mas conduzem sempre
a um mesmo esqueleto. Como exemplo, podem ser
citados os processos conhecidos como “fogo na grama” ou “propagação de frente de onda”. No caso
do “fogo na grama” ou “propagação de frente de
onda”, se for assumido que fogo, ou uma frente de
onda, é iniciada dos pontos de contorno de um objeto X e estes se propagam em velocidade uniforme
dentro do objeto; o esqueleto de X é, então, o conjunto de pontos onde o fogo ou as ondas se encontram. Por exemplo, o esqueleto de um disco é o seu
centro, porque é o lugar onde o fogo ou as frentes de
onda se encontram simultaneamente.
A extensão da definição de esqueleto para imagens
discretas conduz a uma variedade de esqueletos. Noções como as descritas anteriormente como “propagação de frente de onda” não tem equivalente discreto único e direto. Então, a adaptação das definições
existente para o caso contínuo conduz a uma grande
variedade de esqueletos que não compartilham das
mesmas propriedades, sendo dependentes do elemento estruturante escolhido. Além disso, muitas adaptações dos processos conduzem a esqueletos não conectados, que são úteis em processos de compressão,
mas, para a descrição de formato, são de pouca utilidade. Alguns procedimentos para a extração do esqueleto discreto são:
a) por abertura – Esse processo utiliza quadrados
como aproximação dos discos como elemento
estruturante e pode ser definido como [1]:
SK ( X ) =
U{ε
λB
( X ) − γ B [ε λB ( X )]}
λ ≥0
Onde X é a imagem, B é o quadrado elementar de
tamanho três e λB é um quadrado de comprimento
2λ +1. Na Figura 12, pode ser observado que o
esqueleto resultante não é conectado nem possui
espessura de um pixel.
FIGURA 12
Esqueleto por abertura. Da esquerda para a direita:
imagem original e esqueleto por abertura.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
SENSORES E GUERRA ELETRÔNICA
b) afinamento homotópico – Um esqueleto não conectado
como o da Figura 12, é de pouca utilidade para
aplicações de descrição de formatos de objetos porque
a homotopia não é preservada e pontos característicos,
como pontos de extremo, não são preservados. Um
esqueleto de uma imagem discreta pode preservar
estas propriedades importantes, se o processo for
executado com elementos estruturantes que preservem
sua homotopia. O esqueleto é obtido através do
afinamento da imagem de entrada por um ou uma
série de elementos estruturantes homotópicos e sua
rotação até a estabilidade. Esse processo é chamado
de afinamento seqüencial [1]. A fórmula para o
afinamento seqüencial (X O B )de X por n rotações
de um elemento estruturante B (è 1B, è2B, ... è nB) é: X
O B=(...( (X O è 1B) O è2B)...) ènB
O afinamento seqüencial é repetido até a estabilidade,
isto é, até que a entrada tenha sido reduzida a um
conjunto de linhas afinadas conectadas. Cada elemento
estruturante homotópico define um tipo diferente de
esqueleto (Figura 13).
FIGURA 13
Esqueleto por afinamento homotópico. Da esquerda
para a direita: imagem original e esqueleto por
afinamento homotópico.
Transformações geodésicas
As transformações geodésicas utilizam duas imagens
de entrada. Esse tipo de operação é bastante útil
quando é necessário alterar apenas algumas estruturas
da imagem, deixando outras intactas. Um operador
morfológico é aplicado à primeira imagem e o
resultado é forçado a permanecer maior ou menor
do que a segunda imagem, dependendo da operação
realizada. Serão descritas aqui algumas transformações
geodésicas: a dilatação geodésica, a erosão geodésica
e a reconstrução morfológica.
Dilatação geodésica
ser maior ou igual à imagem marcadora. A imagem
marcadora é dilatada, primeiramente, por um elemento
estruturante elementar. A imagem resultante é forçada
a permanecer menor que a imagem máscara. A
imagem máscara age como se fosse um limite para a
dilatação da imagem marcadora. Considerando f
como a imagem marcadora e g a imagem máscara, a
dilatação geodésica ( ∂ (g1))pode ser definida como [1]:
∂ (g1) = ∂ (1) ( f ) ∧ g . Onde ∂ (1) é a dilatação elementar e
fd”g.
Erosão geodésica
A erosão geodésica (ε g(1) ) é a transformação dual da
dilatação geodésica com respeito ao complemento da
imagem. Pode ser definida como [1]:
ε g(1) ( f ) = ε (1) ( f ) ∨ g . Ondeε (1) é a erosão elementar e
f e” g.
Reconstrução Morfológica
As dilatações e erosões geodésicas de um tamanho
determinado são raramente usadas na prática [1]. Sua
iteração até a estabilidade, no entanto, possibilita a
definição de poderosos algoritmos de reconstrução
morfológica. Dilatações e erosões geodésicas sempre
convergem depois de um número finito de iterações
em que o espessamento ou afinamento da imagem
marcadora é controlado pela imagem máscara.
• Reconstrução Morfológica por Dilatação
A reconstrução morfológica por dilatação [1] pode
ser compreendida como uma dilatação condicional.
A partir de uma “semente” definida entre os objetos
de uma cena, na imagem marcadora, é realizada uma
dilatação a partir de um elemento estruturante
elementar. O resultado dessa operação será
comparado com uma máscara, e o resultado a ser
considerado será a interseção dessas duas imagens. O
processo é repetido até o equilíbrio, ou seja, até que o
resultado seguinte seja igual ao anterior. Com essa
operação, é possível a extração ou a recuperação de
elementos, desde de que se saiba sua posição (Figura
14). A reconstrução morfológica por dilatação (Rg ( f ))
de uma imagem f com imagem máscara g pode ser
definida como: R g ( f ) = ∂ ig ( f ) . Onde i é tal que:
∂ ig ( f ) = ∂ ig+1 ( f ) .
A dilatação geodésica envolve uma imagem marcadora
e uma imagem máscara. Ambas as imagens devem
possuir o mesmo domínio, e a imagem máscara deve
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
129
SERGIO RODRIGUES NEVES
Segmentação Morfológica e Transformação
Watershed
A principal ferramenta da morfologia matemática para
as técnicas de segmentação é a transformação
watershed, que será brevemente descrita a seguir.
(a)
(b)
(c)
FIGURA 14
Reconstrução morfológica por dilatação: (a) Imagem
marcadora (b) Imagem máscara (c) Reconstrução
morfológica por dilatação. Repare que só os elementos
que possuem “sementes” na imagem marcadora são
recuperados.
• Reconstrução morfológica por erosão
Na reconstrução morfológica por erosão, a erosão
geodésica é que realiza a iteração até a estabilidade.
Como, nesse caso, a imagem f é menor que a imagem
máscara g, os objetos contidos na imagem são
encolhidos até o limite imposto por g (Figura 15). A
reconstrução morfológica por erosão (R g* ( f ) ) de uma
imagem f com uma imagem máscara g:
Transformação Watershed
O conjunto de todos os pontos {x,f(x)} pertencentes
a uma imagem pode ser considerado como uma
superfície topográfica S. Quanto mais claro é o tom
de cinza f no ponto x, maior é a altitude do ponto
correspondente. Partindo disso, o conceito de
watersheds é relativamente simples: a imagem vista
topograficamente possuirá “vales” e “picos” de
diversas alturas. Se for considerado que água escorre
por esses “vales” até atingirem seus pontos mais baixos,
e essa água continua a escorrer até que esses “vales”
sejam inundados um a um com diques em suas linhas
divisórias, para impedir que a inundação de um vale
invada outro, essas linhas divisórias resultantes dessas
múltiplas inundações são as watersheds (vide Figura
16).
R g* ( f ) = ε gi ( f ) . Onde i é tal que: ε gi ( f ) = ε gi +1 ( f ) .
(a)
(b)
(c)
FIGURA 15
Reconstrução morfológica por erosão. (a) Imagem
marcadora (b) Imagem máscara (c) Reconstrução
morfológica por erosão. Repare que só os elementos
que possuem limites na imagem máscara e “sementes”
na imagem marcadora permanecem.
Filtragem Morfológica
Em processamento de sinais, a filtragem linear
geralmente é usada, por exemplo, para as tarefas de
remover ou extrair freqüências altas ou baixas de
imagens ou, genericamente falando, resolver problemas
ligados a fenômenos lineares. Filtros morfológicos são
filtros não-lineares, que são adequados, principalmente,
a dois tipos de tarefas: a restauração de imagens
corrompidas por algum tipo de ruído e a remoção
seletiva de objetos ou estruturas de imagens,
conservando todas as outras intactas.
130
FIGURA 16
Mínimos, bacias de segmentação e Watersheds.
APLICAÇÕES
Muitos são os exemplos de aplicações das técnicas
baseadas em morfologia matemática. Podem ser
citados artigos sobre filtragem de imagens [5] e
extração de informação em imagens SAR [6].
Em imagens infravermelhas, em que os contornos dos
objetos representam os principais elementos para as
tarefas de extração de características e classificação, as
técnicas morfológicas representam uma ferramenta
poderosa. Sua versatilidade para, por exemplo,
filtragem de imagens, pode ser confirmada através
das figuras 17 e 18.
Na Figura 17, a seguir, é realizada uma filtragem de
uma imagem infravermelha impregnada de ruído do
tipo “salt and pepper”, através de um operador
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
SENSORES E GUERRA ELETRÔNICA
abertura seguido por um operador fechamento. O
efeito conseguido se aproxima de uma filtragem passabaixas.
FIGURA 19
Segmentação utilizando o método descrito em [7]
sobreposta à imagem original
FIGURA 17
Da esquerda para a direita: imagem original, imagem
com ruído e imagem filtrada.
Na Figura 18, após uma segmentação inicial, a imagem
apresenta o contorno de objetos pequenos, que não
são relevantes e podem incluir a marcação de um alvo
falso para um processo de classificação. A partir de
uma abertura por área, que é uma operação
morfológica baseada em reconstrução morfológica e
que mantém objetos acima de um tamanho
estabelecido, só é mantido o alvo considerado relevante.
CONCLUSÃO
Neste artigo, foi apresentada uma introdução à
morfologia matemática e suas aplicações, em especial
àquelas que podem ser utilizadas para o
processamento de imagens infravermelhas.
REFERÊNCIAS
1. SOILLE, P., “Morphological Image Analysis – Principle and Applications”,
Springer, 1999.
2. FACON, J., “Morfologia Matemática: Teoria e Exemplos”, Editor Jacques
Facon, 1996.
3. GIARDINA, C. R. e DOUGHERTY E. R., “Morphological Methods in
Image and Signal Processing”, Prentice-Hall, 1988.
4. SERRA J., “Image Analysis and Mathematical Morphology”, New York:
Academic Press, 1983.
5. BANON, G. ; e BARRERA, J., “Morphological filtering for stripping
correction of SPOT images”, Photogrammetria (PRS) 43, pp.195-205,
1989.
FIGURA 18
Segmentação inicial e filtragem de pequenos alvos
falsos.
Assim, através do uso de técnicas morfológicas, é
possível realizar uma filtragem linear ou não-linear
numa imagem infravermelha.
6. CHANUSSOT, J. e LAMBERT, P. “An application of mathematical
mor pholog y to road extraction on SAR images” em Mathematical
morphology and its applications to image and signal processing –
Heijmans,H e Roednick , J; Kluwer Academic Publishers, pp. 399406, 1998.
7. NEVES, S. R.; SILVA E. A. B. and VIEIRA G. V., “Wavelet-Watershed
Automatic Infrared Image Segmentation Method”, Electronic Letters, Vol.
39, Issue 12, pp. 903-904, June 2003.
Como outro exemplo de aplicação de técnicas
morfológicas em imagens infravermelhas, podemos
citar o método de segmentação apresentado em [7],
onde são unidos operadores morfológicos e
transformada wavelet (Figura 19).
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 123-131
131
132
MATERIAIS ESPECIAIS
Efeito da concentração de Co e Ti nas propriedades
absorvedoras de microondas de compósitos de
M-hexaferritas de bário com policloropreno
Magali Silveira Pinho
Instituto de Pesquisas da Marinha (IPqM). Instituto de Macro-moléculas
(IMA) da Universidade Federal do Rio de Janeiro (UFRJ).
E-mail: [email protected]
Roberto da Costa Lima
Instituto de Pesquisas da Marinha (IPqM). PEMM – COPPE da
Universidade Federal do Rio de Janeiro (UFRJ)
E-mail: [email protected]
Bluma Guenther Soares
Instituto de Macromoléculas (IMA) da Universidade Federal do Rio
de Janeiro (UFRJ)
Regina Celi Reis Nunes
Instituto de Macromoléculas (IMA) da Universidade Federal do Rio
de Janeiro (UFRJ)
Resumo
Materiais absorvedores de radar (RAM) consistem de
revestimentos, cujas propriedades elétricas e magnéticas têm
sido alteradas de forma a fornecerem absorção máxima da
energia eletromagnética na faixa de microondas, com
conseqüente redução da assinatura radar das plataformas
militares. Neste trabalho, amostras de hexaferritas de bário do
tipo M com diferentes concentrações de Co e Ti foram
veiculadas individualmente a matrizes de policloropreno (CR),
para investigar o efeito da substituição desses íons na
absorção de microondas para as bandas X – Ku. A absorção
máxima de microondas de 99,0 % em, aproximadamente,
14,0 GHz foi observada para o compósito 80:20 (% em peso)
de BaCo 0,85Ti0,85Mn0,10Fe10,20O19,00:CR.
Palavras-chave
Hexaferritas de bário do tipo M. Substituição por Co e Ti.
Compósitos de policloropreno. Material absorvedor de radar.
Guia de ondas.
Effect of CO and TI concentration on the
microwave absorption properties of barium
M-hexaferrites and polychloroprene composites
Abstract
Radar absorbing materials (RAM) are coatings whose electrical
and magnetic properties have been altered to allow the
greatest absorption of the microwave energy, reducing the
radar signatures of military platforms. In this work, samples of
barium M-hexaferrites with different concentrations of Co and
Ti were processed individually with polychloroprene (CR)
matrices to investigate the effect of these substituted ions on
the microwave absorption for the X – Ku bands. The maximum
microwave absorption of 99.0 % at approximately 14.0 GHz,
was observed for the composite 80:20 (wt. %) of
BaCo0,85Ti0,85Mn0,10Fe10,20O19,00:CR.
Keywords
M-type barium hexaferrites. Co-Ti substitution. Polychloroprene
composites. Radar absorbing material. Waveguide.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136
INTRODUÇÃO
Hexaferritas de bário são materiais cerâmicos
policristalinos com propriedades magnéticas, que
devido às possíveis combinações de composições
químicas e estruturais, podem ser utilizadas em várias
aplicações específicas. Esses materiais são classificados
de acordo com as suas estruturas em: BaFe12O19 (tipo
M), BaMe2Fe16O27 (tipo W), Ba2Me2Fe28O46 (tipo X),
Ba2Me2Fe12O 22 (tipo Y) e Ba3Me 2Fe24O41 (tipo Z),
onde Me representa um íon divalente [1 – 5].
O método convencionalmente utilizado para a
obtenção de hexaferritas de bário tem sido por mistura
de óxidos, que apresenta como principais desvantagens
a introdução de impurezas, resultando em tensões na
rede cristalina e irregularidades no formato, além do
aumento do tamanho das partículas, em decorrência
da utilização de temperaturas mais elevadas, em
comparação com os métodos químicos.
O emprego de materiais absorvedores de microondas,
em particular os RAM, tornou-se um dos campos
mais fascinantes da engenharia de materiais, embora
ainda represente um grande desafio [1].
Um RAM deve ser constituído por compostos, com
elevada perda de energia, que absorvem a radiação
incidente em freqüências sintonizadas e dissipam a
energia absorvida sob a forma de calor, inibindo a
energia necessária para o sinal de eco de detecção por
radar [1, 2].
Para as medidas realizadas em guia de ondas, Nicolson
e Ross desenvolveram um método para a
determinação dos valores, relativos ao vácuo, de
permeabilidade complexa (µr*) e de permissividade
complexa (ε r *), a partir dos parâmetros de
espalhamento (S11 e S21) [6, 7].
Este trabalho tem por objetivo estudar o efeito de
diferentes concentrações dos dopantes Co e Ti sobre
133
MAGALI SILVEIRA PINHO, ROBERTO DA COSTA LIMA, BLUMA GUENTHER SOARES, REGINA CELI REIS NUNES
as propriedades absorvedoras de microondas de CoxTixMnBaHF (com x = 0,80 e 0,85) para a faixa de
freqüência de 8,0 a 16,0 GHz.
METODOLOGIA
Materiais
As sínteses das M-hexaferritas de bário ocorreram
através da técnica convencional de misturas de pós
[1, 3].
As matérias primas utilizadas para obtenção das Mhexaferritas de bário dopadas com cobalto, titânio e
manganês (Co-TiMnBaHF) consistiram de óxido de
ferro (Fe2O3), carbonato de bário (BaCO3), óxido de
titânio (TiO2), óxido de cobalto (CoO) e óxido de
manganês (Mn 2O 3), empregados em quantidades
estequiométricas [1]. Foram obtidas as composições
BaCo 0,80 Ti 0,80 Mn 0,10
Fe 10,30 O 19,00
e
BaCo0,85Ti0,85Mn0,10Fe10,20O19,00.
Método de Transmissão/Reflexão (T/R)
A permeabilidade e permissividade complexas (µr* e
εr*, respectivamente) foram determinadas a partir de
dados de espalhamento, por intermédio do analisador
vetorial de redes HP 8510, que determina as perdas
de inserção e retorno em magnitude e fase de amostras
submetidas a teste (SUT, “Sample Under Test”), através
da comparação entre o sinal refletido e o transmitido
pela SUT [7 – 9].
Difração de Raios-X
Os produtos foram analisados sob a forma de pós
pelo difratômetro de Raios-X Siemens/Brucker-AXS
D5005.
RESULTADOS E DISCUSSÃO
A Figura 1 ilustra o difratograma para a amostra de
BaCo0,85Ti0,85Mn0,10Fe10,20O19,00 analisada sob a forma
de pó.
Obtenção dos Compósitos com o Policloropreno
As amostras de M-hexaferritas de bário foram
misturadas, em adição aos agentes de vulcanização,
com o CR, resultando na composição percentual em
peso 80:20 de M-hexaferrita de bário:policloropreno
[1].
As misturas físicas foram realizadas em um misturador
de cilindros Berstoff à temperatura ambiente e com
velocidades de 22 e 25 rpm (anterior e posterior), de
acordo com os procedimentos clássicos empregados
pela indústria de borracha. As blendas foram moldadas
por compressão a 150 °C e 6,7 MPa. Os corpos de
prova foram obtidos sob a forma de tapetes
vulcanizados, com dimensões de 4,0 x 4,0 cm e
espessuras de 0,15 cm [2, 6].
Técnicas de Caracterização
Análise Morfológica por SEM
A observação micromorfológica das amostras de
compósitos crioscopicamente fraturadas foi realizada
pelo emprego de um microscópio eletrônico de
varredura Leica Mod S440, utilizando o detector de
elétrons secundários.
134
FIGURA 1
Difratograma da amostra de BaCo 0,85 Ti 0,85 Mn 0,10
Fe10,20O19,00 analisada sob a forma do pó.
O difratograma da amostra de BaCo 0,85
Ti 0,85 Mn 0,10 Fe 10,20 O 19,00 não apresentou mudança
significativa em relação a amostra de
BaCo 0,80 Ti 0,80 Mn 0,10 Fe 10,30 O 19,00 , decorrente do
emprego de diferentes concentrações de Co e Ti e foi
semelhante ao do padrão JCPDS 27-1029 [1].
A Figura 2 a seguir, ilustra as imagens obtidas por
SEM para os compósitos 80:20 de (a)
BaCo 0,80 Ti 0,80 Mn 0,10 Fe 10,30 O 19,00 :CR
e
(b)
BaCo0,85Ti0,85Mn0,10Fe10,20 O19,00:CR.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136
MATERIAIS ESPECIAIS
FIGURA 2
Imagens de SEM dos compósitos obtidas por fratura crioscópica.
Pelas imagens de SEM, pode ser observada a boa
dispersão das partículas de M-hexaferritas de bário
em CR, apesar do elevado carregamento utilizado e
da tendência à formação de aglomerados magnéticos
[1, 9].
A avaliação do desempenho dos compósitos como
RAM é ilustrada pela Figura 3.
FIGURA 3
Curvas de refletividade dos compósitos.
Pelos resultados apresentados, o compósito 80:20 de
BaCo0,85Ti0,85Mn0,10Fe10,20O19,00:CR apresentou o melhor
desempenho como RAM, com absorção de
microondas superior a 96,90 % para a faixa de
freqüência de 12,0 a 16,0 GHz, que pode ser atribuído
à utilização do maior percentual dos dopantes Co e
Ti.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136
CONCLUSÃO
A concentração dos dopantes Co e Ti influenciou na
absorção de microondas, onde a utilização de um
maior percentual desses substituintes resultou em uma
absorção superior a 96,90 % para a faixa de freqüência
de 12,0 a 16,0 GHz (banda Ku), com valores de
refletividade inferiores a –15 dB.
135
MAGALI SILVEIRA PINHO, ROBERTO DA COSTA LIMA, BLUMA GUENTHER SOARES, REGINA CELI REIS NUNES
AGRADECIMENTOS
Os autores agradecem ao Centro de Tecnologia Mineral
(CETEM) pela análise de SEM.
REFERÊNCIAS
1. PINHO, M. S.- Dsc. Tese – Instituto de Macromoléculas Prof.
Eloisa Mano, UFRJ, 2002. “Materiais absorvedores de radiação
eletromagnética em matrizes de policloropreno”.
4. CHO, H. S.; KIM, S. S.; “M-hexaferrites with planar magnetic
anisotropy and their application to high-frequency microwave
absorbers”, IEEE Transactions on Magnetics 35: (5) 3151-3153, Part 1,
Sep. 1999.
5. SUÁREZ, N.; SÁNCHEZ, J.L.; DIAZ, S.; CUETO, A.; LÓPEZ, G.;
OÑATE, J.; “Magnetic properties of Ba1-xREx/2Nax/2Fe12O19 (RE
= La, Gd, Lu; 0.0 £ x £ 0.3) hexagonal ferrites”, Magnetism, Magnétic
Materials and their applications: Section III (Part 2), La Habana, Cuba, 2129 May 1991.
6. PINHO M. S. LIMA R.C. NUNES R. C. R. SOARES B. G. Polímeros,
Ciência e Tecnologia 1999, 4:23-26.
2. HONG, Y. S.; HO, C. M.; HSU, H. Y.; LIU, C. T.; “Synthesis of
nanocrystalline Ba(MnTi)xFe 12-2xO19 powders by sol-gel combustion
method in citrate acid-metal nitrates system (x=0, 0.5, 1.0, 1.5, 2.0)”,
Journal of Magnetism and Magnetic Materials 279 401-410, 2004.
7. NICOLSON A. M. and ROSS G. IEEE Trans. Instrum. Meas. 1970;
IM-19:377-382.
3. LIMA, R. C., PINHO, M. S.; OGASAWARA, T.; “Absorção de
microondas da hexaferrita de bário tipo M dopada com sódio e
lantânio”, Pesquisa Naval 17 98-101, 2004.
9. LIMA, R. C. – Msc. Tese – Programa de Engenharia Metalúrgica e
de Materiais da COPPE/UFRJ, 2002. “Efeito da substituição de bário
por lantânio-sódio nas propriedades absorvedoras de microondas
da hexaferrita de bário tipo M”.
136
8. BAKER-JARVIS J. NIST Techn. Note1993; 1355 – R:40.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 133-136
MATERIAIS ESPECIAIS
Efeito da temperatura na obtenção de
Zn-hexaferritas de bário do tipo Y
Roberto da Costa Lima
Instituto de Pesquisas da Marinha (IPqM). PEMM – COPPE da
Universidade Federal do Rio de Janeiro (UFRJ).
E-mail: [email protected]
Magali Silveira Pinho
Instituto de Pesquisas da Marinha (IPqM). Instituto de Macromoléculas
(IMA) da Universidade Federal do Rio de Janeiro (UFRJ)
E-mail: [email protected]
Tsuneharu Ogasawara
PEMM – COPPE da Universidade Federal do Rio de Janeiro (UFRJ).
Resumo
Neste trabalho, foi avaliado o efeito da temperatura na
obtenção de hexaferrita de bário do tipo Y substituída com
Zn, pelo método de sol-gel com autocombustão em sistema
nitrato-ácido cítrico. As técnicas empregadas na avaliação
deste efeito consistiram da Difração de Raios-X (XRD) e
Magnetometria de Amostra Vibrante (VSM). A temperatura de
calcinação considerada como ideal foi de 950 °C, confirmada
pela obtenção da fase cristalina de Ba 2Zn2Fe12O22.
Palavras-chave
Sol-gel. Hexaferrita de bário do tipo Y, XRD. Medidas de
magnetização.
Effect of temperature on the Y-type barium
ZN-hexaferrites preparation
Abstract
In this work, the effect of temperature in the preparation of
Zn-substituted Y-type hexaferrite by the sol-gel combustion
method in a nitrate citric system, was reported. This effect
was evaluated by X-Ray Diffraction (XRD) and Vibrating
Sample Magnetometry (VSM) techniques. The calcination
temperature considered as ideal was 950 °C, confirmed by
the presence of Ba2Zn2Fe12O22 single phase.
Keywords
Sol-gel. Y-type barium hexaferrite, XRD. Magnetization
measurements.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 137-139
INTRODUÇÃO
Hexaferritas de bário são materiais cerâmicos
policristalinos com propriedades magnéticas, que
devido às possíveis combinações de composições
químicas e estruturais, podem ser utilizadas em várias
aplicações específicas. Esses materiais são classificados
de acordo com as suas estruturas em: BaFe12O19 (tipo
M), BaMe2Fe16O27 (tipo W), Ba2Me2Fe28O46 (tipo X),
Ba2Me2Fe12O 22 (tipo Y) e Ba3Me 2Fe24O41 (tipo Z),
onde Me representa um íon divalente. Todos os
compostos da classe Y (Ba2Me2Fe12O22) apresentam
anisotropia planar à temperatura ambiente,
independentemente do íon metálico (ME) utilizado
[1-5].
O método convencionalmente utilizado para a
obtenção de hexaferritas de bário tem sido por mistura
de óxidos. No entanto, o desenvolvimento de novos
métodos, tais como o processo sol-gel, visa, além da
facilidade, um menor consumo de energia e obtenção
de pós em escala nanométrica [3, 6-8].
O método convencional por misturas de óxidos
apresenta como principal desvantagem a introdução
de impurezas, resultando em tensões na rede cristalina
e irregularidades no formato, além do aumento das
partículas, em decorrência da utilização de temperaturas
mais elevadas [1, 2, 5].
O método sol-gel com autocombustão apresenta
como principais características o menor tempo
reacional entre as soluções aquosas dos nitratos
metálicos e o ácido cítrico e a utilização de
temperaturas mais baixas, dificultando a evaporação
dos reagentes, resultando em composições químicas
mais homogêneas [3].
Neste trabalho, o método sol-gel com autocombustão
propiciou a utilização de uma temperatura mais baixa
de calcinação (950 °C) em relação ao convencional
(120 – 1300 °C), resultando na obtenção de um pó
homogêneo e ultrafino de Ba2Zn2Fe12O22, confirmada
pelas técnicas de XRD e VSM.
137
ROBERTO DA COSTA LIMA, MAGALI SILVEIRA PINHO, TSUNEHARU OGASAWARA
METODOLOGIA
efeitos decorrentes da utilização do tubo de cobre,
empregou-se o monocromador.
Materiais
Magnetometria de amostra vibrante
Um pó ultrafino de Ba2Zn 2Fe12O22 hexaferrita foi
sintetizado pelo método do precursor citrato (so-gel),
utilizando os seguintes produtos de partida com grau
de pureza PA: Fe(NO 3 ) 3 .9H 2 O, Ba(NO 3 ) 2 ,
Zn(NO3)2.6H2O ácido cítrico mono-hidratado em
razões estequiométricas, segundo o diagrama de blocos
ilustrado pela Figura 1.
Os ciclos de histerese foram fornecidos pelo
magnetômetro VSM 4500 da EG & G Princeton
Applied Research.
FIGURA 1
Diagrama da síntese de Ba2Zn2Fe12O22 pelo método solgel com autocombustão.
A mistura foi aquecida a 70oC com posterior adição
gota a gota de amônia até pH=7,5, para subseqüente
precipitação do complexo organometálico. A solução foi, então, aquecida 80oC para produção do gel
com elevada viscosidade. Esse gel foi levado à secura
e, posteriormente, aquecido a aproximadamente
250oC, resultando em reação de autocombustão.
Como resultado, foi obtido um pó ultrafino de
Ba2Zn2Fe12O22, que foi calcinado nas temperaturas de
850, 950 e 1000oC, por 4 h com taxa de aquecimento
de 10 oC/min.
RESULTADOS E DISCUSSÃO
A Figura 2 ilustra os ciclos de histerese para as amostras
de Ba 2 Zn 2 Fe 12 O 22 , calcinadas em diferentes
temperaturas.
FIGURA 2
Curvas de histerese para as amostras calcinadas em
diferentes temperaturas.
Pelos resultados apresentados nos ciclos de histerese,
pode-se obser var que, a 950 o C, o material já
apresentou comportamento magnético característico
das ferritas macias. Tal comportamento não foi
observado para a temperatura de calcinação de 850oC,
como ilustra a Figura 3.
Técnicas de Caracterização
Difração de Raios-X
Os produtos calcinados nas diferentes temperaturas
foram analisados pelo difratômetro de Raios-X
PANalytical X’Pert PRO. A velocidade do goniômetro
(varredura de passo) foi de 0,02°, 2θ por passo com
tempo de contagem de 1,0 segundo por passo. A
radiação utilizada foi de Kα do Cu (λ= 1,5448 Å)
para ângulos de 2θ entre 20 e 70°. Para compensar os
138
FIGURA 3
Difratogramas para as amostras calcinadas em diferentes
temperaturas.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 137-139
MATERIAIS ESPECIAIS
Na Figura 3, para a temperatura de 850°C, pode ser
obser vada a presença de outras fases (Y=
Ba2Zn2Fe12O22, M= BaFe12O19, S= BaFe12O19, F= gFe 2O 3) e o alargamento dos picos, que pode ser
atribuído à presença do precursor orgânico (material
amorfo). Para as temperaturas de 950 e 1000 oC,
ocorreu a formação da única fase cristalina de
Ba2Zn2Fe12O22, indicando que 950oC é a temperatura
economicamente viável.
CONCLUSÃO
A Zn-hexaferrita de bário tipo Y, sob a forma de pó
ultrafino, foi obtida pelo método do citrato com
autocombustão. A temperatura de calcinação ideal para
obtenção de uma única fase foi de 950 °C, tendo sido
confirmada por intermédio das técnicas de XRD e
VSM.
REFERÊNCIAS
1. PINHO, M. S.- Dsc. Tese – Instituto de Macromoléculas Prof.
Eloisa Mano, UFRJ, 2002. “Materiais absorvedores de radiação
eletromagnética em matrizes de policloropreno”.
2. LIMA, R. C., PINHO, M. S.; OGASAWARA, T.; “Absorção de
microondas da hexaferrita de bário tipo M dopada com sódio e
lantânio”, Pesquisa Naval 17 98-101, 2004.
3. HONG, Y. S.; HO, C. M.; HSU, H. Y.; LIU, C. T.; “Synthesis of
nanocrystalline Ba(MnTi)xFe12-2xO19 powders by sol-gel combustion
method in citrate acid-metal nitrates system (x=0, 0.5, 1.0, 1.5, 2.0)”,
Journal of Magnetism and Magnetic Materials 279 401-410, 2004
4. CHO, H. S.; KIM, S. S.; “M-hexaferrites with planar magnetic
anisotropy and their application to high-frequency microwave
absorbers”, IEEE Transactions on Magnetics 35: (5) 3151-3153, Part 1,
Sep. 1999.
5. SUÁREZ, N.; SÁNCHEZ, J.L.; DIAZ, S.; CUETO, A.; LÓPEZ, G.;
OÑATE, J.; “Magnetic properties of Ba1-xREx/2Nax/2Fe12O19 (RE
= La, Gd, Lu; 0.0 £ x £ 0.3) hexagonal ferrites”, Magnetism, Magnétic
Materials and their applications: Section III (Part 2), La Habana, Cuba, 2129 May 1991.
6. QUEFFLEC, P., GELIN, P., GIERALTOWSKI, J. and LOAEC, J.,
IEEE Transactions on Magnetics; 30 (2), 224-230, 1994.
7. PINHO, M. S., GREGORI, M. L., NUNES, R. C. R., SOARES, B. G.,
European Polymer Journal, 38, 2321-2327, 2002.
AGRADECIMENTOS
Os autores agradecem ao pesquisador Manoel Ribeiro da Silva
pelas análises no magnetômetro de amostra vibrante (IFUFRJ/ UNIFEI).
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 137-139
8. LIMA, R. C. – MSc. Tese – Programa de Engenharia Metalúrgica e
de Materiais da COPPE/UFRJ, 2002. “Efeito da substituição de bário
por lantânio-sódio nas propriedades absorvedoras de microondas
da hexaferrita de bário tipo M”.
139
CAPITÃO-TENENTE (EN) WILLIAM ROMÃO BATISTA, MARIA HELENA CAMPOS BAETA NEVES, ANDRÉ LUIZ MAZZEI ALBERT,
ROSANGELA SABBATINI CERQUEIRA LOPES, JARÍ NÓBREGA CARDOSO, CLÁUDIO CERQUEIRA LOPES
Avaliação da atividade antiincrustante de
glicerofosfolipídios isolados de organismos
marinhos da região de Arraial do Cabo – RJ
Capitão-Tenente (EN) William Romão Batista
Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM.
Maria Helena Campos Baeta Neves
Instituto de Estudos do Mar Almirante Paulo Moreira – IEAPM.
André Luiz Mazzei Albert
Departamento de Química Analítica do Instituto de Química – IQ.
Universidade Federal do Rio de Janeiro – UFRJ.
Rosangela Sabbatini Cerqueira Lopes
Departamento de Química Analítica do Instituto de Química – IQ.
Universidade Federal do Rio de Janeiro – UFRJ.
Jarí Nóbrega Cardoso
Departamento de Química Analítica do Instituto de Química – IQ.
Universidade Federal do Rio de Janeiro – UFRJ.
Cláudio Cerqueira Lopes
Departamento de Química Analítica do Instituto de Química – IQ.
Universidade Federal do Rio de Janeiro – UFRJ.
Resumo
Um dos grandes problemas enfrentados ao dispor qualquer
estrutura no mar é a ação natural denominada por
bioincrustação ou somente incrustação, que é o processo de
colonização por crescimento de bactérias, algas e
invertebrados sésseis, o qual se desenvolve sobre
estruturas submersas naturais ou artificiais. Visando eliminar
ou amenizar este problema, o homem vem se utilizando de
produtos que tenham o efeito de impedir ou retardar a
evolução da bioincrustação nestas estruturas. Dentre os
vários produtos até hoje utilizados, o TBT (tributil-estanho)
foi o que apresentou maior eficácia, porém devido a
constatação do seu efeito nocivo ao meio ambiente, a
sociedade optou por seu banimento.
O presente artigo avalia a utilização como agente
antiincrustante de substâncias do grupo dos
glicerofosfolipídios, onde um glicerofosfolipídio disponível
comercialmente e oito extratos lipóides de quatro organismos
marinhos, três espécies de esponjas marinhas e uma
espécie de molusco marinho, os quais possivelmente contêm
glicerofosfolipídios análogos, são utilizados em ensaios
microbiológicos de incrustação, onde lâminas de microscopia
recobertas unilateralmente com ágar-ágar contendo tais
compostos e fixadas em quatro painéis de acrílico são
submersas em um tanque contendo água do mar, sendo os
painéis retirados em diferentes intervalos de tempo e
avaliados quanto ao grupo e quantidade de microorganismos
aderidos, sendo observado um efeito antiincrustante em
relação a bactérias presentes na formação do biofilme,
estágio inicial do processo de bioincrustação, servindo deste
modo para subsidiar futuros trabalhos e possíveis
aplicações destes produtos, para fins industriais, visando a
substituição do TBT.
140
Palavras-chave
Antiincrustante. Biocida natural. Glicerofosfolipídios.
Bioincrustação. Fator Ativador de Plaquetas (PAF).
Antifouling activity evaluation of the
glycerophospholipids isolated from marine
organisms from Arraial do Cabo region – Rio
de Janeiro – Brazil
Abstract
One of the great problems faced when any structure is
placed in the sea, is the natural action known as biofouling,
also called incrustation, which is the process of settling and
growth of bacteria, algae and invertebrates sessil
organisms, developed on natural or artificially submerged
structures. Aiming to clarify up this problem, man has used
products that have the effect to hinder or delay the evolution
of biofouling in the structures placed in the seas and
oceans. Amongst the products used so far, TBT (tributil-tin)
was the substance which presented greater effectiveness,
however due to evidence of its harmful effect in the
environment the society opted for its banishment.
This work evaluated the use as a natural antifouling of
substances of the glycerophospholipid group. For this, one
commercial available glycerophospholipid and eight lipid
extracts of four marine organisms, including three species
of sea sponges and one species of a marine mollusk, which
could possibly contain analogs of these substances, have
been used in microbiological fouling assays, where slides
unilaterally covered with agar-agar containing such
extracts, were fixed in four acrylic panels and submerged in
a tank containing sea water. Each panel was removed at
different moments and evaluated with respect to the type and
amount of adhered microorganisms. The results had
indicated an antifouling effect against the bacteria present
in the biofilm, the early stage of biofouling formation,
serving in this way to subsidize futures work and possible
applications of these products, for industrial purposes,
aiming at the TBT substitution.
Keywords
Antifouling. Natural biocide. Glycerophospholipids. Fouling.
Platelet Activation Factor (PAF)
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145
MATERIAIS ESPECIAIS
INTRODUÇÃO
Navios que trafegam ou permanecem em áreas
tropicais ou subtropicais estão sujeitos aos mais severos
ataques por bioincrustação, particularmente em águas
mais rasas ou costeiras, onde há uma maior
disponibilidade de luz, calor e nutrientes.
Do ponto de vista militar, o crescimento das
incrustações nos cascos das embarcações é tido como
um sério e recalcitrante problema, devido ao fato de
promover a diminuição da velocidade final da
embarcação e sua manobrabilidade, obstruir janelas
de resfriamento, aumentar o gasto de combustível e
obrigar a docagens ou imobilizações mais freqüentes.
Tudo isto contribui para a falha em potencial de
qualquer ação militar, sendo estimado que a presença
de 5% de incrustação no casco pode aumentar o gasto
com combustível em 17%, e 1mm de espessura de
lodo no casco pode causar a perda de 15% de
velocidade final (LEWIS, 2001).
FIGURA 1
Rotíferas, Protozoário, Bactérias e Diatomáceas (na
seqüência).
O fenômeno natural denominado de bioincrustação
consiste de um processo natural, que ocorre com
qualquer estrutura quando posta em contato com água
onde exista a presença de microorganismos. Deste
modo, o mar desponta como sendo o local ideal para
que este processo venha ocorrer.
O terceiro estágio é a colonização secundária feita por
esporos de macroalgas, larvas de cracas, fungos, outras
bactérias e protozoários, que transformam o biofilme,
no decorrer da primeira semana, em uma composição
mais complexa.
O processo da bioincrustação inicia-se imediatamente
após o objeto ser colocado no mar, desenvolvendose até o ponto onde se verifica a presença de
macroorganismos marinhos como algas, cracas e
mexilhões. Tecnicamente o processo consiste de quatro
estágios, não rigorosamente seqüenciais, porém,
interdependentes.
O primeiro estágio inicia-se logo nos primeiros
minutos de contato da superfície com a água, quando
ocorre o acúmulo de moléculas orgânicas, tais como
polissacarídeos e proteínas. Isto permite, nas próximas
horas (24-96 h), o desenvolvimento do estágio
primári o d e c o l o n i z a ç ã o p o r b a c t é r i a s e
diatomáceas, as quais juntamente com
cianobactérias, protozoários e rotíferas (Figura 1),
formam um filme microbiológico chamado de
biofilme (segundo estágio).
A presença do biofilme permite que microorganismos
tenham maior proteção contra predadores, toxinas e
mudanças ambientais, além de permitir uma boa
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145
Adaptado a par tir das fontes www.ucmp.berkeley.edu e
www.kuranvebilin.com
disponibilidade de nutrientes apreendidos do meio
ambiente marinho, que ficam dispersos no próprio
biofilme.
O quarto estágio envolve o assentamento e o
crescimento de maiores organismos marinhos tais
como moluscos, briozoários, antozoários, poliquetas,
tunicados e crustáceos.
O tipo, a extensão e a severidade da bioincrustação
dependem de fatores como: tipo de substrato,
salinidade da água, luz ambiente, temperatura, poluição
e nutrientes disponíveis. Deste modo, a bioincrustação
tende a ser um fenômeno sazonal relacionado à posição
geográfica.
No combate a bioincrustação, várias ações podem
ser tomadas e, dependendo da situação e da
aplicabilidade, pode ser feita a remoção mecânica
periódica dos organismos incrustados; utilizar materiais
menos propensos a bioincrustação; usar proteção
eletroquímica, etc. Porém, o mais efetivo e econômico
método foi o uso de tintas antiincrustantes contendo
TBT (tributil-estanho).
Entre as décadas de 70 a 90, pesquisas demonstraram
a correlação de deformidades em moluscos com a
141
CAPITÃO-TENENTE (EN) WILLIAM ROMÃO BATISTA, MARIA HELENA CAMPOS BAETA NEVES, ANDRÉ LUIZ MAZZEI ALBERT,
ROSANGELA SABBATINI CERQUEIRA LOPES, JARÍ NÓBREGA CARDOSO, CLÁUDIO CERQUEIRA LOPES
presença de TBT no ambiente marinho, e que, para
alguns organismos, concentrações tão baixas como 1
(ng/L) mostravam-se tóxicas (ARMSTRONG et al.,
2000). Isto levou o Comitê de Proteção ao Meio
Ambiente Marinho – MEPC, pertencente a
Organização Marítima Internacional – IMO, adotar
uma resolução recomendando que os governos
adotassem medidas para restringir o uso de tintas
antiincrustantes com base no TBT, culminado na
assembléia da IMO em 1999. Nesta assembléia, foi
estabelecido um conjunto de ações, vigorando a partir
1º de janeiro 2003, para assegurar uma proibição global
da aplicação dos compostos de organo-estanho que
agem como biocidas em sistemas de pintura
antiincrustante em navios e a proibição completa da
presença de tais compostos até 1º de janeiro 2008.
O presente trabalho foi motivado pela questão
relacionada ao banimento promulgado para 01 janeiro
de 2008 do composto conhecido como tributil
estanho (TBT), principal e mais eficiente biocida
componente de tintas marítimas antiincrustantes usadas
na prevenção da bioincrustação, considerando que o
uso de um biocida não poluente é de fato a melhor
resposta para sua substituição no combate a
bioincrustação marinha. O mesmo se justifica pela
necessidade da existência comercial de produtos com
ação biocida ou antiincrustante, não agressivos ao meio
ambiente, que possam ser utilizados na preparação de
tintas marítimas antiincrustante.
à célula atingida, e (ii) devido a sua característica de
PAF-análogo, desencadear uma reação antagônica, p
ex. inflamação, inibição de síntese celular ou apoptose, ocasionando a repulsão ou morte do microorganismo.
A idéia da utilização de tais PAF-análogos como agente
antiincrustante, tem como princípio o que acontece
com outros tipos de células utilizadas na área médica
e farmacológica (MARATHE et al., 2001; BOTITSI
et al., 1998; KULIKOV e MUZYA, 1997; VENABLE
et al. 1993), que se baseia no possível desencadeamento
de uma reação antagônica ou processo inflamatório
nas células dos organismos incrustantes em contato
com tais produtos. Deste modo, espera-se que um
composto difundido no biofilme, que possa agir
ocasionando o rompimento ou mau funcionamento
desta estrutura, faça com que os organismos que
iniciam e formam o biofilme, tais como bactérias,
microalgas, protozoários, rotíferas, ovos e larvas, sejam
repelidos ou mortos, implicando na conseqüente
inibição do início do processo de incrustação.
O trabalho se limitou a ensaios em laboratório
utilizando água do mar in natura e visou verificar o
assentamento de microorganismos marinhos, tais
como bactérias, cianobactérias e diatomáceas, em
lâminas de microscopia devidamente preparadas
contendo as substâncias a serem avaliadas.
METODOLOGIA
OBJETIVOS
O principal objetivo deste trabalho foi avaliar a eficácia
antiincrustante de substâncias do grupo dos alquilglicerofosfolipídios análogos ao composto
denominado Platelet Activating Factor (PAF) ou Fator
Ativador de Plaquetas, que reconhecidamente possui
potente ação celular (STAFFORINI et al., 1997;
DENNIS, 1994; VENABLE et al. 1993; PRESCOTT
et al. 1990; STREMLER et al., 1989;
DEMOPOULOS et al., 1979; BLANK et al., 1979).
A hipótese básica assume que tais compostos, ao alcançar os invólucros celulares dos microorganismos,
possam: (i) devido à característica hidrofóbica de seu
radical alquídico, ser facilmente adsorvido por camadas de peptidoglicanos, polissacarídeos, lipo-polissacarídeos ou fosfolipídios presentes na membrana plasmática e, agindo como um surfactante, causar danos
142
PAF-análogos disponíveis comercialmente e extraídos
de organismos marinhos, tais como mexilhão e esponja
marinha, induzidos ao estresse por meio de inoculação
de substância química irritante (SUGIURA et al., 1991;
THOMPSON e HANAHAN, 1963), foram avaliados
em testes de laboratório quanto à eficácia
antiincrustante contra microorganismos presentes na
formação do biofilme, etapa fundamental ao processo
de bioincrustação marinha, sendo incorporados em
lâminas para microscopia recobertas por gel ágar-ágar
e dispostos em tanques contendo água bombeada
diretamente do mar.
Os organismos marinhos utilizados, uma espécie de
mexilhão (Figura 2), Perna perna (Linnaeus, 1758), e
três espécies de esponjas marinhas (Figura 3), Aplysina
fulva (Pallas, 1766), Amphimedon viridis (Duchassaing
& Michelotti, 1864) e Arenosclera brasiliensis (Muricy
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145
MATERIAIS ESPECIAIS
& Ribeiro, 1999) foram classificados e separados
em dois grupos dentro de cada espécie, para o
processo de extração com solventes (FOLCH et al.,
1957) (Figura 4).
FIGURA 2
Mexilhão Perna perna
FIGURA 4
Fluxograma do processo de extração
permanecendo sob inanição por 36 horas para o início
do processo de indução ao estresse, sendo, em seguida,
inoculados com solvente dimetil-sulfóxido (DMSO).
Os extratos lipóides, obtidos após concentração, foram fracionados usando uma coluna cromatográfica
de 1 cm de diâmetro, preenchida com 10 gramas de
sílica (250 – 115 mesh), visando separar a fração mais
polar contendo os glicerofosfolipídios de interesse.
FIGURA 3
Esponjas marinhas Aplysina fulva, Amphimedon viridis
e Arenosclera brasiliensis (Na seqüência).
O primeiro grupo de cada espécie, que não sofreu
nenhuma inoculação e serviu como referência, teve o
seu processo de extração iniciado imediatamente. O
segundo grupo foi transferido para recipientes
contendo água do mar filtrada, contendo baixos teores
de organismos planctônicos e material orgânico
particulado, mantida sob aeração forçada,
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145
As frações mais polares dos extratos iniciais, bem
como uma solução do branco de reagentes e uma
solução contendo um padrão de PAF-análogo (1O-octadecyl-2-O-methyl-sn-glycero-3phosphocholine) foram incorporadas a gel de ágarágar e, então, usados para recobrir unilateralmente
lâminas de microscopia (2,6 x 7,6 cm). As lâminas,
assim preparadas, foram fixadas em painéis de acrílico
(65 x 55 cm) e então dispostos em um tanque contendo
água do mar in natura (Figura 5, a seguir).
Os painéis, quatro ao total, foram retirados individual
e seqüencialmente a cada 48 horas. As lâminas foram
reservadas para posterior avaliação quanto ao grupo
e quantidade de microorganismos aderidos por meio
de microscopia de epifluorescência.
143
CAPITÃO-TENENTE (EN) WILLIAM ROMÃO BATISTA, MARIA HELENA CAMPOS BAETA NEVES, ANDRÉ LUIZ MAZZEI ALBERT,
ROSANGELA SABBATINI CERQUEIRA LOPES, JARÍ NÓBREGA CARDOSO, CLÁUDIO CERQUEIRA LOPES
FIGURAS 5
Tanque e painel utilizados nos experimentos
RESULTADOS E DISCUSSÃO
Na apresentação gráfica dos dados (Figura 6), onde
estão correlacionados o número total de bactérias
gram-negativas aderidas por cm 2 de lâmina dos
extratos inoculados e referência de cada espécie, tendo
por base de comparação os valores obtidos pelos
controles branco e padrão, podemos observar a
dissimilidade da resposta do padrão em relação ao
branco de reagentes e aos demais extratos avaliados,
indicando em todas as comparações uma menor
adesão.
A avaliação dos dados estatísticos, onde foi realizada
uma abordagem não paramétrica semelhante ao teste
de Friedman, considerando-se uma transformação
dos dados por ranking total e posterior análise de
variância com dois critérios de classificação, Two-way
ANOVA (MILLER e MILLER, 2000; ZAR, 1996) –
cálculo aqui não apresentado – demonstrou que os
extratos que possuíam indícios de PAF-análogos não
apresentaram uma ação antiincrustante comparável ao
controle do padrão, um PAF-análogo comercialmente
disponível, porém acredita-se que a concentração de
tais compostos no extrato tenha sido inicialmente
superestimada, o que pode ter ocasionado um
resultado não significativo.
Com relação ao padrão de PAF-análogo utilizado, o
mesmo mostrou-se eficaz como um agente inibidor
da adesão bacteriana, o qual apresentou, em
comparação ao branco de reagentes, uma menor
adesão de bactérias gram-negativas. Contudo, nada se
pode inferir sobre o mecanismo da ação inibidora,
ou seja, se ela ocorreu por ação surfactante ou por
144
FIGURA 6
Número total de microorganismos aderidos nos extratos
em comparação aos controles branco e padrão.
sinalização celular. Por outro lado, devido à diminuta
quantidade de adesão das cianobactérias e diatomáceas,
não foi possível fazer qualquer avaliação relacionada a
estes microorganismos. Para isto, devemos atentar para
um maior tempo de imersão dos experimentos,
permitindo que tal adesão venha a ocorrer,
possibilitando assim obter uma maior quantidade de
dados relacionados a estes microorganismos.
CONCLUSÃO
A utilização de um composto análogo ao PAF como
um agente antiincrustante, apresenta-se como uma
promissora perspectiva na substituição do TBT, pois
apresenta uma molécula de fácil síntese, ao contrário
de outros biocidas naturais já pesquisados, e sua
possível atuação como mediador celular pode tornálo mais eficaz em menores concentrações e permitir
que o mesmo atue seletivamente na membrana
citoplasmática dos microorganismos da bioincrustação,
de modo que tal substância poderá apresentar-se
como um produto antiincrustante economicamente
viável e principalmente ambientalmente correto.
O presente trabalho serve como base para futuras
avaliações da atividade antiincrustante de outros PAFanálogos, visando uma substituição plena, definitiva e
comercialmente disponível do biocida TBT.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145
MATERIAIS ESPECIAIS
REFERÊNCIAS.
ARMSTRONG, E.; BOYD, K.G. e BURGESS, J.G. (2000). Prevention of
marine biofouling using natural compounds from marine organisms.
Biotechnology Annual Review Vol. 6 pp 221 -237
BLANK, M.L.; SNYDER, F.; BYERS, L.W. et al.; (1979). Antihipertensive
activity of alkyl ether analog of phosphatidylcholine. Biochemical and
Biophysical Research Communications. Vol. 90. pp 1194 – 1200.
BOTITSI, E.; MAVRI-VAVAYANNI, M. e SIAFAKA-KAPADAI, A.
(1998). Metabolic fate of platelet-activating factor (PAF 1-O-alkyl-2-acetylsnglycero-3-phosphocholine) and lyso-PAF (1-O-alkyl-2-lysosn-glycero-3phosphocholine) in FRTL5 cells. Journal of Lipid Research. Vol.39. pp
1295 – 1304.
MARATHE, G.K.; SILVA, A.R.; NETO, H.C.C.F.; et al. (2001).
Lysophosphatidylcholine and lyso-PAF display PAF-like activity derived from
contaminating phospholipids. Journal of Lipid Research. Vol.42. pp 1430
– 1437.
MILLER, J.N. e MILLER, J.C. (2000). Statistics and chemometrics for analytical
chemistry. 4ª edição. Pearson Prentice Hall. London.
PRESCOTT, S.M.; ZIMMERMAN, G.A. e MCINTYRE, T.M. (1990).
Platelet-activating factor. The Journal of Biological Chemistry. Vol.265.
Nº.29. pp 17381 – 17384.
STAFFORINI, D.M.; MCINTYRE, T.M.; ZIMMERMAN, G.A. e
PRESCOTT, S.M. (1997). Platelet-activating factor acetylhydrolases. The
Journal of Biological Chemistry. Vol.242. Nº29. pp 17895 – 17898.
DEMOPOULOS, C.A.; PINCKARD, R.N. e HANAHAN, D.J. (1979).
Platelet-activating factor. Evidence for 1-O-alkyl-2-acetoyl-sn-glycerol-3phosphorylcholine as the active component (a new class of lipid chemical mediators).
The Journal of Biological Chemistry. Vol. 254. Nº19. pp 9355 – 9358.
STREMLER, K.E.; STAFFORINI, D.M.; PRESCOTT, S.M. et al. (1989).
An oxidized derivative of phosphatidylcholine is a substrate for the plateletactivating factor acetylhydrolase from human plasma. The Journal of Biological
Chemistry. Vol. 264. Nº10. pp 5331 – 5334.
DENNIS, E.A. (1994). Diversity of group types, regulation, and function of
phospholipase A2. The Journal of Biological Chemistry. Vol. 269. Nº18.
pp 13057 – 13060.
SUGIURA, T.; OJIMA, T.; FUKUDA, T. et al. (1991). Production of
platelet-activating factor in slugs. Journal of Lipid Research. Vol. 32. pp
1795 – 1803.
FOLCH, J.; LEES, M. e STANLEY, G.H.S. (1957). A simple method for the
isolation and purification of total lipids from animal tissues. The Journal of
Biological Chemistry. Vol.226. pp 497 – 509.
THOMPSON, G.A. e HANAHAN, D.J. (1963). Identification of á-glyceryl
ether phospholipids as major lipid constituents in two species of terrestrial slug.
The Journal of Biological Chemistry. Vol.238. Nº 8. pp 2628 – 2631.
KULIKOV, V.I. e MUZYA, G.I. (1998). Review: The bioregulatory role of
platlet-activating factor in intracellualar process and cell-cell interaction.
Biochemistry (Moscow). Vol. 63 (1). pp 47 – 54.
VENABLE, M.E.; ZIMMERMAN, G.A.; MCINTYRE, T.M. e
PRESCOTT S.M. (1993). Platelet-activating factor : a phospholipid autacoid
with diverse actions. Journal of Lipid Research. Vol.34 pp 691 – 702.
LEWIS, J.A. (2001). Ship anti-foulants – tributyltin and substitutes. National
Shipping Industry Conference Sydney Australia. pp 1 - 6. http://
www.amsa.g ov.au/about_amsa/Corporate_
infor mation/
AMSA_speeches/Shipping_In_The_Asia-Pacific_Conference/
PDFs/dsto.pdf. Acesso em 10 de janeiro de 2005.
ZAR, J.H. (1996). Biostatistical Analysis. 3ª edição. New Jersey – USA.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 140-145
145
-
146
ENERGIA
Utilização de um modelo homogêneo para estudo
de escoamento bifásico em núcleos de reatores
nucleares PWRs
Francisco A. Braz Filho
Alexandre D. Caldeira
Eduardo M. Borges
Instituto de Estudos Avançados (IEAv) Centro Técnico Aeroespacial
(CTA). São José dos Campos, SP, 12231-970
E-mail: [email protected]
Resumo
Este trabalho apresenta o desenvolvimento de um programa
computacional para análise termohidráulica de escoamento
bifásico em núcleos de reatores nucleares PWRs. Este
programa computacional é uma versão do programa COTHA2, acrescida da capacidade de análise de escoamento
bifásico através do modelo homogêneo, que considera
equilíbrio termodinâmico entre as fases. Quando se adota
propriedades médias adequadas, pode-se tratar a mistura
líquido-vapor como um único fluido, aplicando-se as
equações de conservação para somente um componente.
O estudo está restrito a análises em estado estacionário;
geometria unidimensional; e escoamentos monofásico e
bifásico. Os resultados obtidos com o programa
desenvolvido apresentam boa concordância com os cálculos
do programa computacional COBRA-EN.
Palavras-chave
Escoamento bifásico. Núcleo de reatores nucleares.
Modelo homogêneo. PWR.
Utilization of a homogeneous model for
studying two-phase flow in pwr nuclear reactor
core
Abstract
This work presents a development of a computational code
to perform two phase flow thermo-hydraulic analysis in PWR
nuclear reactor cores. This code is based on the COTHA-2
code version, increased of the homogeneous model twophase flow analysis capacity, which considers
thermodynamic equilibrium between phases. When
adequate average properties are adopted, the liquid-vapor
mixture can be treated as an unique fluid, using the
conservation equations for one component. The study is
restricted to one-dimensional geometry; steady state; and
one-and two-phase flow calculations. The results obtained
with the developed code show a good agreement with
COBRA-EN code ones.
INTRODUÇÃO
Em um trabalho anterior /1/, foi apresentado um
programa computacional denominado COTHA-2,
que resolve as equações de conservação de massa,
quantidade de movimento axial e energia para um
volume de controle, considerando estado estacionário,
geometria unidimensional e escoamento monofásico
(líquido). Este programa foi desenvolvido para analisar,
principalmente, canais típicos de reatores PWRs
(“Pressurized Water Reactors”). Em condições
normais, os PWRs estão projetados para trabalhar com
o refrigerante abaixo da temperatura de saturação, ou
seja, com o escoamento do fluido na forma líquida.
No entanto, a temperatura do refrigerante,
principalmente nos canais mais quentes, encontra-se
muito próxima da saturação e, além disto, a parede
do revestimento do combustível pode atingir valores
acima da temperatura de saturação. Desta forma, em
certos casos, pode-se alcançar o regime de ebulição
sub-resfriada, ou até mesmo, o início de ebulição
nucleada, ou seja, a temperatura do fluido pode atingir
a de saturação e o escoamento torna-se bifásico
(líquido-vapor). É de grande importância o estudo
do escoamento bifásico em reatores PWRs, pois com
a ocorrência deste regime, há uma súbita mudança no
coeficiente de transferência de calor e um aumento da
perda de carga, que pode levar à instabilidade do
escoamento. O escoamento bifásico pode
compreender várias formas diferentes /2/, como por
exemplo: bolhas de vapor imersas no líquido; grandes
regiões de vapor contidas no líquido (“slug”); anular
(líquido na parede com vapor ao centro); e gotículas
no vapor. Assim sendo, vários regimes de transferência
de calor podem ocorrer, tais como ebulição subresfriada, ebulição nucleada, transição de ebulição,
fluxo crítico de calor e ebulição em filme líquido.
Keywords
Two-phase flow. Nuclear reactor core. Homogeneous model.
PWR.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
147
FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES
O escoamento bifásico envolve um movimento
relativo entre as duas fases, vapor e líquida, portanto,
este problema deve ser formulado em termos de dois
campos de velocidade. A formulação completa deste
fenômeno, considerando-o unidimensional,
compreende a solução das equações de conservação
para os dois fluidos /3/, ou seja, duas para a
continuidade, duas para a quantidade de movimento
e duas para a energia, somando seis equações. Além
disto, uma série de equações constitutivas deve ser
acoplada ao problema, para especificar a interação
interfacial entre as duas fases. Uma vez que há muitas
dificuldades na modelagem com dois fluidos
separados, principalmente na elaboração das equações
constitutivas, encontram-se modelos mais simples, mas
que, graças ao respaldo experimental, em certas
condições, podem simular o escoamento bifásico com
uma boa qualidade dos resultados. O conceito básico
destes modelos considera a mistura de líquido e vapor
como um todo, ou seja, um único componente. Neste
caso, os modelos “drift flux” /4, 5/ e homogêneo /
6, 7/ podem ser ressaltados.
O modelo homogêneo é uma técnica mais simples
para se analisar o escoamento bifásico (ou várias fases).
Adotando-se propriedades médias adequadas, podese tratar a mistura como um só fluido e aplicar-se as
equações de conservação para um único componente.
A partir desta hipótese, os métodos convencionais da
mecânica dos fluidos podem ser utilizados.
Para uma primeira implementação da capacidade de
análise de escoamento bifásico no programa
computacional COTHA-2, foi escolhida a utilização
do modelo homogêneo.
O objetivo deste trabalho é apresentar a formulação
e testes do modelo bifásico de escoamento. A
validação dos cálculos é realizada pela comparação
com os resultados do programa computacional
COBRA-EN /8/.
A seguir serão descritos: os modelos teóricos adotados;
os métodos de solução, juntamente com a descrição
do programa desenvolvido; os resultados deste
programa, comparados aos valores obtidos com o
programa COBRA-EN; e comentários finais.
148
MODELO TEÓRICO
Como foi mencionado anteriormente, para o modelo
homogêneo existe a necessidade da definição de médias
para a velocidade, propriedades termodinâmicas
(entalpia, massa específica) e propriedades de
transporte (viscosidade). Estas médias são ponderadas
entre as duas fases (vapor e líquido) e não são
necessariamente iguais para todas as propriedades.
As hipóteses básicas para o modelo homogêneo são:
i) velocidades lineares iguais do vapor e líquido; ii)
equilíbrio termodinâmico entre as fases; e iii) uma
adequada definição do fator de fricção para
escoamento monofásico aplicado ao escoamento
bifásico. Desta forma, as equações de conservação
para um único componente em estado estacionário e
geometria unidimensional podem ser utilizadas. A
seguir, as equações de conservação são apresentadas.
Equação da Continuidade. Com as hipóteses
anteriores, pode-se escrever a equação da continuidade
como
.
,
(1)
sendo ρ m a massa específica da mistura, u m a
velocidade da mistura, Acanal a área transversal do canal
.
e a vazão em massa.
A massa específica da mistura é dada por
r m = ar g + (1 - a )r f
(2)
sendo á a fração de vazio, ñ a massa específica e os
subscritos “g” e “f ” indicam, respectivamente, vapor
saturado seco e líquido saturado.
Usualmente, o símbolo á é usado livremente para
representar uma concentração volumétrica média, sem
a preocupação de definir exatamente qual a média é
levada em consideração. Assim, um cuidado especial
deve ser tomado quando um fenômeno periódico e
concentrações não uniformes são importantes. Neste
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
ENERGIA
estudo de escoamento bifásico o símbolo á representa
a fração de vazio, ou concentração volumétrica do
vapor. No modelo homogêneo a fração de vazio pode
ser obtida em função da qualidade de equilíbrio
termodinâmico, x, e as massas específicas, ñg e ñf, da
seguinte forma
x
a=
(1 - x )
rg
rf
+ x
,
(3)
rg
H - Hf
,
x=
H fg
(4)
sendo H a entalpia da mistura, Hf a entalpia do líquido
saturado e Hfg o calor latente de evaporação.
Equação da Quantidade de Movimento.
Considerando-se apenas os termos devido às forças
de atrito, peso do fluido e aceleração do fluido, podese escrever a equação da quantidade de movimento
da seguinte forma
.
dP
1 d( u ) ,
= - Gatrito - r m g cos(q) dz
A dz
(5)
sendo P a pressão, Γatrito a tensão de cisalhamento
devido ao atrito, g a aceleração da gravidade, θ o
ângulo entre a direção do escoamento e a vertical e u
a velocidade axial.
O termo Γatrito pode ser escrito como definido por
Moody /9/ para escoamento monofásico
Gatrito
æf
=ç
çD
è h
.
,
(8)
onde ì b é a viscosidade dinâmica para o escoamento
bifásico obtida por
mb = mf ,
onde a qualidade de equilíbrio termodinâmico é dada
por
q ′′′
com a, b e c constantes fornecidas de acordo com
o regime de escoamento e o tipo de canal. O
número de Reynolds para escoamento bifásico é
calculado por
ör f u 2m
,
÷
÷ 2
ø
(6)
sendo Dh o diâmetro hidráulico e f o fator de fricção,
dado em função do número de Reynolds (Re) por
f = a Re b + c ,
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
(7)
(9)
e ìf é a viscosidade dinâmica do líquido saturado.
No termo que considera as forças de atrito na equação
da quantidade de movimento, a massa específica é a
do líquido, quando o escoamento for monofásico, e é
igual a do líquido saturado, quando for escoamento
bifásico.
Quando o escoamento for bifásico, aplica-se um fator
de correção à fórmula de Moody, ö, dado por
j=
rf
,
rm
(10)
portanto, o termo relativo ao cisalhamento pode ser
reescrito
Gatrito = Gmono j ,
(11)
sendo Ãmono o termo de cisalhamento considerando
escoamento monofásico dado pela Equação (6).
Equação da Energia. A equação da energia
considera que a variação da entalpia corresponde ao
calor gerado no combustível e pode ser escrita como
.
,
(12)
sendo H a entalpia do líquido quando for escoamento
monofásico e da mistura quando for bifásico, Acomb a
o calor gerado
área transversal do combustível e
por unidade de volume neste combustível.
149
FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES
Integrando-se a Equação (12) no volume de controle,
pode-se escrever
.
,
(13)
onde os sobrescritos “e” e “s” correspondem à entrada
e saída do volume de controle, respectivamente.
Equação de Estado. As propriedades do fluido são
calculadas /10/ em função da pressão do sistema e
da temperatura de entrada no volume de controle para
escoamento monofásico. Quando for escoamento
bifásico, as demais propriedades, não relacionadas até
agora, serão consideradas a do líquido saturado, como,
por exemplo, o calor específico, o coeficiente de
expansão volumétrica, etc.
Equação de Condução de Calor. A equação de
condução de calor depende do tipo de elemento
aquecedor utilizado, ou seja, vareta cilíndrica ou placa
retangular, ou ainda, é possível simular um aquecimento
da seção apenas fornecendo o fluxo de calor ao longo
do canal. Este cálculo será mantido idêntico ao da
versão anterior, o COTHA-2, exceto o coeficiente de
transferência de calor.
O coeficiente de transferência de calor para o caso de
escoamento monofásico (líquido sub-resfriado –
convecção forçada), hmono, é dado por Dittus-Boelter
/11/ como
Nu =0,023 Re 0 ,8 Pr0 , 4 ,
(14)
Cálculo da Margem de Segurança com Relação
ao FCC. Dois métodos podem ser utilizados para o
cálculo da margem de segurança com relação ao FCC,
ou seja, a razão entre o FCC e o fluxo de calor local
(RFCC), o de Substituição Direta (SD) e o de Balanço
de Calor (BC) /12, 13/.
Médias das Propriedades. Como foi comentado
anteriormente, o modelo homogêneo trata a mistura
líquido-vapor como um componente apenas, desta
forma, torna-se necessário modelar este componente
através de uma média ponderada entre as duas fases,
líquida e vapor. Existe na literatura /2, 6-8/ uma
variação muito grande de como ponderar as grandezas
envolvidas no problema, por exemplo, pode ser
através da fração de vazio, qualidade de equilíbrio
termodinâmico, etc., ou até utilizar correlações para
ajustar os parâmetros. Este trabalho adota a mesma
aproximação efetuada pela formulação do programa
computacional COBRA-EN, ou seja, as propriedades
da mistura são iguais as do líquido saturado na pressão
do sistema.
MÉTODOS DE SOLUÇÃO
O método utilizado é o de marcha explícito (diferenças
para frente). As condições de contorno de vazão e
entalpia de entrada são fornecidas, juntamente com a
pressão do sistema.
Integrando-se a função da geração de calor
volumétrica e utilizando-se a Equação (13), obtém-se
a expressão para o cálculo da entalpia do refrigerante
onde o número de Nusselt (Nu) é função dos números
de Prandtl (Pr) e de Reynolds (Re).
Quando ocorre o regime de escoamento bifásico
(ebulição sub-resfriada ou ebulição nucleada), uma
combinação entre o escoamento monofásico e a
correlação de Thom /8/ é utilizada.
Correlações de Fluxo Crítico de Calor. As
correlações de fluxo crítico de calor (FCC) utilizadas
são as mesmas do COTHA-2, ou seja, EPRI, W-3 e
“1995 CHF Look-up Table”.
150
,
.
(15)
A velocidade do refrigerante é obtida da Equação (1)
por
.
,
(16)
A expressão para o cálculo da perda de pressão,
considerando-se as Equações de (5) a (11), pode ser
escrita como
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
ENERGIA
,
.
(17)
sendo Ψ um valor empírico que considera a perda de
pressão devido ao bocal de entrada ou qualquer
singularidade existente ao longo do canal e Äu a variação
da velocidade entre a entrada e a saída do volume de
controle considerado.
Depois que todas as variáveis foram calculadas num
determinado nível axial, pode-se caminhar um passo
acima e assim, sucessivamente, até chegar ao topo do
feixe.
Uma vez que as temperaturas ao longo do canal foram
obtidas, podem-se realizar mais dois cálculos: i) da
distribuição de temperatura na vareta (geometria
cilíndrica) ou placa (geometria plana) de combustível
para cada nível axial; e ii) do fluxo crítico de calor e a
respectiva margem de segurança, para cada posição
axial, como no COTHA-2.
No caso da distribuição de temperatura no
combustível, três situações são possíveis: i) não estudar
o elemento aquecedor; ii) o elemento aquecedor é uma
vareta cilíndrica; e iii) o elemento aquecedor é uma
placa.
Para realizar os cálculos anteriormente descritos, foi
desenvolvido um programa computacional,
denominado COTHA-2tp (COre Thermal Hydraulic
Analysis, versão 2, two phase flow). Este programa
está escrito em linguagem de programação C++ da
Borland. O COTHA-2tp é a versão do programa
COTHA-2 com a capacidade de análise de
escoamento bifásico, mantendo-se todas as opções
da versão anterior.
núcleo de um PWR comercial /8/. Os principais
dados de entrada, para as simulações realizadas, estão
mostrados na Tabela 1. Os resultados são comparados
com dados obtidos com o programa COBRA-EN,
para a validação dos cálculos, uma vez que os modelos
adotados por ambos os programas, no caso de um
único canal, são bem semelhantes, exceto pela utilização
das funções de propriedades físicas da água.
Para poder comparar melhor os resultados, adotouse o mesmo número de nós axiais no canal para os
dois programas, COBRA-EN e COTHA-2tp.
A Figura 1 mostra o cálculo da entalpia da mistura ao
longo do canal. Os resultados apresentam uma
excelente concordância entre os programas, COBRAEN e COTHA-2tp, com desvios percentuais da
ordem de 0,01 %.
TABELA 1.
Base dos dados de entrada para o caso estudado
Parâmetros
Temp. de entrada [ºC]
Fluxo de massa [kg/(s m2)]
Fluxo de calor [MW/m2]
Pressão do sistema [MPa]
Perímetro molhado [m]
Perímetro aquecido [m]
Área de escoamento [m2]
Comprimento do canal [m]
Diâmetro da barra [m]
Valores
292,9
3463,2
1,22
14,9
0,036
0,029
0,000098
4,27
0,0095
RESULTADOS
Os resultados que serão apresentados estão
relacionados às principais alterações realizadas no
COTHA-2, ou seja, a simulação de um canal em
regime de escoamento bifásico. O caso escolhido para
testar a capacidade do programa COTHA-2tp foi o
de um único canal aquecido, com escoamento
ascendente, similar às medidas de um subcanal do
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
FIGURA 1
Entalpia da mistura ao longo do canal.
151
FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES
As Figuras 2 e 3 apresentam as temperaturas do fluido
ao longo do canal, comparando o COTHA-2tp com
o COBRA-EN. Na Figura 2, os dois programas
utilizam o modelo homogêneo (H). Na Figura 3, o
COBRA-EN considera o modelo “drift flux” (DF) e
o COTHA-2tp o homogêneo. Para o modelo
homogêneo, os programas apresentam uma boa
concordância, com diferenças da ordem de 0,2 %,
como mostra a Figura 2. Neste caso, quando a entalpia
da mistura atinge a entalpia do líquido saturado na
pressão de operação, a temperatura do fluido alcança
a temperatura de saturação e permanece constante.
Pode-se observar que, para o modelo “drift flux” do
COBRA-EN, a entalpia do fluido é corrigida pela
fração de vazio e uma correspondente temperatura é
obtida. Nesta situação, o modelo “drift flux” apresenta
uma distribuição de temperatura mais suave até atingir
a temperatura de saturação na pressão do sistema,
como mostra a Figura 3.
FIGURA 2
Temperatura do fluido ao longo do canal, utilizando o
modelo homogêneo (3 equações) para o COBRA-EN.
FIGURA 3
Temperatura do fluido ao longo do canal, utilizando o
modelo “drift flux” (4 equações) para o COBRA-EN.
152
Os cálculos da qualidade de equilíbrio termodinâmico
e fração de vazio, obtidos com o programa COTHA2tp, foram comparados com resultados do COBRAEN, utilizando as opções: modelo homogêneo (H);
“drift flux” sem escorregamento entre as fases (DF);
e “drift flux” com escorregamento (DF-esc.).
A qualidade termodinâmica, apresentada na Figura 4,
tem um desvio menor que 0,5 % entre os programas
COTHA-2tp e COBRA-EN, utilizando o modelo
homogêneo. Pela Equação (4), a qualidade é negativa
quando o fluido é sub-resfriado, pois a entalpia é
menor que a entalpia do líquido saturado, mas na Figura
4 este valor foi zerado nesta região. No caso do
modelo “drift flux”, utilizado pelo programa
COBRA-EN, a qualidade é corrigida, considerando
um valor maior que zero na região de ebulição subresfriada e aproximando-se do cálculo para o modelo
homogêneo na região acima do nível axial igual a 3,5 m.
FIGURA 4
Qualidade de equilíbrio termodinâmico ao longo do
canal.
A Figura 5, a seguir, apresenta a comparação do cálculo
de fração de vazio para os programas COTHA-2tp e
COBRA-EN. Os resultados mostram uma boa
concordância entre os programas, para o caso em que
o COBRA-EN utiliza modelo homogêneo, com
diferenças menores que 0,5 %. O comportamento foi
similar ao ocorrido com a qualidade termodinâmica,
exceto quando se utiliza a opção de modelo “drift
flux” e escorregamento entre as fases. Nesta condição,
este modelo apresenta valores mais baixos que o
modelo homogêneo, acima do nível axial igual a 3,5 m.
Para o modelo homogêneo, a fração de vazio é zero
até a entalpia da mistura atingir a saturação
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
ENERGIA
Embora sejam utilizadas as mesmas fórmulas para o
cálculo do coeficiente, as propriedades da água
apresentam valores diferentes para os dois modelos,
homogêneo e “drift flux”, como, por exemplo, a
massa específica mostrada na Figura 6.
FIGURA 5
Fração de vazio ao longo do canal.
Da mesma forma, a massa específica, que é dada em
função da fração de vazio, apresenta diferenças na
região acima do início de ebulição sub-resfriada para
os modelos homogêneo e “drift flux”, como se pode
observar na Figura 6.
FIGURA 7
Coeficiente de transferência de calor ao longo do
canal.
O cálculo da diferença de pressão ao longo do canal
está apresentado na Figura 8, para os programas
COTHA-2tp e COBRA-EN. Os resultados mostram
uma boa concordância entre os cálculos dos dois
programas com desvios menores que 1 %. Os dados
estão apresentados tomando por base a pressão de
saída do canal, assim, a perda de pressão total ao longo
do canal é de 100 kPa.
FIGURA 6
Massa específica da mistura ao longo do canal.
O coeficiente de transferência de calor apresenta uma
boa concordância entre os programas COTHA-2tp
e COBRA-EN, utilizando o modelo homogêneo,
como mostra a Figura 7. Quando o coeficiente de
transferência de calor, utilizando os modelos “drift
flux” e homogêneo, é comparado, aparecem
diferenças em seus cálculos na região central do canal.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
FIGURA 8
Diferença de pressão ao longo do canal.
Observa-se na Figura 9, a seguir, os cálculos da perda
de pressão ao longo do canal e cada uma das 3 parcelas
que a constitui: fricção, aceleração e ação da gravidade
153
FRANCISCO A. BRAZ FILHO, ALEXANDRE D. CALDEIRA, EDUARDO M. BORGES
no fluido. Nota-se que há um aumento acentuado da
perda de pressão por fricção e aceleração quando o
escoamento torna-se bifásico e uma diminuição da
perda por gravidade, uma vez que a densidade do
fluido diminui.
FIGURA 11
Temperatura central do combustível ao longo do
canal.
COMENTÁRIOS FINAIS
FIGURA 9
Perda de pressão total, por fricção, aceleração e ação
da gravidade ao longo do canal.
A Figura 10 apresenta o cálculo da razão entre o fluxo
crítico de calor e o fluxo de calor local, RFCC, obtido
com a correlação da EPRI. A diferença entre os
resultados dos programas COTHA-2tp e COBRAEN são pequenas, da ordem de 0,1 %.
FIGURA 10
Razão do fluxo crítico de calor e o fluxo local
(RFCC) ao longo do canal.
Por fim, é apresentada a temperatura central do
combustível ao longo do canal na Figura 11, para os
programas COTHA-2tp e COBRA-EN. Os
resultados mostram uma boa concordância, com
desvios da ordem de 0,2 % entre os programas.
154
O programa desenvolvido, COTHA-2tp, é adequado
para se realizar análises termohidráulicas de núcleos
de reatores do tipo PWR ou qualquer seção aquecida,
representados por um único canal, fornecendo-se a
área de escoamento, diâmetro hidráulico e perímetro
aquecido. O elemento aquecedor pode ser uma vareta
(geometria cilíndrica) ou uma placa (geometria plana)
ou, ainda, não ser analisado e, neste caso, deve-se apenas
fornecer a distribuição do fluxo de calor. Esta análise
compreende um estudo em estado estacionário e
geometria unidimensional. Os principais dados
calculados são as distribuições de temperatura radial
na vareta ou na direção da espessura da placa e axial
no refrigerante, a velocidade do refrigerante e a perda
de carga ao longo do canal. Além disto, o FCC pode
ser obtido através de três correlações (EPRI, W3 e
“1995 CHF Look-up Table”) e a RFCC é calculada
pelos métodos de Substituição Direta e Balanço de
Calor.
O COTHA-2tp é a versão do programa COTHA-2
acrescida da análise de escoamento bifásico, líquidovapor, através do modelo homogêneo, mantendo-se
a capacidade de cálculo da versão anterior.
Os resultados obtidos com o programa COTHA2tp apresentam uma excelente concordância com
aqueles calculados com o programa COBRA-EN
para a simulação de escoamento bifásico em um canal
típico de PWR. As diferenças entre as principais
variáveis calculadas ficaram todas abaixo de 1 %. A
principal causa das diferenças encontradas é atribuída
ao cálculo das propriedades físicas do fluido, uma vez
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
ENERGIA
que as hipóteses físicas consideradas e as correlações
adotadas são as mesmas.
Para este primeiro estudo de escoamento bifásico foi
utilizado o modelo homogêneo. Este considera
equilíbrio termodinâmico e velocidades iguais entre
as fases gasosa e líquida, portanto, a validade do
modelo depende de que ocorra um forte acoplamento
entre as fases. Existem, ainda, várias correções que
podem ser implementadas em algumas variáveis deste
modelo, tais como: na fração de vazio, considerando
ebulição sub-resfriada; no escorregamento (“slip”)
entre as fases; e aumentando as opções das correlações
utilizadas, como, por exemplo, o coeficiente de
transferência de calor. Além disto, as duas fases são
tratadas como um único componente, sendo uma
média entre as fases gasosa e líquida. Estas médias
podem ser ponderadas ou não. No caso afirmativo,
o peso da ponderação pode ser a fração de vazio ou
a qualidade termodinâmica, ou, ainda, uma correlação
pode ser utilizada. Para o COTHA-2tp, neste primeiro
estudo, apenas um tipo de média foi adotado, igual a
do COBRA-EN, porém, deverão ser implementadas
outras alternativas para que o usuário do programa
tenha a opção de escolher.
A faixa de validade do modelo homogêneo é restrita
e não foi abordada neste trabalho. O próximo passo
será a introdução das correções para a fração de vazio
e as várias possibilidades de médias existentes,
verificando quais as situações, em regime de
escoamento bifásico, em que se pode utilizar o modelo
homogêneo. Posteriormente, o modelo “drift flux”
deverá ser implementado.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 147-155
REFERÊNCIAS
1. BRAZ FILHO, F. A. et al., “Desenvolvimento de um Programa Computacional
para Análise Termoidráulica de Núcleos de Reatores Nucleares do Tipo PWR”,
Pesquisa Naval (Suplemento Especial da Revista Marítima Brasileira),
ISSN 1414-8595, V. 17, pp. 93-97, Brasília, 2004.
2. WALLIS, G. B., “One-dimensional Two-phase Flow”, MacGraw-Hill Book
Company, 1969.
3. SCIENTECH, Inc., “RELAP5-Mod3 Code Manual”, Idaho Nacional
Laboratory, NUREG/CR-5535, June, 1999.
4. HIBIKI, T. & ISHII, M., “One-dimensional drift-flux model and constitutive
equations for relative motion between phases in various two-phase flow regimes”,
International Journal of Heat and Mass Transfer, V. 46, pp. 4935-4948,
2003.
5. CODDINGTON, P. & MACIAN, R. “A study of the performance of void
fraction correlations used in the context of drift flux two-phase flow models”,
Nuclear Engineering and Design, V. 215, pp. 199-216, 2002.
6. XU, B. & BANSAL, P. K., “Non-adiabatic capillary tube flow: a homogeneous
model and process description”, Applied Thermal Engineering, V. 22 (16),
pp. 1801-1819, 2002.
7. WHEELER C. L. et al., “COBRA-IV-I: An interim version of COBRA
for thermal-hydraulic analysis of rod bundle nuclear fuel elements and cores”,
BNWL-1962, Battelle-Northwest, Richland, WA, March 1976.
8. BASILE, D. et al., “COBRA-EN: an Upgraded Version of the COBRA3C/MIT Code for Thermal-Hydraulic Transient Analysis of Light Water
Reactor Fuel Assemblies and Cores”, Report 1010/1 (September 1999).
9. HOLMAN, J. P., “Heat transfer”, MacGraw-Hill, São Paulo, SP, 1976.
10. GARLAND, WM. J., “Water and Steam Properties – V1.03”, Department
of Engineering Physics, McMaster University, 1280 Main St. W.,
Hamilton, Ontario, Canada, l8S 4M1, 1991.
11. INTERNATIONAL Atomic Energy Agency, “Thermohydraulic
Relationships for Advanced Water Cooled Reactors”, IAEA-TECDOC-1203,
IAEA, Vienna, Austria, April, 2001.
12. HEJZLAR, P. & TODREAs N. E., “Consideration of Heat Flux Margin
Prediction by Subcooled or Low Quality Critical Heat Flux Correlations”,
Nuclear Engineering and Design, Vol. 163, pp. 215-223, 1996.
13. BRAZ FILHO, F. A.; CALDEIRA, A. D.; BORGES, E. M., “Critical
Heat Flux Mar gin Evaluation”, 17 th International Congress of
Mechanical Engineering–COBEM2003, São Paulo, Brazil, November,
2003.
155
156
TECNOLOGIA DA INFORMAÇÃO
Identificação, desenvolvimento e manutenção do
conhecimento num órgão da administração
direta federal: estudo de caso em uma
Organização da Marinha do Brasil
Carlos Miguel Cordeiro dos Santos
Engenheiro de Telecomunicações – CASNAV.
E-mail: [email protected]
Denise Mesquita de Barros
Engenheira de Produção – CASNAV.
E-mail: [email protected]
Renato Porthun
Engenheiro Elétrico – CASNAV.
E-mail: [email protected]
Victor Ramos Caruso
Físico – CASNAV.
E-mail: [email protected]
Resumo
Empresas bem sucedidas retêm algo muito mais valioso do
que ativos físicos ou financeiros, caracterizado pela soma do
conhecimento de todos os funcionários, e que proporciona
uma vantagem competitiva em relação às demais: o seu
“Capital Intelectual (CI)”. Entretanto, não se pode gerenciar o
capital intelectual sem localizá-lo em pontos estrategicamente
importantes e em que onde a gerência realmente seja
importante (STEWARD, THOMAS A.,1998). Este trabalho
apresenta como o Centro de Análises de Sistemas Navais
(CASNAV), uma Organização Militar Prestadora de Serviços
(OMPS), pertencente a estrutura da Marinha do Brasil (MB),
estabelece um ambiente propício para a Identificação, o
Desenvolvimento e a Manutenção do Conhecimento.
Apresenta, também, os componentes da Gestão do
Conhecimento da Organização, destacando as formas de
incentivo ao pensamento criativo e inovador e as formas de
atração ou retenção de talentos e competências.
Palavras-chave
Gestão do conhecimento. Proteção. Estratégia.
Knowledge identification, development and
maintenance in a direct administration of a
federal institution: Case study in an
Organization of the Brazilian Navy
Abstract
Successful companies retain something more valuable than
material and physical assets, characterized by the sum of all
employees knowledge, that provides a competitive advantage
over others: it is it’s “Intellectual Capital (IC)”. Nevertheless, it
is not possible to manage the intellectual capital without
locating it in important strategic spots and where the management
is important (STEWARD, THOMAS A.,1998). This paper presents
how Centro de Análises de Sistemas Navais (CASNAV), a Service
Provider Military Organization linked to the Brazilian Navy settles
a propitious enviroment for the Identification, Development and
Mantainance of Knowledge. Also presents the components of
the Organization Knowledge Administration emphasizing the
incentive structure towards the inovative and criative thought
and the structure to attract and retain talents and abilities.
Keywords
Knowledge administration. Protection. Strategy.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162
INTRODUÇÃO
O Centro de Análises de Sistemas Navais (CASNAV)
utiliza, de modo formal e rotineiro, um conjunto de
Sistemas Informatizados (SI), a maioria desenvolvidos
pelo próprio Centro, tais como o Sistema de
Infor mações Gerenciais (SIG), o Sistema de
Acompanhamento de Projetos e Atividades (SAPA),
o Sistema de Controle de Indicadores de Desempenho
(SCID), o Sistema de Gerência de Documentos
Eletrônicos da Marinha (SiGDEM), etc, com o
propósito de atender às suas necessidades diárias de
uso. A forte estrutura originária da interação
coordenada entre esses sistemas gera, na medida em
que os mesmos disponibilizam recursos de inserção e
consulta de informações atualizadas, de forma ágil,
consistente e pertinente, um ambiente favorável à
identificação, ao desenvolvimento e à manutenção do
conhecimento, elementos estes que se constituem como
os requisitos fundamentais para o suporte e a evolução
da Gestão do Conhecimento.
No sentido de garantir a manutenção dessas condições
e, por conseguinte, conferir à Organização a sua
sustentabilidade no segmento empresarial em que atua,
por meio do estímulo à cultura da melhoria contínua
dos seus processos, sob a fiel observância dos valores
organizacionais implícitos em sua Missão, Visão de
Futuro e Planejamento Estratégico, o CASNAV adota
e mantém um conjunto de ações e processos que
consolidam a Gestão do Conhecimento, tratando este
insumo como imprescindível para o seu
desenvolvimento.
Este artigo apresenta um conjunto de ações e
processos, que contam com a participação ativa da
Alta Administração, na medida em que cabe a esta o
provimento dos recursos para implementação do
mesmo. As Ações e Processos ora referidos tem
origem fundamentada em dois Planos da
Organização, quais sejam: Plano de Capacitação de
Pessoal e Plano Plurianual de Capacitação de Pessoal,
157
CARLOS MIGUEL CORDEIRO DOS SANTOS, DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO
sendo este último desdobrado em programas
específicos, tais como o Programa de Conclaves (no
Brasil e no exterior), o Programa de Intercâmbios, o
Programa de Adestramentos, o Programa de Cursos,
e outros que, integrados, bem definem a linha mestra
para a identificação, o desenvolvimento, o cultivo e o
compartilhamento do conhecimento no CASNAV.
O CASNAV
O CASNAV é um órgão público da administração
direta, pertencente ao Sistema de Ciência e Tecnologia
da Marinha, criado em 9 de junho de 1975, com a
finalidade de desenvolver estudos para a configuração
e a otimização de sistemas de interesse da Marinha,
bem como controlar e promover a execução das
atividades de pesquisa operacional em todos os seus
escalões.
Sua primeira e grande tarefa consistiu na avaliação
operacional das Fragatas adquiridas na Inglaterra em
1970, primeiras plataformas de combate brasileiras a
possuir sistemas de armas e de propulsão
informatizados. A esse empreendimento outros se
seguiriam, de importância igualmente significativa, tais
como:
– Informatização dos jogos de guerra;
– Idealização de um modelo para o Sistema de
Comando e Controle (SISMC²), presidido pelo
Presidente da República, na qualidade de Comandante
Supremo das Forças Armadas;
– Projetos de criptografia; e
– Projeto de um centro de comando e controle para
o Comando do Teatro de Operações
Marítimo
(CCTOM).
Em 1993, foi reconhecido como órgão da área de
Ciência e Tecnologia da Administração Pública Federal Direta e, a partir de janeiro de 1997, passou a funcionar como uma Organização Militar Prestadora de
Serviços em Ciência e Tecnologia (OMPS-C), integrando o Sistema de Ciência e Tecnologia da Marinha, desde junho desse mesmo ano.
Atualmente, os projetos do CASNAV estão divididos
nas seguintes áreas de atuação:
– Desenvolvimento de Sistemas – Visa fornecer uma
estrutura composta de processos, métodos e
158
ferramentas para a construção de software com alta
qualidade.
– Avaliação Operacional (AO) – Procura estimar a
eficácia e a adequabilidade operacional de um sistema
por meio de experimentos controlados, com o maior
realismo possível.
– Gestão Eletrônica de Documentos (GED) –
Desenvolvimento de modelos de workflow e de
segurança, nos quais são aplicados procedimentos
mandatórios e/ou discricionários para a gestão
eletrônica de documentos corporativos, com o
propósito de garantir requisitos de segurança, tais
como: confidencialidade, integridade, disponibilidade
e autenticidade ; e
– Segurança da Informação – Desenvolvimento de
algoritmos e sistemas criptográficos, bem como
elaboração de recomendações de Segurança para
ambientes computacionais.
Em 11 de outubro de 2001 o CASNAV celebrou,
junto à Marinha do Brasil (MB), um Contrato de
Autonomia de Gestão (CAG), visando à pactuação
de metas. Este contrato tem por finalidade elevar a
capacidade operacional do CASNAV, de modo a
contribuir para o aprimoramento dos processos de
aparelhamento e emprego de sistemas e meios de
interesse da MB, em conformidade com a missão e
com a visão de Futuro desta Organização.
Por força de meta pactuada no CAG, o CASNAV
vem concorrendo ao Prêmio Nacional de Gestão
Pública do Governo Federal desde 2003, prêmio este
que tem como objetivo, entre outros, estimular órgãos
e entidades da administração pública brasileira a
priorizar as ações voltadas para a melhoria da gestão
e do desempenho institucional. Nos anos de 2004 e
2005, o CASNAV foi reconhecido na Faixa Bronze,
na Categoria Administração Direta. (CASNAV –
Relatório de Gestão do CASNAV 2004/2005 e
Governo do Brasil – Instrumento para Avaliação da
Gestão Pública – Ciclo 2005).
O CASNAV detém, desde 1 de abril de 2003, o
certificado de aprovação pelo Lloyd’s Register Quality
Assurance, do seu Sistema de Gestão da Qualidade
aplicável ao “Planejamento de Avaliação Operacional
e Análise de seus Resultados para Prover Elementos
de Informação que Auxiliem o Processo de Tomada
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162
TECNOLOGIA DA INFORMAÇÃO
de Decisão, quanto ao Emprego ao Apoio Logístico
e as Modificações de Meios e Sistemas Militares, e
Desenvolvimento de Sistemas Criptográficos e
Avaliação de Segurança da Informação para Sistemas
Computacionais”, com relação ao atendimento das
seguintes normas para Sistemas de Gestão da
Qualidade : ISO 9001 : 2000, NBR ISO 9001 : 2000
e BS EN ISO 9001 : 2000 (ABNT, NBR ISO 9001
(2000) – Sistemas de Gestão da Qualidade –
Requisitos).
O reconhecimento na faixa bronze, por dois anos
consecutivos, no Prêmio Nacional de Gestão Pública
e a Certificação ISO 9001:2000, espelham a dedicação
da tripulação do CASNAV na busca pela contínua
melhoria da gestão, sendo mais um motivo de orgulho
para todos os Casnavianos.
IDENTIFICAÇÃO
As necessidades de conhecimento são identificadas,
em uma das instâncias, a partir das carências
evidenciadas pelos Encarregados de Divisão e
respectivos Gerentes de Projeto, em face dos requisitos
para a consecução dos produtos e serviços pactuados
nos Temos de Compromissos firmados com seus
clientes.
Outra forma de identificação de necessidade de
conhecimento ocorre a partir da percepção de lacunas
de conhecimento, mediante comparação com outras
organizações, e da observância das tendências
tecnológicas, com vista a manter a Organização
capacitada para atender a toda demanda de serviço
compatível com a sua Missão.
As necessidades de conhecimento são supridas
cumprindo-se as diretrizes estabelecidas nos Planos
de Capacitação e Programas mencionados no item 1
– Introdução, tendo-se o foco voltado para a execução
das atividades pertinentes aos macroprocessos da
Organização, e considerando-se as competências
institucionais estabelecidas no Regulamento.
Os macroprocessos, cuja absorção de conhecimento
é direcionada pelo Planejamento Estratégico,
encontram-se listados na Tabela 1.
TABELA 1
Macroprocessos Direcionados pelo PE
DESENVOLVIMENTO E MANUTENÇÃO
O desenvolvimento e a manutenção do conhecimento
são realizados por meio de várias ações e iniciativas
que emanam também da Alta Administração e do
nível gerencial, e são alicerçadas em Sistemas de
Informação, que dão suporte ao gerenciamento, ao
armazenamento, informação e à comunicação, tais
como o SIG (módulo ModPes), o SAPA e o
SiGDEM.
A utilização desses sistemas, de forma integrada,
permite uma Gestão do Conhecimento consistente,
corroborada por requisitos de proteção e
compartilhamento. Ao utilizar os recursos
disponibilizados pelos sistemas, especificamente os do
módulo ModPes, a Organização terá um banco de
dados que contém, de forma organizada e atualizada,
as principais informações acerca do conhecimento, da
capacitação e da área de atuação de todos os seus
servidores.
Quando do cumprimento dos Planos de Capacitação,
ou na necessidade de utilização do servidor em
determinada tarefa, o CASNAV recorre a consultas a
esses sistemas, para verificar o nível de conhecimento
do servidor, mediante a participação em cursos,
congressos ou eventos similares, e se há necessidade
de aquisição de novo conhecimento ou
desenvolvimento do conhecimento já obtido.
Além da utilização de Sistemas de Informação, a
Gestão do Conhecimento complementa-se com as
seguintes ações:
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162
159
CARLOS MIGUEL CORDEIRO DOS SANTOS, DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO
– Cumprimento da Ordem Interna de Capacitação
dos Militares e Servidores Civis;
– Consulta às avaliações de desempenho; e
– Cumprimento da Ordem Interna de Edição,
Reprodução, Encadernação e Impressão de
Documentos Técnicos (DT) – que estabelece no seu
Anexo C um fluxo de tramitação de DT produzidos
internamente, prevendo o arquivamento dos originais
desses documentos, desde que classificados com grau
de sigilo inferior a “secreto”, na Biblioteca da
Organização. Além dos DT produzidos internamente,
todas as outras fontes de conhecimento adquiridas,
tais como periódicos, revistas técnicas, livros, etc, são
também disponibilizados na biblioteca.
Esse conjunto de Processos, alinhados com as
diretrizes estabelecidas nos Planos e Programas de
Capacitação, visa atingir os seguintes objetivos:
– Prover condições para um ambiente de trabalho
favorável ao compartilhamento de informações e de
conhecimento, assim como à capacitação e ao
desenvolvimento de inovações de processos finalísticos,
de apoio e de gestão e à aplicação de novas tecnologias;
– Incentivar a ampliação dos conhecimentos e das
competências essenciais ao cumprimento da Missão; e
– Gerar mecanismos seguros e atualizados, por meio
de SI, para a armazenagem dos conhecimentos,
observando-se os requisitos de preservação e
acessibilidade.
FORMAS
DE
INCENTIVO
PENSAMENTO CRIATIVO
AO
A Tabela 2, a seguir, apresenta ações e iniciativas por
parte do CASNAV, que contribuem para o incentivo
ao pensamento criativo de seus colaboradores.
A participação em Eventos Técnicos, no Brasil e no
exterior, propicia a identificação, o desenvolvimento
e a atualização do conhecimento, traduzindo-se assim
em mais uma forma de incentivo.
O incentivo ao pensamento criativo e inovador é
verificado pela ênfase concedida à publicação de
artigos por parte dos servidores do CASNAV. O
Planejamento Estratégico da Organização, na meta:
“Aumentar a participação, por parte de servidores do
160
TABELA 2
Exemplos de Formas de Incentivo ao Pensamento
Criativo
Ação / Iniciativa
Participação em Eventos
Técnicos (simpósios,
congressos, seminários, etc).
Incentivo à Publicação de
artigos em simpósios,
periódicos e livros.
Envio de servidores para
cursos de especialização,
mestrado e doutorado.
Propósito
Identificação, desenvolvimento,
atualização do conhecimento, e
o domínio de tecnologias de
ponta.
Ênfase ao pensamento criativo
e inovador.
Incentivo ao crescimento
intelectual.
CASNAV, em palestras e apresentação de cursos, nas
áreas de: Análise de Sistemas, PO, Engenharia de
Sistemas, Segurança da Informação, Criptologia,
Matemática e Estatística”, prevê que os artigos
publicados e aprovados sejam apresentados em
conclaves, nacionais e internacionais. O CASNAV arca
com o ônus da inscrição para publicação dos artigos,
quando aprovados.
Outra ação é o incentivo para publicação em
periódicos ou livros, nacionais e internacionais.
A diretriz decorrente do Plano Plurianual de
Capacitação de Pessoal que, alinhada às metas de
capacitação estabelecidas no Planejamento Estratégico,
muito contribui para definir um ambiente propício
ao desenvolvimento do conhecimento, é o incentivo
ao envio de servidores para cursos de mestrado e
doutorado, no Brasil e no exterior, seja por vias
formais, mediante Portaria, ou por iniciativa e interesse
do próprio servidor, quando então a Organização o
indica e encaminha às instituições de ensino, liberandoo para a freqüentar as aulas e para o cumprimento
dos demais compromissos com a instituição na qual
está freqüentando o curso, sem a exigência de
compensação das horas dedicadas ao mesmo.
FORMAS DE ATRAÇÃO OU RETENÇÃO
DE TALENTOS/COMPETÊNCIAS
A Tabela 3, a seguir, apresenta ações e iniciativas por
parte do CASNAV, que contribuem para a retenção
de talentos e competências de seus colaboradores:
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162
TECNOLOGIA DA INFORMAÇÃO
TABELA 3
Ações para Atrair ou Reter Talentos e Competências
Ação / Iniciativa
Propósito
Incentivar o pensamento
Plano de Carreira de Ciência
criativo e inovador, assim
e Tecnologia com
como atrair e reter talentos e
gratificação de Titulação.
competências.
Incentivo à Publicação de
artigos em Eventos
Ênfase ao pensamento
Técnicos, Periódicos e
criativo e inovador.
Livros.
Envio de servidores para
Incentivo ao crescimento
cursos de especialização,
intelectual.
mestrado e doutorado.
Manter a credibilidade do
Incentivo ao desafio
CASNAV junto à
intelectual.
comunidade científica.
Fornecer segurança para
Estabilidade.
desenvolvimento
profissional.
O incentivo ao pensamento criativo e inovador, assim
como a atração e a retenção dos talentos e
competências, mediante as facilidades propiciadas pela
Organização, fica reforçado pelo que estabelece o
Plano de Carreira de Ciência e Tecnologia, que rege as
carreiras dos servidores civis, o qual prevê gratificações
incidentes sobre os vencimentos dos servidores com
cursos de especialização, mestrado e doutorado.
O incentivo à publicação de artigos em Eventos
Técnicos, no Brasil e no exterior, assim como em
periódicos e livros, caracterizam-se como forma de
atração ou retenção de talentos, visto que, ao ter um
trabalho publicado e apresentado em um evento da
magnitude de um conclave, os servidores têm a
oportunidade de ter o seu nome divulgado em meio
à comunidade científica e tecnológica, tornando-se
motivo de satisfação própria, incentivando a produção
de mais trabalhos e, por conseguinte, criando um
maior vínculo com a Organização.
Outros aspectos que se constituem em fatores de
atração são o desafio intelectual de manter a
credibilidade do CASNAV junto à comunidade
científica, a estabilidade do emprego e a
disponibilização de oportunidades de atualização
tecnológica pelo CASNAV aos seus colaboradores.
A atração e a retenção de talentos e competências,
associadas ao incentivo ao pensativo criativo e inovador
se refletem no amadurecimento da Organização, fruto
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162
do comprometimento dos servidores civis com os
requisitos de desempenho, como pode ser
comprovado pela tendência de aumento das médias
das avaliações de desempenho, demonstrada pelo
Indicador de Avaliação de Desempenho (IAD),
tendência esta que pode ser observada na Figura 1.
FIGURA 1
Evolução IAD
CONCLUSÃO
O Conhecimento torna-se um ativo quando se cria
uma ordem útil a partir da capacidade intelectual geral,
ou seja, quando assume uma forma coerente, quando
capturado, de modo que possa ser descrito,
compartilhado e explorado, e quando pode ser
aplicado a algo que não poderia ser realizado
(STEWARD, THOMAS A.,1998).
Dentro deste conceito, o Conhecimento é um bem
que se funde no próprio produto do CASNAV.
É pré-requisito da Organização que seus
colaboradores, desde o seu ingresso, sejam submetidos
a processos contínuos de qualificação, atualização e
treinamento, visando à melhoria dos produtos e
serviços, conforme evidenciado no Plano Plurianual
de Capacitação de Pessoal. Esses processos de
capacitação são parte integrante da Gestão do
Conhecimento da Organização. Além disso, o
CASNAV utiliza, de modo formal e rotineiro, um
conjunto de Sistemas de Informação, a maioria
desenvolvidos internamente, de modo a atender às
suas necessidades diárias de uso.
161
CARLOS MIGUEL CORDEIRO DOS SANTOS, DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO
Alguns exemplos da utilização prática da Gestão do
Conhecimento para melhoria dos produtos e serviços
são:
Na Tabela 4, constam exemplos de inovações /
melhorias introduzidas recentemente, a partir das
práticas de GC.
– Relatório de Lições Aprendidas (RLA);
TABELA 4
Exemplos de Inovações ou Melhorias.
– Elaboração de um Plano de Trabalho para Gestão
do Conhecimento (PTGC);
– Relatórios Anuais de Adestramento (RAA),
Relatórios de Metas de Capacitação (RMC) e Painéis
de Indicadores (PI);
2003
– Aprimoramento do módulo MODPES do SIG.
O RLA faz parte da Fase de Encerramento do Projeto,
e tem a finalidade de garantir que experiências obtidas
durante a execução do Projeto sejam documentadas
para futuras consultas. Este relatório vem sendo
aprimorado, para que cada vez mais as experiências
bem sucedidas sejam aproveitadas e as mal sucedidas
possam ser evitadas.
O CASNAV, reconhecendo a importância da Gestão
do Conhecimento, está elaborando um PTGC, que
irá tratar das metas estabelecidas para esta Gestão.
A partir de consulta aos RAA, aos RMC e aos PI, que
apresentam os dados referentes ao desenvolvimento
intelectual, bem como aos mapas de apropriação de
mão-de-obra, é possível estabelecer um comparativo
entre dados anteriores e atuais, referentes a capacitação.
O Módulo ModPes, do SIG, propicia, além da
organização e da atualização das informações pessoais
e funcionais, o pronto acesso às mesmas. Assim, no
caso de um Gerente de Projeto ou Encarregado de
Divisão necessitar de infor mações sobre um
funcionário, para melhor alocá-los nas atividades,
poderá obtê-las de modo ágil e atualizado.
162
Principais Inovações e Melhorias
Implementadas
Período
2004
2004 / 2005
Inclusão da biblioteca do CASNAV à rede
"Bibliotecas Integradas da Marinha" (BIM).
Revisão do Regimento Interno.
Implementação de medidas para a motivação
de equipes.
Edição de Ordem Interna, abordando
aspectos da absorção do conhecimento.
Criação da meta, no Planejamento
Estratégico, com base no "Capability
Maturity Model Integrated" (CMMI).
Utilização do pregão eletrônico nas licitações.
Ampliação da abrangência do Sistema de
Informações Gerenciais – SIG.
Integração do SIG com a Divisão de RH
REFERÊNCIAS
ABNT, NBR ISO 9001 (2000) – Sistemas de Gestão da Qualidade –
Requisitos. Rio de Janeiro.
CASNAV – Relatório de Gestão do CASNAV 2004/2005. Rio de
Janeiro.
GOVERNO DO BRASIL – Instrumento para Avaliação da Gestão
Pública – Ciclo 2005. Brasília.
PAGLIUSO, ANTONIO TADEU (2005) – Benchmarking : Relatório
do Comitê Temático. Qualitymark Ed. 2005. Rio de Janeiro.
STEWARD, THOMAS A.(1998), Capital Intelectual – A nova vantagem
competitiva das empresas – Editora Campus, 12ª edição. Rio de
Janeiro.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 157-162
TECNOLOGIA DA INFORMAÇÃO
Critérios para seleção e coleta de informações
comparativas em um órgão da administração direta
federal: estudo de caso em uma Organização da
Marinha do Brasil
Denise Mesquita de Barros
Engenheira de Produção – CASNAV
[email protected]
Renato Porthun
Engenheiro Eletricista – CASNAV
[email protected]
Victor Ramos Caruso
Físico – CASNAV
[email protected]
Carlos Miguel Cordeiro dos Santos
Engenheiro de Telecomunicações – CASNAV
[email protected]
Resumo
O conceito de desempenho tem como pressuposto a
comparação dos resultados obtidos, interna e externamente,
com referenciais pertinentes. Assim, uma organização só
poderá precisar sua posição competitiva, caso possua
informações de resultados e de melhores práticas de outras
organizações que lhe sirvam como impulsionadoras na
busca da excelência. Além disso, uma organização que visa
o alto desempenho precisa definir que tipos de informações
comparativas necessita, considerando seus objetivos
estratégicos, todas as partes interessadas e os principais
processos, dentre outros aspectos.
Este trabalho apresenta como são selecionadas e coletadas
as informações comparativas, informações estas oriundas
de referenciais selecionados de forma lógica, não casual, no
Centro de Análises de Sistemas Navais, uma Organização
Militar Prestadora de Serviços, pertencente à estrutura da
Marinha do Brasil.
Apresenta, também, como são definidas, considerando-se o
Planejamento Estratégico da Organização; como são
priorizadas; os processos relacionados; e qual a sistemática
utilizada para definição de critérios de seleção.
Palavras-chave
Gestão de informações comparativas. Seleção. Coleta.
Prioridades.
Criterion for selection and collection of
comparative information in a direct
administration of a federal institution: case
study in an Organization of the Brazilian Navy
Abstract
The concept of performance assumes the comparison of the
results obtained, internally and externally, with valid
references. In this way, an organization can only precise it’s
competitive position if the information of results and the
best procedures of other organization, that act as propelers
in the search of excellence, are available. Besides that, an
organization that aims a high performance needs to
determine the sort of comparative information necessary,
considering it’s strategic goals, all parts interested and the
main process, among other aspects.
This paper presents how the comparative information are
selected and collected, information originated in references
selected in a logical, non casual, structure at Centro de
Análises de Sistemas Navais(CASNAV) a Service Provider
Military Organization linked to the Brazilian Navy.
Also presents, considering the Organization Strategic
Planning, how related process are defined, are given priority
and what is the systematics utilized to define selection
criteria.
Keywords
Comparative information management. Selection.
Collection. Priorities.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169
163
DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO, CARLOS MIGUEL CORDEIRO DOS SANTOS
INTRODUÇÃO
O Centro de Análises de Sistemas Navais (CASNAV),
visando à melhoria contínua dos seus processos por
meio da agregação de diferenciais competitivos e, por
conseguinte, propiciar a ampliação do reconhecimento
da excelência da Organização pela comunidade
científica e tecnológica, busca e seleciona informações
que possam ser utilizadas para fins de comparação. A
referenciação é uma poderosa ferramenta para, a partir
do aprendizado de práticas reconhecidas, propor
soluções inéditas e criativas. A participação em
associações de classe, grupos de “benchmarking”
(PAGLIUSO, ANTONIO TADEU – Benchmarking:
Relatório do Comitê Temático), fundações, comitês
de prêmios de excelência, visitas a empresas, são alguns
exemplos de fontes de informações comparativas.
– Idealização de um modelo para o Sistema de
Comando e Controle (SISMC²), presidido pelo
Presidente da República, na qualidade de Comandante
Supremo das Forças Armadas;
– Projetos de criptografia; e
– Projeto de um centro de comando e controle para
o Comando do Teatro de Operações
Marítimo
(CCTOM).
Em 1993, foi reconhecido como órgão da área de
Ciência e Tecnologia da Administração Pública Federal
Direta e, a partir de janeiro de 1997, passou a funcionar
como uma Organização Militar Prestadora de Serviços
em Ciência e Tecnologia (OMPS-C), integrando o
Sistema de Ciência e Tecnologia da Marinha, desde
junho desse mesmo ano.
Além disso, o CASNAV utiliza mecanismos que
garantem que as informações obtidas no processo de
referenciação sejam efetivamente utilizadas para
melhorar o entendimento dos processos internos,
estabelecer metas que o impulsionem rumo à
excelência e promover melhorias que gerem impacto
positivo no desempenho organizacional.
Atualmente, os projetos do CASNAV estão divididos
nas seguintes áreas de atuação:
Este artigo apresenta como é realizada a Gestão das
Informações Comparativas no CASNAV, dando
maior ênfase a como se realiza a seleção e a coleta
dessas Informações.
– Avaliação Operacional (AO) – Procura estimar a
eficácia e a adequabilidade operacional de um sistema
por meio de experimentos controlados, com o maior
realismo possível.
O CASNAV
O CASNAV é um órgão público da administração
direta, pertencente ao Sistema de Ciência e Tecnologia
da Marinha, criado em 9 de junho de 1975, com a
finalidade de desenvolver estudos para a configuração
e a otimização de sistemas de interesse da Marinha,
bem como controlar e promover a execução das
atividades de pesquisa operacional em todos os seus
escalões.
Sua primeira e grande tarefa consistiu na avaliação
operacional das Fragatas adquiridas na Inglaterra em
1970, primeiras plataformas de combate brasileiras a
possuir sistemas de armas e de propulsão
informatizados. A esse empreendimento outros se
seguiriam, de importância igualmente significativa, tais
como:
– Informatização dos jogos de guerra;
164
– Desenvolvimento de Sistemas – Visa fornecer uma
estrutura composta de processos, métodos e
ferramentas para a construção de software com alta
qualidade.
– Gestão Eletrônica de Documentos (GED) –
Desenvolvimento de modelos de workflow e de
segurança, nos quais são aplicados procedimentos
mandatórios e/ou discricionários para a gestão
eletrônica de documentos corporativos, com o
propósito de garantir requisitos de segurança, tais
como: confidencialidade, integridade, disponibilidade
e autenticidade ; e
– Segurança da Informação – Desenvolvimento de
algoritmos e sistemas criptográficos, bem como
elaboração de recomendações de Segurança para
ambientes computacionais.
Em 11 de outubro de 2001, o CASNAV celebrou,
junto à Marinha do Brasil (MB), um Contrato de
Autonomia de Gestão (CAG), visando à pactuação
de metas. Este contrato tem por finalidade elevar a
capacidade operacional do CASNAV, de modo a
contribuir para o aprimoramento dos processos de
aparelhamento e emprego de sistemas e meios de
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169
TECNOLOGIA DA INFORMAÇÃO
interesse da MB, em conformidade com a missão e
com a visão de Futuro desta Organização.
Por força de meta pactuada no CAG, o CASNAV
vem concorrendo ao Prêmio Nacional de Gestão
Pública do Governo Federal desde 2003, prêmio este
que tem como objetivo, entre outros, estimular órgãos
e entidades da administração pública brasileira a
priorizar as ações voltadas para a melhoria da gestão
e do desempenho institucional. Nos anos de 2004 e
2005, o CASNAV foi reconhecido na Faixa Bronze,
na Categoria Administração Direta. (CASNAV –
Relatório de Gestão do CASNAV 2004/2005 e
Governo do Brasil – Instrumento para Avaliação da
Gestão Pública – Ciclo 2005).
O CASNAV detém, desde 1 de abril de 2003, o
certificado de aprovação pelo Lloyd’s Register Quality
Assurance, do seu Sistema de Gestão da Qualidade
aplicável ao “Planejamento de Avaliação Operacional
e Análise de seus Resultados, para Prover Elementos
de Informação que Auxiliem o Processo de Tomada
de Decisão, quanto ao Emprego ao Apoio Logístico
e as Modificações de Meios e Sistemas Militares, e
Desenvolvimento de Sistemas Criptográficos e
Avaliação de Segurança da Informação para Sistemas
Computacionais”, com relação ao atendimento das
seguintes normas para Sistemas de Gestão da
Qualidade : ISO 9001 : 2000 , NBR ISO 9001 : 2000
e BS EN ISO 9001 : 2000 (ABNT, NBR ISO 9001
(2000) – Sistemas de Gestão da Qualidade –
Requisitos).
O reconhecimento na faixa bronze, por dois anos
consecutivos, no Prêmio Nacional de Gestão Pública
e a Certificação ISO 9001:2000, espelham a dedicação
da tripulação do CASNAV na busca pela contínua
melhoria da gestão, sendo mais um motivo de orgulho
para todos os Casnavianos.
DEFINIÇÃO / PRIORIDADES /
CRITÉRIOS
As Informações Comparativas (IC) são definidas
obser vando-se a aderência das mesmas ao
Planejamento Estratégico (PE), considerando-se a
pertinência específica aos Objetivos, Metas e
Indicadores que nele constam, e também às diretrizes
institucionais.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169
As IC são priorizadas com base nas avaliações dos
Indicadores de Desempenho de cada uma das metas,
procedidas pelos Gerentes das Metas. Os resultados
são apresentados em reuniões do Conselho Consultivo,
quando então são evidenciadas e priorizadas as
necessidades e carências da Organização para a
consecução dos seus objetivos estratégicos.
No cumprimento dessa metodologia, destacam-se os
seguintes critérios de seleção das IC:
– Capacidade de agregação de diferencial competitivo
perante o mercado;
– Utilidade das IC para outros órgãos da MB;
– Validade de aplicação das IC para aferição do
desempenho dos macroprocessos; e
– Viabilidade da coleta dos dados, mediante os
requisitos de disponibilidade, continuidade,
consistência, atualização e confiabilidade.
PROCESSOS RELACIONADOS
A Tabela 1, a seguir, apresenta a correlação entre os
processos do CASNAV, a natureza da Informação e
os objetivos e metas estipulados para a Organização.
SISTEMÁTICA / PRÁTICAS / AÇÕES
A sistemática para definição de critérios para seleção
de IC baseia-se na identificação de Organizações de
referência, que desenvolvam atividades similares ou
pertinentes àquelas desenvolvidas no CASNAV. Essa
identificação é pautada na correlação entre as
informações essenciais e as respectivas metas da
Organização, as quais estão estabelecidas no seu PE.
Esta sistemática leva em conta as necessidades de
informação da Organização, evidenciadas pelos
responsáveis de cada um dos Processos, Objetivos e
Metas a elas relacionados, e pelos respectivos gerentes
dos projetos.
Cabe aos Conselhos Consultivo e Técnico, com base
na sistemática adotada, selecionar os critérios, de forma
que, a partir dos mesmos, seja possível atribuir às IC
de interesse para o CASNAV os seguintes requisitos:
Consistência; Atualização; Coerência (pertinência) com
os processos; Credibilidade; Adequação quanto à
utilização; Abrangência; Validade no tempo; Grau de
idoneidade da fonte; e Veracidade do conteúdo.
165
DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO, CARLOS MIGUEL CORDEIRO DOS SANTOS
TABELA 1
Principais Informações Comparativas Utilizadas
As principais práticas de obtenção das IC estão
sintetizadas na Tabela 2, a seguir.
A captação e análise sistemática de informações
referentes a gestão de outras organizações com perfil
similar ao do CASNAV, especialmente as Organizações
Militares Prestadoras de Serviço (OMPS), por meio
da realização de “benchmarking”, traz oportunidades
para melhorias e inovações que, quando analisadas e
consideradas pertinentes, são incorporadas aos
Processos do CASNAV.
O CASNAV é referência, no País, no que tange à AO,
que abrange as atividades de Teste e Avaliação de
166
Sistemas e PO, usando a TI como ferramenta de apoio,
tendo obtido, como já mencionado, a Certificação ISO
9001:2000 no processo de AO (desde 1 de abril de
2003). As IC são obtidas a partir das auditorias externas
para certificação ISO, cujos auditores trazem práticas
de sucesso de outras organizações.
Outras IC são obtidas, no país, por meio da
participação em Eventos Técnicos, dentre os quais
podem ser citados o Simpósio de Pesquisa
Operacional e Logística da Marinha (SPOLM), o
Simpósio de Tecnologia da Informação da Marinha
(INFORMAR), o Encontro Nacional de Engenharia
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169
TECNOLOGIA DA INFORMAÇÃO
TABELA 2
Principais Práticas de Obtenção de Informações Comparativas
de Produção (ENEGEP) e o Simpósio Brasileiro de
Pesquisa Operacional (SBPO). Nesses eventos, são
apresentados os trabalhos desenvolvidos no CASNAV
e obtidas informações sobre o que se desenvolve em
outras instituições, tais como simulação, análise de
experimentos e utilização de técnicas alternativas.
Nessas oportunidades, é possível avaliar,
comparativamente, o nível em que se encontram os
trabalhos desenvolvidos pelo CASNAV. Há eventos
no exterior também nesta área, aos quais o CASNAV
tem enviado, com freqüência, representantes. Podem
ser mencionados os eventos organizados por:
International Federation of Operational Research
Societies (IFORS), International Test and Evaluation
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169
Association (ITEA), The Institute for Operations
Research and the Management Sciences (INFORMS)
e Military Applications Society (MAS).
O uso do processo de “benchmarking”, após visitas
a outras instituições, inclusive de outros países, e a
comparação com outras OMPS-C da MB (Instituto
de Pesquisa da Marinha – IPqM e Instituto de Estudos
do Mar Almirante Paulo Moreira – IEAPM) e com
os Órgãos que fazem parte do Plano de Carreira de
Ciência e Tecnologia do Governo Federal (Instituto
Nacional de Metrologia – INMETRO, Comissão
Nacional de Energia Nuclear – CNEN, Instituto
Nacional de Propriedade Intelectual – INPI, etc), é
167
DENISE MESQUITA DE BARROS, RENATO PORTHUN, VICTOR RAMOS CARUSO, CARLOS MIGUEL CORDEIRO DOS SANTOS
importante fonte de conhecimento e obtenção de
Informações Comparativas.
TABELA 3
Principais Ações de Melhorias Implantadas
Outros modos de obtenção de IC ocorrem por meio
de consultas a “sites” da Internet e pela leitura de
Publicações Técnicas, que contenham assuntos de
interesse para a Organização .
A partir de 2001, foi implementada uma Pesquisa de
Clima Organizacional (PCO), realizada inicialmente
com instrumentos internos, tendo-se repetido em 2002.
Em 2003, com o intuito de atribuir mais credibilidade
e transparência ao processo, foi contratado um
consultor externo para desenvolver nova PCO, sendo
repetida nos anos de 2004 e 2005 pelo mesmo
consultor.
As informações econômico-financeiras são obtidas a
partir do Relatório Econômico-Financeiro elaborado
pela Diretoria de Finanças da Marinha (DFM),
encaminhado ao Conselho Financeiro e Administrativo
da Marinha (COFAMAR), com distribuição a todas
as OMPS. O referido Relatório tem o propósito de
fornecer, aos diversos setores da Administração Naval,
elementos sobre o desempenho econômico-financeiro
das OMPS-I/C/H, em cada trimestre. As informações
utilizadas na elaboração das análises são obtidas a partir
dos registros efetuados no Sistema Integrado de
Administração Financeira (SIAFI) e no Sistema de
Acompanhamento do Plano Diretor (SIPLAD).
Objetivando a melhoria contínua dos seus processos
operacionais, por meio da captação de IC que
propiciem a agregação de valores que elevem o
desempenho desses processos, o CASNAV adotou,
dentre outras, as seguintes ações (Tabela 3).
Por meio da participação nos eventos organizados pela
SOBRAPO, é possível obter informações correlatas
à área de Pesquisa Operacional (PO), que são
extremamente úteis para o aprimoramento e a
atualização das atividades inerentes ao Processo de
Avaliação Operacional (PAO).
A candidatura ao Programa Nacional de Gestão
Pública propicia, a partir das oportunidades de
melhoria indicadas pela banca avaliadora, perceber as
carências da Organização em termos comparativos e
como está situada entre as demais instituições do
Governo Federal. Além disto, as informações obtidas
por meio de consulta a Relatórios de Gestão de diversas
organizações, especialmente das que possuem perfil
de atuação análogo ao do CASNAV e das
168
reconhecidas pelo referido programa nas faixas ouro
e prata, permitem verificar como o CASNAV se
apresenta em relação ao mercado.
A adesão ao PBQP Software, no qual o CASNAV
tem dois projetos em andamento, gera informações
sobre o que as empresas brasileiras estão realizando
na busca por melhorias na produção de software, e
as tendências do setor.
Ainda na busca pela melhoria do conhecimento dos
processos e do desempenho da Organização no setor
de informática a partir de IC, o CASNAV firmou
convênio com a COPPETEC, fundação vinculada à
COPPE/UFRJ, que lhe tem permitido participar de
uma série de treinamentos na área de engenharia de
software, bem como aderir a um software gratuito
para desenvolvimento de sistemas, fornecido pela
própria COPPE. Além dessa iniciativa, o CASNAV
tem procurado se adequar aos níveis 6 e 7 do MPBSBR, como um passo intermediário para o “Capability
Maturity Model Integrated” (CMMI), e adota como
referência a Norma ISO 12.207, que define os
processos de software.
A filiação à Associação Brasileira de Instituições de
Pesquisa Tecnológica (ABIPTI) propicia uma rica fonte
de Informações Comparativas, por meio do acesso à
base de dados dessa associação, que congrega, dentre
outras, empresas com perfis institucionais análogos ao
do CASNAV.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169
TECNOLOGIA DA INFORMAÇÃO
CONCLUSÃO
Gerenciar um processo significa planejar, desenvolver,
executar e controlar as suas atividades, e avaliar, analisar
e melhorar seus resultados, proporcionando um
melhor desempenho da Organização. Os dados
obtidos a partir das Informações Comparativas se
transformam em informações que assessoram a
tomada de decisão e alimentam a produção de
conhecimentos. Dentro deste enfoque, a Gestão dessas
informações se torna imprescindível para avaliar como
a Organização se encontra em relação ao mercado,
permite identificar as melhores práticas em uso e
propicia a implementação das mudanças necessárias
para melhoria contínua.
Por meio dessa Gestão, o CASNAV vislumbrou
melhorias e inovações que, quando analisadas e
consideradas pertinentes, foram incorporadas aos
processos existentes, tais como:
– Emprego de novas técnicas aplicáveis à otimização
de Sistemas de Simulação, oriundas de observações/
contatos em simpósios e congressos, o que
proporcionou uma maior redução de custos e maior
agilidade e diversidade em termos de variabilidade
dos experimentos realizados no processo de Avaliação
Operacional, aliada ao aumento da confiabilidade na
análise dos mesmos.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 163-169
– Utilização dos resultados obtidos na Pesquisa de
Clima Organizacional, permitindo a comparação do
nível motivacional dos colaboradores do CASNAV
com a média das empresas brasileiras e,
consequentemente, fazendo com que a Organização
adotasse medidas urgentes para mobilização e
motivação de seu pessoal.
– Empenho, por parte do CASNAV, em promover
um fórum para reunir todas as OMPS, quando
poderão ser comparados os resultados obtidos e,
consequentemente, adotadas as melhores práticas de
Gestão.
REFERÊNCIAS
ABNT, NBR ISO 9001 (2000) – Sistemas de Gestão da Qualidade –
Requisitos. Rio de Janeiro.
CASNAV – Relatório de Gestão do CASNAV 2004/2005. Rio de
Janeiro.
GOVERNO DO BRASIL – Instrumento para Avaliação da Gestão
Pública – Ciclo 2005. Brasília.
PAGLIUSO, ANTONIO TADEU (2005) – Benchmarking : Relatório
do Comitê Temático. Qualitymark Ed. 2005. Rio de Janeiro.
169
DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA
Redes neurais recorrentes aplicadas na
detecção multiusuário em sistemas de comunicação
sem fio DS-CDMA
Deolinda Fontes Cardoso
Centro de Análises de Sistemas Navais – CASNAV – MB
Praça Barão de Ladário s/ nº, Ilha das Cobras, Edifício 8, 3º andar
Centro
E-mail: [email protected]
Tiago Travassos Vieira Vinhoza
Centro de Estudos em Telecomunicações da PUC-Rio – CETUC
Rua Marques de São Vicente nº 225 – Gávea
E-mail: [email protected]
Resumo
CDMA (Code Division Multiple Access) é uma das tecnologias
mais promissoras para aumentar a capacidade de sistemas
de comunicação sem fio. Nessa tecnologia, todos os
usuários podem transmitir ao mesmo tempo e cada usuário
utiliza todo o espectro de freqüência disponível para
transmissão. Entretanto, o maior obstáculo ao desempenho é
a interferência de múltiplo acesso (IMA), que é o resultado
da impossibilidade de manter a ortogonalidade entre os sinais
dos usuários na recepção. A detecção multiusuário (MUD) é
a estratégia mais efetiva para minimizar os efeitos adversos
da IMA. Infelizmente, o detector multiusuário ótimo é
considerado NP-Hard e diversas estratégias sub-ótimas vêm
sendo pesquisadas. Neste trabalho, apresentamos um
estudo comparativo da aplicação de estruturas não lineares
baseadas em redes neurais recorrentes (RNR), com decisão
realimentada (DF) aplicadas no problema de MUD. Os
resultados apresentados permitem considerar que o
emprego de estruturas não lineares com decisão
realimentada, pode combater de forma mais efetiva os
efeitos adversos da interferência entre símbolos (IES) e da
interferência de múltiplo acesso (IMA).
Palavras-chave
Redes Neurais Recorrentes; Detecção multiusuário subótimo; Interferência de Múltiplo Acesso; Máxima
Verossimilhança.
Recurrent Neural Networks Applyed in
Multiuser Detection of Wireless
Communication Systems DS-CDMA
Abstract
Code Division Multiple Access is a promising wireless
communication technology. In CDMA systems all users’
signals overlap in time and frequency and cause mutual
interference. This article describes the multiuser detector
based in Recurrent Neural Networks (RNN) with Decision
Feedback in order to minimize the effects of multiple
access interference in wireless communication systems.
Keywords
Recurrent Neural Networks; Multi-user Detection
Sub-optimum; Multiple Access Interference; Maximum
Likelihood.
170
INTRODUÇÃO
A demanda por serviços de comunicação sem fio vem
crescendo rapidamente e, num futuro próximo, é
esperado um crescimento ainda maior, devido ao
desenvolvimento de novos serviços de transmissão
multimídia e vários sistemas baseados em localização
global. Para possibilitar esse desenvolvimento, é
imperativo que os sistemas futuros, denominados 3G
(terceira geração) e 4G (quarta geração), suportem altas
taxas de transmissão de dados (da ordem de Gigabits).
Isso requer bandas de freqüência consideráveis, o que
nem sempre é possível, por tratar-se de um recurso
bastante caro e escasso. Em decorrência, é primordial
que esses sistemas sejam capazes de prover alta
eficiência espectral.
A tecnologia CDMA é um dos métodos mais
eficientes para multiplexar usuários em sistemas de
comunicações, uma vez que estes são separados por
códigos distintos, ao invés de bandas de freqüências
ortogonais, como em FDMA (Frequency Division Multiple
Access) ou por slots ortogonais, como em TDMA (Time
Division Multiple Access). A separação por códigos
permite que todos os usuários possam transmitir ao
mesmo tempo e cada usuário utiliza todo o espectro
de freqüência disponível para a transmissão. Em
adição, apresenta propriedades bastante atrativas, com
bom desempenho em canais com múltiplos percursos.
Entretanto, o maior obstáculo, que limita a capacidade
do sistema CDMA, é a Interferência de Múltiplo
Acesso (IMA). Esta fonte de interferência é resultante
da impossibilidade de manter a ortogonalidade entre
os sinais dos usuários na recepção. Além da IMA,
outras fontes de interferência prejudicam o
desempenho desse sistema, tais como: a Interferência
de Banda Estreita; a Interferência entre Símbolos (IES)
e o ruído inerente ao receptor.
Uma das formas de minimizar os efeitos adversos
desses diferentes tipos de interferência, presentes no
canal de transmissão rádio móvel, é realizar o
processamento dos sinais recebidos dos vários usuários
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
TECNOLOGIA DA INFORMAÇÃO
de forma conjunta, usando as informações contidas
nestes sinais para melhorar a detecção de cada usuário
individualmente. O receptor multiusuário ótimo ML
(Maximum Likelihood) [1] é capaz de minimizar a
probabilidade de erro do sinal recebido, porém, sua
complexidade cresce exponencialmente com o
número de usuários no sistema. Por esta razão, um
grande esforço de pesquisa está sendo realizado, no
sentido de desenvolver receptores sub-ótimos, que
realizam a supressão de interferência, com baixos
requisitos de complexidade.
Redes neurais têm sido utilizadas no projeto de
receptores para sistemas de comunicações, devido à
sua capacidade de classificação, generalização e
mapeamento não linear. Em adição, receptores neurais
apresentam resultados de desempenho superior, na
separação dos sinais de diferentes usuários, em presença
de canais de comunicações seletivos em freqüência e
ruído. Neste trabalho, apresentamos um estudo
comparativo de detectores multiusuário baseados em
redes neurais recorrentes, que incorporam a técnica
de decisão realimentada (decision feedback – DF). Os
resultados apresentados permitem considerar que o
emprego de redes neurais com decisão realimentada,
pode combater de forma mais efetiva os efeitos
adversos da IES e da IMA [2,3], por usar a
realimentação de decisões passadas para realizar
decisões no instante corrente.
Este trabalho está organizado da seguinte forma: a
Seção 2 apresenta o modelo do sistema DS-CDMA;
a Seção 3 descreve o problema da detecção
multiusuário ótima; a Secção 4 aborda os receptores
de detecção multiusuário baseados em redes neurais
recorrentes; a Seção 5 descreve os resultados de
desempenho; e a Seção 6 apresenta as conclusões.
O MODELO DO SISTEMA DS-CDMA
O modelo matemático, ilustrado na Figura 1, a seguir,
considera o canal reverso de um sistema DS-CDMA
com modulação BPSK e com K usuários ativos. Cada
usuário transmite um bloco de (2M + 1) símbolos
bk(i), onde i ∈ [-M,...,M ] representando o i-ésimo
intervalo de tempo. Os blocos são separados por um
período de guarda Tg para assegurar que não exista
interferência entre blocos adjacentes. Blocos de
diferentes usuários são transmitidos sincronamente,
porém, no nível de símbolo o sistema é, em geral,
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
assíncrono. O máximo atraso relativo ηk do k-ésimo
usuário é limitado pela duração de símbolo T.
O sinal em banda básica transmitido pelo k-ésimo
usuário ativo é dado por:
pk (t) = Ak ∑∞i= -∞ bk(i) sk(t-iT-ηk)
bk (i) ∈ {+/- 1 +j0} com j2 = -1, bk(i) denota o i-ésimo
símbolo do usuário k; A k é a amplitude; e s k(t)
representa a forma de onda de espalhamento expressa
por:
sk(t) = ∑Ni= 1 ak(i) φ (t-iTc)
com ak(i) ∈ { +/-1/√N} e φ(t) é a forma de onda
do chip, Tc é a duração do chip e N é o ganho de
processamento dado por: N=T/Tc.
Cada usuário transmite em um canal multipercurso
com resposta impusional hk(t). Na entrada do receptor,
o sinal composto de todos os usuários é corrompido
por ruído aditivo Gaussiano branco, formando o sinal
recebido r(t), que é demodulado de forma coerente.
A seguir, o sinal é filtrado por um filtro casado ao
pulso de chip e amostrado à taxa de chip, produzindo
o vetor recebido dado por:
r(i) = ∑Kk= 1 Ak Hk(i) Bk(i)Sk + n(i)
onde n(i) é o vetor de ruído complexo gaussiano; Bk(i)
é a matriz diagonal de símbolos do k-ésimo usuário; a
matriz Sk contém versões deslocadas da seqüência de
assinatura do usuário k; e Hk (i) é a matriz que
implementa convolução do sinal do usuário k com o
canal correspondente.
Para o receptor convencional multiusuário linear one
shot, onde é observado e detectado apenas um símbolo
a cada instante, o vetor de observações u(i) é dado
por: u(i) = SH r(i) = [ u1 u2 ...uk ]T, onde S é a matriz que
representa o banco de filtros casados às assinaturas
dos usuários.
A seqüência de vetores na saída do filtro casado a
cada usuário é dada por:
u(i) = [u1(i) u2(i) … uK(i) ]T
O vetor u(i) apresenta estatísticas suficientes para a
detecção multiusuário ótima. Por simplicidade, a
amostragem no tempo é considerada síncrona com k
= iT + ηk onde k = 1,...K.
171
DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA
A saída do filtro casado ao canal pode ser reescrita na
forma:
uk(i)=bk(i).Rkk(0) + ∑M j= -M bk(j).Rkk(i-j) + ∑Km=1 ∑M
b (j).Rkm(i-j) + nk (t)|t=iT+ηk
j=-M m
onde k ∈ [1,...,K] e i ∈ [ -M ,..., M];
∑ M j=-M b k (j).R kk (i-j) representa a parcela de
Interferência entre símbolos (IES);
∑Km=1 ∑M j=-M bm(j).Rkm(i-j) representa a parcela de
Interferência de múltiplo acesso (IMA); e nk (t)|t=iT+ηk
é a componente do vetor do ruído presente no canal
rádio móvel.
Os parâmetros R km (i) e R kk (i) são compostos,
respectivamente, por elementos da matriz de correlação
cruzada e por elementos da matriz de autocorrelação
do canal de propagação.
Assim, para o k-ésimo, a parcela da IES depende da
função de autocorrelação da forma de onda da assinatura
do sinal sk(t) e da resposta de impulso do canal hk(t); e
a parcela da IMA no k-ésimo usuário (devido ao mésimo usuário) depende da função de correlação cruzada
das formas de onda da assinatura sk(t) e sm(t) de cada
usuário e da resposta de impulso do canal hk(t).
Os símbolos detectados são dados por: b’(i) = sgn
(Real[u(i)]), onde b’(i) é o vetor contendo os símbolos
detectados do i-ésimo símbolo dos K usuários, sgn(.) é
a função sinal e Real(.) é o operador que retira a parte
real do argumento.
DETECÇÃO MULTIUSUÁRIO ÓTIMA
(MLSE)
No receptor, a demodulação de determinado usuário
requer o processamento do sinal, de forma a suprimir
os diferentes efeitos adversos do canal de
comunicações e da interferência de múltiplo acesso
(IMA). A MUD é a estratégia mais promissora para
aumentar a capacidade e o desempenho de sistemas
CDMA, através da minimização dos efeitos adversos
da IMA. Nessa estratégia, desde que os códigos, as
amplitudes dos usuários e os parâmetros do canal sejam
conhecidos pelo receptor, a informação dos vários
usuários é usada de forma conjunta, com o intuito de
melhorar o processamento do sinal de cada usuário.
Em [1], o autor apresentou o detector multiusuário
ótimo que minimiza a probabilidade do erro através
da MLSE (Maximum Likelihood Sequence Estimation). O
MUD ótimo para canais multipercurso [4] é aquele
que fornece a seqüência de estimativa de máxima
verossimilhança para a seqüência de bits transmitida:
b’ = arg max p(u | b) com b ∈ {-1,1}K
A seqüência de vetores de símbolos estimada b’(i) que
maximiza a função de log likelihood, dada na expressão
acima, é a seqüência que minimiza a distância entre a
seqüência do vetor de saída do filtro casado ao canal
e todas as possíveis seqüências de vetores de símbolos
de informação. O máximo absoluto da função de log
likelihood pode ser obtida através do algoritmo de
Viterbi [4], que apresenta complexidade O(2 K),
crescente exponencialmente com o número K de
FIGURA 1
Modelo do sistema DS-CDMA BPSK com K usuários
172
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
TECNOLOGIA DA INFORMAÇÃO
usuários ativos no sistema. Por essa razão, a detecção
multiusuário ótima é um problema NP-Hard, sendo
intratável computacionalmente mesmo para um baixo
número de usuários.
RECEPTORES COM REDES NEURAIS
RECORRENTES
As estruturas não lineares são capazes de lidar de modo
eficaz com as incertezas encontradas no sinal recebido;
sejam as provocadas pela hostilidade do canal de
comunicações, pela interferência de outros usuários
ou pelo ruído do receptor [6]. Geralmente, apresentam
resultados superiores na separação dos sinais de
diferentes usuários, principalmente, em presença de
canais de comunicações seletivos em freqüência e ruído.
Em adição, oferecem a possibilidade de uma
implementação adaptativa.
As redes neurais recorrentes possuem uma ou mais
conexões realimentadas, onde cada neurônio artificial
é conectado aos outros neurônios e são consideradas
adequadas aos problemas de equalização e de detecção
multiusuário. Isto porque tratam, de forma eficaz, as
funções de transferência de canais de comunicações,
que apresentam nulos espectrais profundos, o que
acarreta regiões de decisões ótimas com mínima
probabilidade de erro.
Receptores com decisão realimentada e filtros
lineares
De um modo geral, a literatura [13] indica que a
utilização de uma seção de decisão realimentada (DF)
em um receptor multiusuário (MUD-DF) aumenta a
sua capacidade de cancelar a IMA e a IES. A estrutura
realimentada minimiza os efeitos da IMA e da IES,
de forma mais efetiva, ao tentar cancelar a contribuição
dos sinais interferentes nos instantes de decisão. Além
disso, os sistemas baseados em realimentação podem
reduzir o efeito de aumento do ruído, que geralmente
ocorre em receptores MMSE (Minimum Mean Squared
Error), permitindo o filtro linear direto ter maior
flexibilidade no combate à IMA e à IES.
Na Figura 2, é ilustrado um receptor DF do tipo one
shot (em um instante de tempo apenas um símbolo de
cada usuário é observado e detectado).
Para o receptor que incorpora a seção realimentada,
os símbolos detectados são:
bk’(i) = sgn(Real[wkH(i) u(i) – fkH(i) b’(i)])
onde wk(i) = [wk,1(i)...wk,K(i)]T e fk(i) = [fk,1(i)....fk,K(i)]T
são, respectivamente, os vetores de coeficientes
complexos da seção direta e realimentada do receptor,
para o usuário k e o i-ésimo símbolo em um sistema
com K usuários. O vetor b’(i) contém as decisões do
receptor. Ao adotar decisão realimentada do tipo
paralela, a matriz F(i) = [f1(i) ... fK(i)] de dimensão
KxK tem os elementos da diagonal principal iguais a
zero, para evitar o cancelamento dos símbolos
desejados.
A solução MMSE adaptativa (receptor ilustrado na
Figura 2) é obtida através do algoritmo LMS (Least
Mean Square) [11]. Considerando a função de custo
dada por:
FIGURA 2
Receptor one shot com decisão realimentada paralela.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
173
DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA
FCUSTO (wk(i), fk(i)) = E[|bk(i) – (wkH (i) u(i) – fkH
(i)b’(i))|2]
Utilizando esta modelagem, o vetor de estados da
RNR para o usuário k é descrito por:
Calculando as expressões do gradiente em relação à
wk (i) e fk (i) e usando os valores instantâneos dessas
expressões em uma técnica de gradiente descendente,
obtém-se as recursões:
xk(i+1) = [ σ(w1H ξ(i)) σ(w2H ξ(i)) ... σ(wqH ξ(i)) ]T
wk(i+1) = wk(i) + µw errok*(i) u (i)
fk(i+1) = fk(i) + µf errok*(i) b’ (i)
Onde o sinal de erro é dado por errok (i) = bk(i) –
(wkH(i) u(i) – fkH(i) b’(i)), o asterisco denota o conjugado
complexo, bk(i) é o sinal ou símbolo desejado para o
k-ésimo usuário receptor. No modo de treinamento, é
usada uma seqüência de símbolos conhecidos e, no
modo de operação, as decisões tomadas são utilizadas
como seqüência de treinamento para adaptação dos
parâmetros. Os parâmetros µ w e µ f são,
respectivamente, os passos do algoritmo para as seções
direta e realimentada.
Receptores neurais com decisão realimentada
Para o treinamento do equalizador neural, é empregado
o algoritmo Real Time Recurrent Learning (RTRL). Neste
algoritmo de aprendizado, o ajuste dos pesos
sinápticos é feito em tempo real, isto é, enquanto a
rede processa o sinal. Este algoritmo é derivado a
partir da descrição da rede por equações de estado.
onde se supõe que todos os neurônios tem a mesma
função de ativação σ (x) = tanh (x);
O vetor wj é o vetor de coeficientes (pesos sinápticos)
complexos do neurônio j na rede recorrente, e o vetor
ξ(i) é composto pelo vetor de estados passados x(i1) e pelo vetor de observações u(i). A estimativa dada
pela estrutura neural recorrente é dada por:
y(i) = Cx(i) = C σ(Wax(i-1) + Wbu(i))
onde C é a matriz que seleciona e combina os estados
da rede para formar a estimativa y(i) e Wa e Wb são,
respectivamente, matrizes com os pesos sinápticos
provenientes da malha de realimentação e das entradas.
Assim, com xk(i) = σ(W1H(i) ξ(i)), onde Wk é a matriz
com os vetores de pesos dos neurônios da rede neural
para do usuário k, obtém-se os valores na saída do
receptor neural com decisão realimentada, dados por:
b’k(i) = sgn (Real [Cxk(i) – fkH (i) b’(i)])
onde o vetor fk(i) contém os parâmetros da seção
realimentada, que realiza o cancelamento da
interferência do detector multiusuário, e C é uma
matriz que seleciona o número de saídas da rede neural
utilizadas para formar a estimativa y(i). A Figura 3
FIGURA 3
Diagrama do receptor multiusuário adaptativo de decisão realimentada com filtro FIR e rede neural recorrente na
seção direta.
174
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
TECNOLOGIA DA INFORMAÇÃO
ilustra o diagrama de blocos do MUD neural com
decisão realimentada one shot (uma saída b’k(i) por vetor
de observação u(i)).
Receptor neural adaptativo
Para ajustar os parâmetros do receptor multiusuário
neural com decisão realimentada, pode ser adotada a
técnica adaptativa baseada no gradiente estocástico. A
diferença principal desse algoritmo e do algoritmo
RTRL é que aquele considera a seção realimentada do
receptor, e o RTRL foi desenvolvido para ser utilizado
em uma estrutura exclusivamente neural e recorrente.
A função de ativação da rede neural, sendo a tangente
hiperbólica, facilita o processo de adaptação, devido
a ser uma função diferenciável e pelo fato de
apresentar uma expressão analítica para a sua derivada,
dada pela secante hiperbólica ao quadrado (d tanh(x)/
dx = sech2(x)). A função de custo adotada no algoritmo
adaptativo de gradiente estocástico é dada por:
FCUSTO (wk(i), fk(i)) = E[|bk(i) – (wkH (i) u(i) – fkH
(i)b’(i))|2] = | ∈k(i) | = |errok(i)|2
utiliza o critério MMSE, a partir dos valores de erro
instantâneos da expressão dada por:
errok(i)=bk(i) – (Cxk(i) – fkH (i) b’(i))
Após calcular os termos do gradiente estocástico em
relação a Wk e fk e, usando a regra da cadeia em xk(i) =
σ(W1H(i) ξ(i)), obtém-se a expressão de recursão, que
descreve a dinâmica do processo de aprendizagem
do receptor neural:
Λk,j(i+1) = k(i) (Wk1:K(i) Λk,j(i) + Uk,j(i))
onde  k(i) é uma matriz diagonal com elementos
correspondentes à derivada da função de ativação σ
(x) = tanh (x), com respeito ao seu argumento em
wk,jH (i) ξk(i); e
Uk,j(i) é a matriz que possui todas as linhas com
elementos iguais a zero, exceto a j-ésima linha, que é
dada pelo vetor ξ(t).
A regra de ajuste dos coeficientes da seção
realimentada do MUD neural DF é dada por:
RESULTADOS EXPERIMENTAIS
Neste trabalho, são investigados os desempenhos dos
receptores multiusuário, que empregam redes neurais
recorrentes adaptativas diferentes dos propostos em
[5] e que utilizam estruturas de cancelamento de
interferência através de decisão realimentada (Decision
Feedback – DF). Uma versão do detector RNR
adaptativo sem cancelamento de interferência foi
publicada em [9], e receptores adaptativos RNR com
DF foram descritos em [10]. Detectores multiusuário
adaptativos, com e sem cancelamento de interferência,
que empregam o critério MMSE, são examinados com
o algoritmo LMS (Least Mean Square) [11] e
comparados aos receptores neurais, que operam com
o algoritmo baseado no gradiente estocástico
denominado RTRL (Real Time Recurrent Learning),
proposto por Williams e Zipser [12].
Nossa investigação, baseada em [2], avaliou os
desempenhos de receptores multiusuário lineares e
neurais com e sem decisão realimentada, comparando
seus desempenhos com o detector convencional de
um único usuário (SUD) e com o limiar de
desempenho de um único usuário (SU Bound), que
corresponde ao SUD em um sistema com apenas um
usuário e sem IMA. A medida de comparação é a
taxa de erro de bits (Bit Error Rate – BER); quanto
menor for essa medida mais eficiente é o sistema.
Para examinar os receptores, é considerado um sistema
DS-CDMA BPSK (Binary Phase Shift Keying) com
seqüências de espalhamento de Gold com N=15 e
largura de banda de 3.84 Mhz, típica de sistema DSCDMA faixa larga e com taxa de transmissão de 256
kbps. A freqüência de portadora é de 1900 MHz.
Supõe-se que os canais são estatisticamente
independentes e identicamente distribuídos. O
desempenho e a convergência, em termos de BER,
dos receptores multiusuário, são avaliados em canal
seletivo em freqüência com desvanecimento de Rayleigh.
Os resultados de desempenho ilustrados referem-se à
BER média dos K usuários em questão. Além dessas
considerações, os canais são normalizados,
apresentando potência unitária no receptor.
fk (i+1) = fk (i) + µf errok* (i) b’ (i)
Sendo que, nesta equação o sinal de erro é função da
rede neural recorrente.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
175
DEOLINDA FONTES CARDOSO, TIAGO TRAVASSOS VIEIRA VINHOZA
A Figura 4 ilustra as curvas de BER versus Eb/N0. A
Figura 5 ilustra as curvas BER versus número de
usuários. É possível observar que os resultados
alcançados pelo receptor MUD DF Neural RTRL
são superiores ao MUD neural RTRL sem DF, ao
MUD DF LMS, ao MUD linear LMS e ao SUD.
FIGURA 4
Desempenho em BER versus Eb/N0 dos receptores
multiusuário em um canal seletivo em freqüência com
desvanecimento de Rayleigh.
CONCLUSÕES
Este trabalho abordou o problema da detecção
multiusuário, em sistemas de comunicações sem fio,
que utilizam a técnica de DS-CDMA. Foram avaliados
os desempenhos de receptores multiusuário
adaptativos, que utilizam técnicas de inteligência
artificial adotando redes neurais recorrentes (RNR).
Os receptores multiusuário RNR foram comparados
aos detectores multiusuário com filtros FIR lineares.
Os receptores MUD lineares utilizaram o critério de
desempenho MMSE (Minimum Mean Squared Error)
através do algoritmo LMS (Least Mean Square) e os
receptores neurais utilizaram o algoritmo RTRL (Real
Time Recurrent Learning). Em adição, foram avaliados
os desempenhos desses receptores, incorporando
estruturas de decisão alimentada DF (Decision Feedback).
Uma das principais vantagens de esquemas com
decisão realimentada paralela, é proporcionar um
desempenho uniforme com relação aos diferentes
usuários. Por outro lado, a desvantagem principal é a
susceptibilidade à propagação de erros. A solução
MMSE adaptativa para o receptor MUD-DF pode
ser obtida através do algoritmo LMS. Os maiores
problemas deste algoritmo são: apresentar uma taxa
de convergência muito lenta e a existência de dispersão
significativa entre o maior e menor autovalor da matriz
de autocorrelação do vetor de observações.
O MUD neural RTRL com Decisão Realimentada
(DF) consegue melhor desempenho que o MUD
neural RTRL sem Decisão Realimentada, superando,
mais ainda, os MUD lineares LMS com e sem Decisão
Realimentada e o detector de único usuário (SUD). O
que comprova que a estratégia de decisão realimentada
DF é eficaz para cancelar os efeitos adversos da IMA
e IES e aumentar a capacidade do sistema. A estratégia
DF consiste em tentar minimizar a contribuição dos
sinais interferentes nos instantes da decisão.
FIGURA 5
Desempenho em BER versus número de usuários dos
receptores multiusuário em um canal seletivo em
freqüência com desvanecimento de Rayleigh e Eb/N0 =
8 dB.
176
Os receptores neurais apresentam maior
complexidade, em comparação com os detectores
convencionais baseados em filtros lineares com
resposta impulsional finita FIR (Finite Impulse Response).
Isto porque empregam funções não lineares para
formar regiões de decisão na detecção dos símbolos
transmitidos, ao contrário dos detectores convencionais
que utilizam funções lineares. Entretanto, o emprego
de estruturas neurais é atrativo para situações onde o
fator de espalhamento é baixo (número de elementos
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
TECNOLOGIA DA INFORMAÇÃO
de processamento é reduzido) e o número de usuário
operando com altas taxas de transmissão é pequeno.
Sob este aspecto, o compromisso complexidade
computacional versus desempenho oferecido pelos
detectores neurais é bastante promissor.
REFERÊNCIAS
Com base nessas considerações, é viável a aplicação
de estruturas neurais com decisão realimentada em
sistemas de telefonia celular DS-CDMA. Nesses
sistemas, os usuários que operam com altas taxas de
transmissão podem ser acomodados, reduzindo-se o
ganho de processamento N e adotando um fator de
espalhamento menor [7,8]. Em tais situações, apesar
da interferência de múltiplo acesso (IMA) ser
relativamente baixa, em virtude do número reduzido
de usuários, a interferência entre símbolos (IES) pode
causar uma significativa degradação no desempenho
do sistema. Nesse contexto, RNR utilizadas no projeto
de receptores MUD são bastante promissoras e
apresentam desempenhos superiores às estruturas
lineares [2,5,9,10].
[3] HONIG, M.L. e POOR H. V. Adaptive Interference Suppression em
Wireless Communications: Signal Processing Perspectives, PrenticeHall, cap. 2, 64-128, 1998.
Os resultados desta investigação permitem considerar
que receptores MUD com estratégias de DF e RNR
permitem alcançar desempenho superior ao dos
receptores MUD lineares. Isto é devido às estruturas
neurais permitirem dimensionar o tamanho e os
coeficientes da rede à partir dos parâmetros
característicos do sistema de comunicações. Além de
permitirem reduzir o ganho de processamento para
atender às transmissões com altas taxas de dados.
Sugestões para trabalhos futuros: analisar a
convergência dos algoritmos para receptores neurais
no caso linear; propor novos algoritmos com baixa
complexidade que empregam seleção de dados e
passos variáveis para estruturas neurais.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 170-177
[1] VERDU, S. Multiuser Detection, Cambridge, 1998.
[2] DE LAMARE, RODRIGO C. Estruturas e Algoritmos para Detecção
Multiusuário e Supressão da Interferência em Sistemas DS-CDMA. Tese de
Doutorado em Engenharia Elétrica. Pontifícia Universidade Católica
do Rio de Janeiro. Dezembro de 2004.
[4] HESS J., REINHARDT M., LINDNER J., BOSSERT M., DONDER
A., BECK M., Performance of Optimum and Suboptimum Multiuser Detection
in DS-CDMA Mobile Radio Systems. IEEE Second Symposium on
Communications and Vehicular Technology, SVCT’94, Bélgica, 7481, 1994.
[5] TEICH W. G., SEIDL M. e NOLD M. Multiuser Detection for DSCDMA Communication Systems based on Recurrent Neural Networks Structures,
IEEE ISSSTA’98, Setembro, 863-867, 1998.
[6] HAYKIN, S. Neural Networks: A Comprehensive Foundation, 2nd Ed,
Prentice-Hall, 99
[7] PHYSICAL Layer Standard for CDMA2000 Spread Spectrum Systems
(Release C), Telecommunications Industry Association, TIA/EIA/
IS-20002.2-C, Maio 2002.
[8] PHYSICAL Layer aspects of UTRA High Speed Downlink Packet Access
(Release 4) 3rd Generation Partnership Project, 3GPP TS 25.2, Series, Technical
Specification, 2001.
[9] DE LAMARE R.C. e SAMPAIO NETO R. Analysis of Adaptive
Multiuser Receivers for DS-CDMA using Recurrent Neural Networks. SBrT/
International Telecommunications Symposium, 2002.
[10] DE LAMARE R.C. e SAMPAIO NETO R. Adaptive Decision Feedback
Multiuser Detectors with Recurrent Neural Networks for DS-CDMA in Fading
Channels. Proceedings IEEE International Conference in
Telecommunications (ICT), Fortaleza, Agosto, 2004.
[11] HAYKIN S. Adaptive Filter Theory, 4rd Edition, Prentice-Hall, 2002.
[12] WILLIAMS R.J. e ZIPSER A. Learning Algorithm for continually
running fully Recurrent Neural Networks. Neural Computation, vol. 1 pp.
270-280. 1989.
[13] ABDULRAHMAN M., SHEIKH A. U.K e FALCONER D. D.
Decision Feedback Equalization for CDMA. Indoor Wireless
Communications. IEEE Journal on Selected Areas in
Communications, vol 12, no. 4, 1994.
177
CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO
Gerenciamento pró-ativo distribuído com
garantias fim-a-fim de QoS e tolerância a
falhas em serviços multimídia
Capitão-de-Corveta (EN)Marcio Elkind
Mestre em Engenharia Elétrica, concentração em Redes
IPqM – Instituto de Pesquisas da Marinha
E-mail: [email protected]
Jorge Lopes de Souza Leão
Docteur Ingénieur – Univ. Paul Sabatier de Toulouse
GTA – Grupo de Teleinformática e Automação
Universidade Federal do Rio de Janeiro
E-mail: [email protected]
Resumo
Apresentamos a concepção de um sistema de gerência
distribuída e pró-ativa para a distribuição de vídeo de tempo
real, que controla a admissão de novos fluxos e a QoS fim-afim de aplicações, segundo uma política preemptiva de
prioridades. Ocorrendo falhas na distribuição, a gerência
procura degradar graciosamente a qualidade dos fluxos de
vídeo sendo distribuídos. Os sistemas de distribuição de
vídeo e de gerência são construídos sobre uma infraestrutura que utiliza componentes disponíveis
comercialmente.
Palavras-chave
Gerência distribuída. Tolerância a falhas. QoS. Distribuição
de vídeo. Prioridades entre fluxos.
Proactive and Distributed Management with
end-to-end QoS Garantees and Fault Tolerance
in Multimedia Services
Abstract
We present the conception of a system that manages, in a
distributed and proactive way, the admission of new streams
and the end-to-end QoS of applications, based in a
preemptive priority scheme. As failures happen in the
distribution system, the management tries to gracefully
degrade the quality of the videos being distributed. The
distribution and management systems are supported by an
infrastructure based on commercially available
components.
Keywords
Distributed management. Fault tolerance. QoS. Video
distribution. Stream priorities.
178
INTRODUÇÃO
A gerência pró-ativa de redes objetiva detectar
preventivamente degradações de desempenho de
aplicações, bem como prover suporte à realização de
futuras ações.
A distribuição de vídeo em tempo real (e.g. radar) em
navios da Marinha do Brasil criou a necessidade de
uma gerência automática, que controle a QoS fim-afim e admita novos fluxos de forma preemptiva.
Franceschi, em [3], utiliza um monitor inteligente que
extrai informações via SNMP de uma rede local. A
linguagem PROLOG é usada para representar uma
base de conhecimentos e detectar anomalias de QoS.
O trabalho em [16] descreve um agente que coleta
informações e utiliza redes Bayesianas para inferir próativamente a degradação da QoS.
No trabalho em [24] é proposto o uso do roteamento
OSPF com QoS (Q-OSPF), do MPLS, para
encaminhar os pacotes e de um algoritmo com base
em QoS para fazer o controle de admissão. A
tolerância a falhas é obtida por uso de diversidade de
caminhos.
Em [2], sobre uma infra-estrutura de gerenciamento
distribuído, propõe-se o uso de Inspetores de
Desempenho enviados, por um Gerente de Domínio,
a elementos a serem monitorados (roteadores,
estações). Estes Inspetores, que obtêm informações
através de SNMP, de RTCP e do sistema operacional,
usam um algoritmo baseado em limiares para decidir
quando enviar um alarme de quebra de QoS ao seu
Gerente de Domínio.
Já em [1], estendendo a infra-estrutura usada em [2], é
proposta a instalação de inspetores nas bordas e no
interior de um domínio MPLS para, monitorando a
tendência de QoS, decidir pelo rerroteamento de
fluxos dentro deste domínio.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
TECNOLOGIA DA INFORMAÇÃO
Entretanto, não é do nosso conhecimento uma
proposta de gerência pró-ativa que trate de forma
integrada a QoS fim-a-fim, o controle de admissão
preemptivo de fluxos de vídeo e reaja às ações tomadas
pelos mecanismos de tolerância a falhas existentes na
infra-estrutura .
O restante deste artigo está estruturado da seguinte
forma. A seção 3 descreve o sistema proposto. Na
seção 4 é especificada uma infra-estrutura,
comercialmente viável, para suportar os sistemas de
distribuição de vídeo e a Gerência. A concepção do
sistema proposto é descrita na seção 5. A seção 6
detalha a implementação do Inspetor de Desempenho
e resultados obtidos. Na seção 7, concluímos e
propomos uma continuidade para o trabalho.
DESCRIÇÃO DO SISTEMA
O Sistema Confiável de Distribuição de Vídeo
(SCDV), disposto na Figura 1, tem como objetivo a
distribuição de fluxos de vídeo e de dados segundo o
paradigma cliente-servidor. Ele procura manter a QoS
dos fluxos de vídeo, atendendo a uma política de
prioridades definida para os fluxos e para os clientes.
Sob uma perspectiva macroscópica, o SCDV constituise de duas partes:
– uma infra-estrutura, que constitui o núcleo físico
do sistema, tendo seus próprios mecanismos que
oferecem diversos serviços e permitem receber
controles externos; e
– uma entidade distribuída que gerencia todo o
SCDV, colhendo informações e atuando pró –
ativamente na infra-estrutura, sempre com uma visão
panorâmica do que ocorre nos seus diversos
componentes.
Requisitos do sistema proposto
1. O sistema diferencia 3 tipos de fluxos segundo
prioridades:
– Mensagens Imediatas (MI);
– Vídeos de Tempo Real (VTR); e
– Dados Comuns (DC).
Obs: Além destes, existe o controle da infra-estrutura
de suporte ao SCDV, que também deve ter alguma
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
FIGURA 1
Descrição do SCDV
garantia de vazão para que o sistema atenda os seus
requisitos.
2. O sistema diferencia os clientes segundo prioridades.
Os clientes são executados em nome de usuários
comuns ou privilegiados;
3. O sistema é capaz de tratar a QoS dos fluxos de
MI e VTR;
4. O sistema possui um controle de admissão que
garante a QoS dos fluxos (MI e VTR), levando em
conta as prioridades (dos fluxos e dos clientes);
5. O sistema possui um serviço de gerência pró-ativa
da QoS. Esta gerência leva em conta o conjunto dos
fluxos e dos clientes, e suas prioridades, e a
conectividade do sistema (ou de seções do mesmo);
6. O sistema deve ser tolerante à falhas quanto à
distribuição dos vídeos, envidando todos os esforços
para garantir a entrega aos clientes com QoS. Esta
tolerância refere-se a:
– perdas de enlaces: defeito no cabeamento, placas
de rede, tanto nos clientes quanto nos servidores, e
defeito nas portas dos comutadores; e
– falha de um comutador: não acumulativo, pois em
caso de quebra de um, as ligações com o outro
comutador devem estar operacionais.
7. O sistema não é tolerante à falhas quanto à geração
dos vídeos, pois cada vídeo é produzido, em tempo
real, a partir um único sensor; e
179
CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO
8. O sistema é tolerante à falhas de clientes, pois estes
operam consoles multifuncionais, bastando o usuário
iniciar um novo cliente em outro console.
INFRAESTRUTURA DE SUPORTE AO
SCDV
A infra-estrutura deve ser constituída de componentes, protocolos e padrões disponíveis atualmente. Sua
arquitetura está baseada nos níveis 2 e 3 do modelo
OSI da ISO, provendo: roteamento unicast e multicast,
reorganização de enlaces, resiliência dos comutadores,
tratamento da QoS e de perdas de pacotes.
– PIM-DM e SSM (Protocol Independent Multicast/
Dense Mode e Source Specific Multicast);
– DVMRP (Distance Vector Multicast Routing
Protocol); e
– MOSPF (Multicast Open Shortest Path First).
O protocolo MOSPF, além de não ser comercialmente
implementado, tem como desvantagem o alto custo
computacional [4].
Roteamento Unicast no SCDV
Nos protocolos baseados no estado dos enlaces, cada
nó somente propaga informações quando há uma
alteração nos seus enlaces (LSAs), e esta é difundida
para todo domínio, de forma que cada nó tem
rapidamente a nova configuração do sistema. Esta
característica é essencial para a tolerância a falhas no
SCDV.
Uma escolha natural seria uma extensão do OSPF para
roteamento com QoS, o Q-OSFP (RFC 2676).
Contudo, apesar do Q-OSPF ser um padrão [5] e
existirem trabalhos relacionados [6], nossa pesquisa nos
principais fabricantes de equipamentos (3Com, Cisco,
Juniper, NortelNetworks), revelou que esse protocolo
ainda não é implementado.
Em conseqüência, nossa escolha será o OSPF, por ser
comercialmente difundido, por facilitar o
balanceamento de carga e por possuir boa
convergência [9].
Roteamento Multicast no SCDV
O encaminhamento multicast é mais eficiente que a
difusão broadcast, por permitir a recepção dos dados
apenas por membros de um grupo previamente
definido, ao invés de inundar os dados para toda a
rede. É, também, mais eficiente que várias
comunicações unicast (ponto a ponto) simultâneas,
porque faz melhor uso do meio de comunicação,
evitando redundância de informação trafegada [8].
Em [8] é apresentado o gráfico da Figura 2, segundo
o qual, os protocolos mais apropriados, conforme a
métrica de dimensão da rede, são:
180
FIGURA 2
Comparação dos Protocolos de Roteamento Multicast
Em [10] é feita uma comparação entre os protocolos
DVMRP, PIM-DM, PIMSM e o PIM-SSM. As
métricas usadas foram a capacidade de reconfiguração
da árvore de distribuição, a taxa de utilização dos
enlaces da rede e o número e a carga de pacotes de
controle de roteamento. Os autores concluíram que o
PIM-SSM é o protocolo mais indicado para ser usado
no serviço de distribuição vídeo.
Escolhemos o protocolo PIM-SSM porque, além das
métricas mencionadas, é implementado nos roteadores
atuais, é adequado a redes de médio porte e é
compatível com o protocolo de roteamento unicast
escolhido (OSPF).
Reorganização de enlaces partidos
Caso ocorram falhas em algum enlace ou comutador,
o SCDV deverá ser capaz de rapidamente ajustar-se à
nova configuração. As situações que podem ocorrer
são:
– rompimento de ligações entre comutadores: neste
caso, o protocolo Spanning Tree (STP) irá habilitar uma
ligação que fora previamente bloqueada; e
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
TECNOLOGIA DA INFORMAÇÃO
– rompimento de uma das ligações entre um nó e
um comutador: este caso pode ser visualizado na
Figura 1, onde nó está ligado por enlaces principal (P)
e alternativo (A) com os dois comutadores. O sistema
operacional detectará que uma das interfaces de rede
está inoperante, avisando à aplicação, que poderá
redirecionar o fluxo para a outra interface de rede.
Resiliência dos comutadores
O VRRP (Virtual Router Redundancy Protocol) [11]
atua na camada 3 e trata os roteadores redundantes
como um grupo, onde um mestre é eleito. Se o mestre
falhar, o VRRP elege um novo mestre para grupo.
Em [23] são avaliadas situações de falha, indicando
que o tempo mínimo de reconfiguração da rede varia
de 4 a 12 segundos, com o HSRP (proprietário Cisco).
A tecnologia XRN, da 3Com, habilita cada comutador
membro a rotear pacotes localmente. Em [12] são
medidos os tempos de recuperação quando um dos
enlaces ligados ao conjunto XRN é partido e quando
a alimentação de um dos comutadores XRN é
desconectada. No primeiro teste, em 822 milisegundos,
todo o tráfego foi redirecionado ao enlace restante,
enquanto que, no segundo, em apenas 438 milisegundos
o comutador restante assumiu todo o tráfego.
A tecnologia XRN, da 3Com [14], é mais rápida,
portanto será escolhida.
Então, para o SCDV, a distribuição de classes será
conforme a Tabela 1.
TABELA 1
Classes no SCDV (ordenadas por prioridades
decrescentes)
Classe
DiffServ
Mensagens Imediatas (MI)
EF
Cliente Prioritário
AF4_alta
Vídeos alta prioridade (VAP)
AF3_alta
Vídeos média prioridade (VMP) AF2_alta
Vídeos baixa prioridade (VBP) AF1_alta
Dados comuns (DC)
BE
Classe do SCDV
DSCP
101110
100110
011110
010010
001010
000000
Perda de pacotes no SCDV
A rede pode descartar pacotes de forma randômica,
principalmente por congestão nos comutadores. Além
disto, o retardo nos pacotes pode ser grande o
suficiente que os inviabilize na aplicação.
Algumas técnicas têm sido propostas para contornar
o problema e discutidas em [22]. A proposta em [23],
na Figura 3, pode ser incorporada nos codecs a serem
usados no SCDV. Com este esquema, é possível a
recuperação de até quatro pacotes seguidos (no
exemplo da figura, recupera-se 2, 3, 4 e 5).
Tratamento de QoS no SCDV
A QoS será medida fim-a-fim pelas aplicações,
podendo disparar ações preventivas pela Gerência
(descritas em 5) e a infra-estrutura possui um esquema
para tratamento de QoS.
Devido ao processamento adicional gerado pela
granularidade da arquitetura IntServ e às limitações
do esquema Precedência por IP, a arquitetura escolhida
para controlar QoS no interior do SCDV é a
arquitetura DiffServ.
A arquitetura DiffServ (Differentiated Services – RFCs
2474 e 2475) [15] baseia-se no tratamento diferenciado
de fluxos para garantir QoS dentro de seu domínio a
uma classe de tráfego (e não a um fluxo individual).
Esta arquitetura tem dois principais componentes:
marcação dos pacotes e o comportamento nó-a-nó
(PHB).
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
FIGURA 3
Esquema de FEC a ser adotado pelos codecs.
ARQUITETURA DO SISTEMA PROPOSTO
Diferenciação dos Fluxos
O objetivo da diferenciação entre os fluxos no SCDM
é orientar o controle de admissão e a distribuição dos
recursos do sistema segundo uma regra comum, ou
seja por um valor numérico de prioridade.
181
CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO
Controle da Admissão
O controle de admissão será requisitado apenas na
solicitação de estabelecimento de uma conexão. Este
controle permitirá a conexão de acordo com a
prioridade da classe solicitante.
Uma conexão será aceita se houver recursos disponíveis
na rede e/ou se essa for mais prioritária que outras já
existentes. Isto significa que, mesmo que a rede já esteja
em sobrecarga, dependendo da situação, algum fluxo/
cliente poderá ser preterido em função de outro. Como
exemplo, se o Comandante de um navio desejar ver
qualquer vídeo, algum fluxo e/ou cliente menos
prioritário terá sua conexão degradada e até mesmo
suspensa.
Outra situação é o secionamento parcial, onde resta(m)
ligação(ões) entre as seções A e B. A pior hipótese é
ilustrada se for considerada a ligação em tracejado:
ainda existe uma ligação entre o Cliente_m e o
Comutador_2. Observa-se que, a princípio, a função
do Cliente_m não é comutar pacotes e sim consumilos. Se o Gerente_1 tiver conhecimento deste
seccionamento, poderá solicitar ao Cliente_m que reencaminhe informações (Mensagens Imediatas) ao
Comutador_2. Caso a gerência seja distribuída por
todas as estações, capacitando-as com inteligência, o
próprio Cliente_m pode encaminhar pacotes adiante,
por intermédio de seu software aplicativo. O envio
de fluxos de vídeo por este enlace poderá ser muito
restrito, visto que este não é um enlace tronco.
Distribuição dos fluxos
Os fluxos de vídeo não serão armazenados em lugar
algum ao longo do sistema, visto que se trata de
geração de informações e respectivo consumo em
tempo real. Logo, o cliente receberá os quadros que
estiverem sendo produzidos a partir do momento da
sua solicitação.
Monitoramento da QoS fim-a-fim
O monitoramento da QoS no cliente inicia-se quando
este, ao tentar estabelecer uma conexão com um
servidor, instancia um Inspetor de Desempenho (ID),
com o qual ficará relacionado. Como exemplo, temse na Figura 1, o Cliente_2 desejando receber vídeos
dos Servidores 1 a 3. O Inspetor_2_1 está instanciado
no Cliente_2 e relaciona-se ao Servidor_1.
Conectividade do Sistema
Caso a rede seja totalmente secionada por falhas, cada
seção sobrevivente (A e B) deverá envidar todos os
esforços para continuar funcionando, isto é, os seus
clientes continuarão a receber os vídeos dos servidores
alcançáveis.
O secionamento total está ilustrado na Figura 4, se
desconsideramos inicialmente a ligação em pontilhado.
Tudo transcorre como se existissem dois sistemas
independentes: SCDM_A e SCDM_B. Observa-se
que todos os requisitos da seção 3.1 continuam sendo
aplicáveis, mas a cada uma das seções isoladamente.
182
FIGURA 4
Secionamento do SCDV devido à falhas.
Gerenciamento do SCDV
A Gerência do SCDV deverá monitorar e reagir às
ações dos mecanismos existentes de tolerância à falhas
e QoS, aliada às diretrizes da seção 5.
Além disto, como a Gerência será calcada no
paradigma “peer-to-peer”, o panorama global do
sistema é replicado nos gerentes (em número de dois,
no caso ilustrado nas Figuras 1 e 4), de maneira que,
caso um falhe, o outro assume o controle
imediatamente.
Objetivos da gerência
– Efetuar o controle de admissão de novos fluxos,
segundo a política de diferenciação preemptiva,
descrita na seção 5;
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
TECNOLOGIA DA INFORMAÇÃO
– Monitorar, através de algoritmos inteligentes e
preditivos, qualquer piora na QoS fim-a-fim das
aplicações;
– Detectar a conectividade do sistema (ou de uma
seção deste);
– Efetuar o diagnóstico panorâmico do sistema; e
– Manter a QoS fim-a-fim das aplicações,
degradando-a o mínimo possível, caso ocorram falhas
em comutadores e/ou ligações.
Um diagnóstico é uma função diferente de uma
monitoração. Enquanto esta apenas detecta a
ocorrência de um fenômeno, de forma isolada e sem
vistas a descobrir suas causas, aquele procura investigar
as causas, que freqüentemente estão relacionadas a
outros componentes do sistema.
Desta forma, o monitoramento é uma função
adequada ao Inspetor de Desempenho (ID) e a
Gerência efetua o diagnóstico, de forma semelhante à
descrita em [2]. O Inspetor de Desempenho é
responsável pelo monitoramento da QoS fim-a-fim
entre um servidor e um cliente, reportando alarmes
para a Gerência. Esta adota uma linha de ação, sempre
fundamentada no panorama do sistema.
Avaliação panorâmica do estado do sistema
A avaliação do panorama do sistema e a escolha da
melhor linha de ação estão inter-relacionadas.
Dependendo do tipo de problema que ocorreu, a
solução será diferente. Se, por exemplo, a QoS num
determinado cliente começar a degradar, a gerência
da rede deve avaliar se um problema é:
– Apenas em um fluxo deste cliente ou em outros
fluxos;
Escolha de linhas de ação
Após a gerência ter avaliado o estado global do
sistema, algumas medidas podem ser tomadas, tais
como:
– Rerroteamento de tráfego pelos comutadores do
sistema;
– Redistribuição (com fins a balanceamento) de
tráfego na saída dos servidores;
– Redução de recursos de rede alocados a um fluxo;
– Redução da quantidade (com conseqüente
degradação da qualidade) de tráfego de saída dos
servidores; e
– Suspensão de um fluxo:
• Total nos servidores; ou
• Parcial a partir de certo ponto na rede.
IMPLEMENTAÇÃO DO INSPETOR DE
DESEMPENHO
O SCDV é um sistema complexo, portanto decidimos
implementar inicialmente o Inspetor de Desempenho,
responsável por monitorar uma conexão, entre um
cliente e um servidor e com a possibilidade de gerar
alarmes de tendência de piora da QoS. Estes alarmes
serão informados à Gerência, que pode escolher dentre
as linhas de ação descritas em 5.2.3 para normalizar
preventivamente o sistema.
Foi adotado o Java Media Framework (JMF) para a
implementação dos códigos do Transmissor e do
Receptor, conforme a Figura 5.
– Apenas no fluxo deste cliente ou em outros fluxos
também;
– Somente em um cliente ou em outros também;
– É na mesma área da rede;
– A rede está congestionada (provavelmente por
queda de algum link);
– Servidor está congestionado (aumenta o retardo,
perda de pacotes,...); e
– Cliente está congestionado (muitos processos
rodando).
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
FIGURA 5
Topologia da implementação adotada
183
CAPITÃO-DE-CORVETA (EN) MARCIO ELKIND, JORGE LOPES DE SOUZA LEÃO
No transmissor, adotamos a codificação H.263 para
enviar, através do protocolo RTP, um vídeo de
aproximadamente 10s para o receptor.
indicará uma correspondente qualidade de vídeo.
Adotamos as seguintes faixas de variação para as
entradas, a serem programadas:
O Emulador Paramétrico, originado a partir de [21],
foi implementado em código Java, permitindo a
variação dos parâmetros relevantes para a rede do
SCDV (jitter e perdas).
– de 0 a 80 ms para a média da exponencial; e
A variação dos parâmetros de rede, pelo Emulador,
ocorre segundo os seguintes modelos matemáticos:
– Jitter – uma variável aleatória exponencialmente
distribuída [13]; e
– Perdas de Pacotes – uma cadeia de Markov, com
dois estados (modelo de Gilbert) [7].
No receptor, o Inspetor de Desempenho usa as
informações constantes nos Sender Reports (do
protocolo RTP/RTCP) para alimentar um
Classificador Neuro-Fuzzy (ANFIS)[4]. Este é
programado com dados que representam o
comportamento desejado para o sistema, ou seja, a
saída (MOS) e as condições de rede (as entradas: jitter
e perdas). A qualidade MOS é produzida a partir da
média de notas dadas pelos avaliadores quando
observaram 25 vídeos, relativos às condição de rede,
conforme o método descrito em [24]. O
comportamento desejado resultante desse método
pode ser visualizado na superfície da Figura 6.
O classificador, ao ser programado, “aprende” essa
superfície indicando como está a qualidade do vídeo
(MOS) que trafega pela rede, dadas suas condições.
Para o caso de uma entrada não ser exatamente igual
aos dados originalmente programados, a estrutura fará
uma interpolação com as novas condições de rede e
– de 0 a 80% do tempo no estado “RUIM”, no
modelo de Gilbert, onde todos os pacotes são
perdidos.
Observa-se como a avaliação da qualidade subjetiva
(critério MOS) do vídeo utilizado nos experimentos,
varia em função dos parâmetros de rede: para o codec
H.263 implementado no JMF, a qualidade foi mais
sensível às perdas do que ao jitter.
CONCLUSÕES E TRABALHOS FUTUROS
Foi apresentado um sistema de gerência que, segundo
uma política preemptiva de prioridades e de forma
redundante e automática, controla tolerância à falhas,
a admissão de novos fluxos e a QoS fim-a-fim de
aplicações que distribuem vídeo.
No Inspetor de Desempenho, os autores pretendem
incluir a quantidade de pacotes no buffer do receptor,
como variável de entrada no Classificador NeuroFuzzy, a fim de enviar um alarme apenas quando for
haver “starvation” na aplicação, otimizando assim a
QoS fim-a-fim e a QoP (Quality of Perception).
A Gerência também deverá ser distribuída pelos nós
da rede, através de uma arquitetura peer-to-peer, sendo
indicada a tecnologia JXTA.
REFERÊNCIAS
[1] GOMES, R.L., “Autoria e Apresentação de Documentos
Multimídia Adaptativos em Redes”, Dissertação de Mestrado, NCE/
UFRJ, 2001.
[2] CECILIO, E.L, “Uma Arquitetura de Gerenciamento de
Desempenho Pró-ativo Distribuído Usando Tecnologia Ativa”, XXI
Simpósio Brasileiro de Redes de Computadores SbrC´03
[3] FRANCESCHI, A.S.M. et al, “Proactive Network Management
Using Remote Monitoring and Artificial Intelligence Techniques,
2nd IEEE Sym. and Comm, 1997.
[4] JANG, J.-S. R. and SUN, C.-T., 1995, “Neuro-Fuzzy Modeling and
Control”, In: Proceedings of the IEEE.
[5] APOSTOLOPOULOS, G., et al “QoS Routing Mechanism and
OSPF Extensions”, in August 1999 – RFC 2676.
FIGURA 6
Variação da Qualidade Versus Estado da Rede
184
[6] P. VAN MIEGHEM et al; “Hop-by-Hop Quality of Service
Routing”, Computer Networks no 37 (2001) pags 407-423.
[7] MARKOVSKI, V., “Simulation and Analysis of Loss in IP
Networks”, Master of Applied Science Thesis, 2000.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
TECNOLOGIA DA INFORMAÇÃO
[8] E. KOEHLER, “Solutions Reference Design: IP Multicast
Television Distribution” – Nortel Networks, white paper, maio de
2003.
[17] YISHAY Mansour and BOAZ Patt-Shamir, “Jitter Control in
QoS Networks”,IEEE/ACM Transactions on Networking, vol. 9, no.
4, august 2001.
[9] CISCO Systems, “OSPF Design Guide”, white paper – Updated:
Aug 26, 2004.
[18] DINIZ M.C. and SILVA, E. de Souza e, “Models for Jitter Control
at Destination”, Proc. IEEE Intern. Telecomm. Symp., 1996.
[10] IGOR M. Moraes e OTTO Carlos M. B. Duarte, “Uma Comparação
entre Protocolos de Roteamento Multicast para Distribuição de TV
na Internet”, XXI Simpósio Brasileiro de Telecomunicações, SBT’04.
[19] CROZIE, Ken R.,”Implementing HSRP in the Enterprise
Network” , Cisco Systems White Paper, 1997.
[11] IETF, RFC 3768, http://www.ietf.org/rfc/rfc3768.txt.
[12] DAVID Newman, “XRN Interconnect architecture”, Network
World Global Test Alliance, 03/03/03.
[20] GERLA, M. et al, “A QoS Network Management System for
Robust and Reliable Multimedia Services”, Proceedings of the 5th
IFIP/IEEE Conference on Management of Multimedia Networks
and Services, October 2002.
[13] TRUMP, T., “Estimation of Clock Skew in Telephony over
Packet Switched Networks”, IEEE, 2000.
[21] KROPOTOFF, A.B., “Um Emulador Paramétrico de Conexões
Fim-a-Fim em Redes IP”, Dissertação de Mestrado, COPPE/UFRJ,
2002.
[14] 3COM Corp, “Introduction to XRN™ Technology: a new
direction for enterprise networking”, white paper, disponível em:
http://www.3com.com/other/pdfs/infra/corpinf o/en_US/
xrn_wp.pdf
[22] EDMUNDO de S. e Silva, ROSA M.M. Leão, BERTHIER R.
Neto e SÉRGIO Campos, “Performance Issues on Multimedia
Applications”, Lecture Notes in Computer Science – 2002
[15] CISCO Systems, “DiffServ – The Scalable End-to-End QoS
Model”, White Paper, 2001
[23] FIGUEIREDO D.R. and SILVA, E. de Souza e, “Efficient
mechanisms for recovering voice packets in the Internet”, In Proc.
of IEEE/Globecom´99
[16] HOOD, C.S. and JI, C., “Intelligent Agents for Proactive Fault
Detection”, IEEE Transactions on Reliability, vol 46, No.3 1997.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 178-185
[24] ITU-T P.910, “Subjective video quality assessment methods for
multimedia applications”, In International Telecommunication Union,
September 1999.
185
186
CONTRIBUIÇÕES ESPECIAIS
A análise de registros de maré extremamente longos
Alberto dos Santos Franco
Professor Emérito, Instituto Oceanográfico, Universidade de São
Paulo.
Björn Kjerfve
Professor, Texas A&M University.
Claudio Freitas Neves
Professor Adjunto, COPPE, Universidade Federal do Rio de Janeiro.
Resumo
Comentam-se os resultados da análise harmônica de
registros maregráficos extremamente longos, obtidos entre
1921 e 2000 no porto de Charleston (32o 46,5’ N, 79o
56,6’ W), Carolina do Sul, EUA. O comportamento do nível
médio do mar nesta estação é comparado com aqueles
observados em duas estações na costa brasileira:
Cananéia (25o 01,0’ S, 47o 55,5’ W) e Santos (23o 57,3’ S,
46o 18,6’ W). As observações em Cananéia são de 1955 a
1993 e em Santos de 1971 a 1990. Atenção especial é dada
à variação sazonal do nível médio do mar e aos possíveis
efeitos de ocorrência simultânea de extremos de nível
médio com preamares ou baixa-mares de sizígia.
Palavras-chave
Maré. Nível do mar. Análise harmônica. Registros de marés.
Analysis of tidal records extremely larges
Abstract
Comments on the results from the harmonic analysis of tidal
records extremely larges, taken from 1921 and 2000 in
Charleston (32 o 46,5’ N, 79o 56,6’ W), South Carolina, USA.
The behavior of the mean sea leval at that tidal station are
compared to the ones observed at two tidal stations on the
Brazilian coast: Cananéia (25o 01,0’ S, 47o 55,5’ W) and
Santos (23 o 57,3’ S, 46o 18,6’ W). The observations at
Cananéia were taken from 1955 to 1993 and from 1971 to
1990 at Santos. Spetial attention was given to the seazonal
variation of the “mean” sea level and to the possible
coidence of the extreme “mean” sea level with the spring
tides.
Keywords
Tide. Sea level. Harmonic analysi. Tidal records.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
INTRODUÇÃO
Em 1988, o primeiro autor escreveu um programa
de análise de marés que poderia ser executado em
PCs e foi convidado pelo segundo autor para
apresentar uma série de palestras na Universidade da
Carolina do Sul sobre o novo método de análise de
maré. Isto serviu de estímulo para que outros oito
programas em Turbo Basic fossem escritos para
resolver problemas usuais associados com análise e
previsão de marés. O embasamento teórico desses
programas é explicado em Franco (1997) e Franco &
Harari (1988).
Após as palestras, os dois primeiros autores
participaram da Conferência sobre Hidrodinâmica de
Marés (15 a 18 Novembro, 1988), ocorrido em
Gaithersburg, Maryland, EUA, (Parker, 1991), à qual
o primeiro autor havia submetido um artigo
comentando os resultados da análise obtidos pelo
método recém criado (Franco & Harari, 1991).
O conjunto desses programas, todos escritos em
linguagem Turbo Basic, para DOS, foi denominado
PAC. Recentemente, na medida em que as novas
gerações de PCs permitiram processamento mais
veloz, os programas originais foram convertidos para
Visual Basic e a nova versão foi denominada PAC2000,
contendo os seguintes programas:
ANHACOR
ANHAMA
ANHAREF
– análise de correntes de maré;
– análise harmônica de elevações de maré;
– análise harmônica refinada de registros de
maré com duração média;
LONGSERIE – análise de séries longas;
ANACRUZ – análise espectral cruzada nível x nível ou nível
x corrente;
EXTREMOS – avaliação dos níveis extremos resultado de
marés e ruído;
NIMED
– estudo de variações do Nível Médio do Mar
(NMM);
PREVISÃO – previsão de marés e correntes;
HARM
– edição de constantes harmônicas de marés
e correntes para previsão;
VERALT
– verificação de registros de maré pelo método
de Karunaratne;
AGRASA
– geração de uma tabela de componentres
de água rasa e suas satélites.
187
ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES
Os métodos de análise desenvolvidos por Franco
(1988) eram baseados na FFT (Fast Fourier
Transform). Nestes métodos (exceto no programa
LONGSERIE), a série observada é substituída por
outra interpolada, cujo número de termos é uma
potência de 2. Aquela interpolação é feita pelo método
das diferenças segundas, que se mostraram adequadas
após exaustivos testes.
As alturas horárias da maré analisadas neste trabalho
foram observadas nos seguintes locais
Estação
Charleston,
South Carolina, EUA
Cananéia, São Paulo,
Brasil
Santos, São Paulo,
Brasil
Locais
Estensão
do registro
(years)
32o 46,50’ N
79o 56,60 W
78.5
25o 01,0’ S
47o 55,7’ W
38
23o 57,3’ S
46o 18,6’ W
19
ANÁLISE HARMÔNICA DE LONGAS
SÉRIES
O método de análise de longas séries, desenvolvido
em 1988, destinava-se à análise de séries que cobriam
um ciclo nodal. Não se esperava, então, que esse
método pudesse ser usado para analisar séries
extremamente longas, tais como a observada em
Charleston (SC), EUA, registrada horariamente desde
1 o de outubro de 1921 até 2000. De fato, as
“dimensions” das matrizes no programa
LONGSERIE limitavam-se a análises de séries que
se estendiam a 18,69 anos, o que corresponde a 10 ´
214 alturas horárias.
A fim de testar a possibilidade de analisar séries de
alturas horárias extremamente longas era necessário
dispor de tais séries. O segundo autor providenciou
esses dados e as necessárias “dimensions” do programa
LONGSERIE foram ajustadas para conter uma série
observada em Charleston.
Poder-se-ia perguntar por que o programa
ANHAREF, baseado no FFT, não foi escolhido para
analisar séries extremamente longas, uma vez que a
memória dos modernos PCs teria sido suficiente para
processar tais séries com aquele programa. A resposta
188
é que os testes usando o método refinado
(ANHAREF) para analisar uma série de 18,69 anos
em Cananéia, mostraram que a precisão era muito
inferior à alcançada com o programa LONGSERIE.
Essa perda de precisão decorre do fato de ser o FFT
um método recorrente, o que impede o uso do
programa ANHAREF para analisar séries com
amostras com mais de 3 ´ 214 valores, pois os erros
de arredondamento crescem o suficiente para
prejudicar os resultados. Além disso, não é possível
ignorar a variação do nível médio durante 5 ou mais
anos. Isto não acontece com o programa
LONGSERIE, que é baseado na combinação de n
análises de 214 alturas horárias com o FFT (Franco &
Harari, 1988), que separa o nível médio a cada 214
horas (1,87 anos), pois, neste intervalo de tempo, a
variação de longo período do nível médio pode ser
considerada desprezível.
Uma das finalidades da análise de longas séries é a
obtenção das constantes harmônicas das componentes
Sa , Ssa , Mf , Mm , MSf e Mtm . Contudo, o ruído de
baixa freqüência é tão alto, que muito raramente essas
componentes podem ser convenientemente isoladas
adotando o teste estatístico com probabilidade de 99%,
usado para a rejeição de pequenas componentes,
quando empregado o programa LONGSERIE.
Analisando os dados de Charleston, só as
componentes Sa, Ssa e Mf resistiram ao teste estatístico,
enquanto que, usando o mesmo teste nas análises de
Cananéia e Santos, só a componente Sa resistiu ao teste
estatístico para o mesmo nível de probabilidade.
Por outro lado, para os três locais puderam ser isoladas
sete componentes de longo período, efetuando, com
o programa ANHAREF (Franco, 1978) a análise
harmônica dos valores filtrados do nível médio (NM)
diário. Tais valores podem ser calculados por qualquer
filtro passa-baixa, tais como o de Godin (1972) ou o
de Thompson (1983). Este último, como veremos
mais adiante, fornece de fato melhores resultados nas
baixas freqüências, pois o ganho da função de resposta
do filtro de Godin decresce demasiado rápido na
faixa de freqüência das componentes de longo período
(0 a 1,6 grau/hora).
A Tabela 2.1 mostra os resultados das análises do NM,
efetuadas com os programas LONGSERIE e
ANHAREF. Deve ser dito que os valores do NM
foram corrigidos da tendência, expressa pela regressão
calculada pelo método dos mínimos quadrados.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
CONTRIBUIÇÕES ESPECIAIS
TABELA 2.1
Resultados das análises das alturas horárias e dos valores diários do NM
COMPONENTES
1 Sa
0,0410686
No Símbolo frequência
(o/h)
1 Sa
2 *Ssa
3 *Mm (-2)
4 *Mm (-1)
5 *Mm
6 *Mm (1)
7 *Mm (2)
8 *Mm (3)
9 *Mm (4)
10 *Msf (-1)
11 *Msf
12 *Msf(1)
13 *Mf (-3)
14 *Mf (-2)
15 *Mf (-1)
16 * M f
17 *Mf (1)
18 *Mf (2)
19 *Mf (3)
20 *Mtm (-2)
21 *Mtm (-1)
22 *Mtm
23 *Mtn (1)
24 *Mtm (2)
25 *Mtm (3)
26 *Mtm (4)
0,0410686
0,0821373
0,5399619
0,5421683
0,5443747
0,5465811
0,5536584
0,5558648
0,5580712
1,0136894
1,0158958
1,0181022
1,0865430
1,0887494
1,0909558
1,0980331
1,1002395
1,1024459
1,1046523
1,6331241
1,6353325
1,6424078
1,6446142
1,6468206
1,6561042
1,65831,07
LONGSERIE
ANHAREF
5,05
H
(cm)
2,11
IC.
(±)
11,73
G
(gr.)
11,85
K
(gr.)
11,85
GW
(gr.)
24,67
IC
(±)
5,04
H
(cm)
1,72
IC.
(±)
7,02
G
(gr.)
7,14
K
(gr.)
7,14
GW
(gr.)
19,97
IC.
(±)
5,05
1,28
0,31
0,40
0,41
0,81
0,49
0,56
0,18
0,98
1,04
0,74
0,49
0,11
0,53
1,09
0,51
0,23
0,35
0,71
0,49
0,90
0,24
0,59
0,75
0,05
2,11
1,84
1,24
1,24
1,23
1,24
1,24
1,24
1,24
1,12
1,12
1,12
1,12
1,12
1,12
1,12
1,12
1,12
1,12
1,15
1,16
1,15
1,15
1,15
1,16
1,16
11,73
35,74
292,07
215,41
102,28
130,90
144,42
205,64
193,95
166,97
68,00
318,75
325,11
256,93
71,63
325,01
17,19
15,70
268,84
24,50
25,98
279,36
335,08
334,72
47,17
287,43
11,85
35,99
293,69
217,03
103,92
132,54
146,08
207,30
195,62
170,02
71,05
321,81
328,37
260,19
74,90
328,30
20,49
19,01
272,16
29,40
25,89
284,28
340,01
339,66
52,14
292,40
11,85
35,99
293,69
217,03
103,92
132,54
146,08
207,30
195,62
170,02
71,05
321,81
328,37
260,19
74,90
328,30
20,49
19,01
272,16
29,40
25,89
284,28
340,01
339,66
52,14
292,40
24,67
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
*****
5,04
2,34
*0,19
*0,30
*0,61
*0,38
*0,29
*0,12
*0,17
1,08
2,00
*0,73
*0,70
*0,18
*1,12
*1,69
*0,20
*0,55
*0,88
*0,94
*0,35
*0,51
*0,82
*0,09
1,11
*0,36
1,72
7,02
1,72
59,70
1,31 352,80
1,32 168,23
1,32
76,53
1,31 130,0 2
1,31 136,24
1,32 171,22
1,31 103,15
0,98 123,56
0,99
67,29
0,98 342,05
0,98
15,14
0,99 346,27
0,98
76,90
0,98 332,43
0,99
8,73
0,99 358,96
0,99 238,37
1,03 354,19
1,03
68,99
1,03 302,34
1,04 320,69
1,03 123,11
1,03
46,95
1,03 146,60
7,14
59,94
354,42
169,86
78,16
131,66
137,90
172,89
104,83
126,60
70,34
345,11
18,40
349,54
80,17
335,72
12,03
2,27
241,68
359,09
73,89
307,26
325,62
128,05
51,92
151,57
7,14
59,94
354,42
169,86
78,16
131,66
137,90
172,89
104,83
126,60
70,34
345,11
18,40
349,54
80,17
335,72
12,03
2,27
241,68
359,09
73,89
307,26
325,62
128,05
51,92
151,57
19,97
47,26
*****
*****
*****
*****
*****
*****
*****
65,05
29,76
*****
*****
*****
60,91
35,64
*****
*****
*****
*****
*****
*****
*****
*****
68,22
*****
Uma vez que os valores diários do NM de Cananéia,
filtrados com o filtro de Thompson, resultam de uma
média ponderada móvel, as oscilações do NM com
períodos inferiores a 40 horas são reduzidas pelo filtro
em mais que 90%. Isto explica porque são obtidos
melhores resultados para as componentes de longo
período, quando são analisados os valores diários
filtrados do NM.
VARIAÇÕES ANUAIS DO NM
Antes de estudarmos o comportamento do NM para
as estações maregráficas escolhidas, é interessante dizer
algumas palavras a respeito das alturas horárias da
maré.
Durante muitos anos o filtro de Godin tem sido
bastante usado no Brasil para calcular o nível médio
do mar. Entre suas vantagens, ele é muito fácil de
programar (Franco, 1988) e só perde um dia e meio
de dados em cada extremidade da série. No entanto,
a resposta desse filtro em freqüência não é das
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
melhores, pois ele “alisa” fortemente a curva do NM
e corta freqüências muito baixas. A Figura 3.1, a seguir,
mostra a função de resposta dos filtros de Godin e
de Thompson. Podemos ver aí que na freqüência de
3 graus/hora, correspondente a uma oscilação com
período de 5 dias, o sinal é reduzido de 20% e que a
redução de uma oscilação de 2 graus/hora (7,5 dias)
é de 10 %, o que ainda é apreciável. Pode ser visto que
o ganho do filtro de Thompson é igual a um no
intervalo de 0 a quase 5 graus/hora (períodos de 3 a
1,5 dias) e que decai para 0 no intervalo de 5 a 10
graus/hora. Construir um filtro de Thompson, que é
essencialmente uma média ponderada móvel no
domínio do tempo, deve ser imposta uma forma
matemática L( f ) para a resposta em freqüência, tal
que esta decaia de 1 a 0 e devem ser especificadas
freqüências para as quais a resposta seja nula. Esses
pesos, no domínio de tempo, correspondem aos
coeficientes de Fourier de uma aproximação S( f) para
a desejada função de resposta e são determinados por
um método de mínimos quadrados, sujeito a
constrições. Isto é conseguido através dos
189
ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES
multiplicadores de Lagrange ó j, calculados de modo
a anular as contribuições das componentes harmônicas
principais (Thompson, 1983).
Aplicando o filtro de Thompson aos dados das três
estações (Cananéia, Santos e Charleston), foram
calculados os valores diários, mensais e anuais do NM.
Parte dos valores mensais e anuais do NM e também
as médias para cada mês foram tiradas da saída do
programa NIMED (Tabela 3.1), corrido com os dados
de Cananéia. Os dados das duas últimas colunas desta
tabela são os que vemos na Figura 3.2, a seguir, onde
também podemos ver a reta de regressão
correspondente aos 38 anos cobertos pelas
observações.
No final da Tabela 3.1 vemos a variação média anual
do NM, deduzida da regressão. O mesmo
procedimento foi aplicado aos dados de Santos e
Charleston, sendo os resultados os que vemos nas
Figuras 3.3 e 3.4, a seguir, respectivamente.
Os valores finais do NM fornecidos pelo programa
NIMED podem, como já vimos, ser
harmonicamente analisados com o programa
ANHAREF (Franco, 1978) para obter as constantes
harmônicas das componentes de longo período e das
respectivas componentes-satélite.
As Figuras 3.2 a 3.4 mostram que o NM oscila em
torno de uma linha reta de tendência ascendente; além
disso, as tendências diferem muito pouco das variações:
0,375, 0,353 e 0,389 cm/ano, respectivamente para
Cananéia, Santos e Charleston. Se admitirmos que as
variações anuais subsistem para as três estações, então
a subida do nível médio durante os últimos 78 anos
seriam 29,5 cm para Cananéia, 27,5 cm para Santos e
30,3 para Charleston.
A figura 3.4 mostra claramente que há uma oscilação
de longo período do nível médio do mar em torno
da reta de regressão. Assim sendo, é compreensível
que o período de 19 anos de observações efetuadas
em Santos não seja suficiente para que consideremos
muito rigorosos os resultados obtidos para esse porto.
Acreditamos, porém, que os resultados obtidos para
Charleston, baseados na análise de 78 anos de alturas
horárias, seja bastante confiável.
190
FIGURA 3.1
Funções de resposta passa-baixa para Godin () e
)
Thompsom (
TABELA 3.1
NIVEL MEDIO (cm) NM Regr, linear
1
2
3
4
5
6
7
8
9
10
11
12
anual
anual
1955 155,7 155,8 163,0 163,3 161,4 162,0 167,3 150,9 152,6 162,8 152,1 154,7 158,5 159,5
1956 159,3 163,5 161,3 165,1 169,5 163,1 159,4 149,6 151,6 147,4 154,6 162,4 158,9 159,9
1957 153,3 169,4 166,9 163,7 148,4 156,4 162,5 156,0 164,4 155,7 150,9 154,6 158,5 160,3
1958 159,9 167,2 166,6 167,9 168,6 159,1 149,3 160,9 151,4 166,5 158,7 162,2 161,5 160,7
1959 163,1 168,3 164,9 161,9 167,5 163,6 156,5 167,6 159,9 155,4 158,2 161,3 162,3 161,1
1960 159,1 164,2 162,0 171,6 178,0 163,1 158,1 158,3 165,7 161,8 168,5 175,6 165,5 161,4
1961 171,5 171,9 176,2 180,0 172,9 165,7 163,0 159,5 163,3 153,9 159,5 158,9 166,4 161,8
1962 164,5 173,3 165,0 173,3 178,1 159,0 163,3 159,9 157,6 162,7 157,9 161,1 164,6 162,2
1963 169,5 164,5 171,5 177,5 177,8 166,4 164,5 162,9 165,9 150,0 156,3 164,5 165,9 162,6
1964 170,1 175,1 173,3 174,1 172,2 172,9 153,3 150,7 154,9 160,1 165,7 166,8 165,8 163,0
1965 165,7 179,8 185,6 180,2 173,6 151,4 158,3 155,2 155,5 158,7 151,7 164,1 165,0 163,4
1966 157,0 165,0 159,7 150,0 154,4 155,1 148,1 156,1 178,4 177,2 169,1 176,2 162,2 163,8
1967 171,1 183,5 143,9 157,9 146,3 165,0 154,2 166,5 166,1 162,0 168,2 166,1 162,6 164,1
1968 172,8 164,6 170,0 183,9 176,7 156,1 146,0 150,4 154,6 145,8 146,0 149,3 159,7 164,5
1969 163,0 179,4 184,6 163,5 158,1 158,7 158,0 169,9 154,6 158,9 153,0 149,3 162,6 164,9
1970 148,9 153,5 158,3 162,0 165,5 162,0 149,3 156,3 154,6 159,2 164,3 165,1 158,3 165,3
1971 163,8 167,1 169,2 185,3 172,4 172,4 158,4 156,2 142,7 154,9 154,3 159,0 163,0 165,7
1972 158,3 163,6 167,9 169,7 156,6 167,4 161,8 164,3 151,5 155,5 159,6 156,7 161,1 166,1
1973 159,0 160,2 164,5 169,6 171,8 155,9 163,4 168,8 166,3 158,1 166,0 163,5 163,9 166,4
1974 158,1 159,1 166,5 176,8 159,0 163,9 151,6 158,0 161,8 171,8 177,2 169,0 164,4 166,8
1975 176,2 176,9 174,8 172,0 166,8 158,0 149,7 147,5 141,5 153,3 152,3 157,7 160,6 167,2
1976 147,9 163,7 158,3 159,0 166,3 166,8 152,4 159,3 158,9 163,6 166,3 164,7 160,6 167,6
1977 159,7 156,9 172,0 173,1 177,3 168,8 159,1 170,0 161,1 154,0 158,2 154,3 163,7 168,0
1978 160,3 166,7 165,0 178,9 178,9 167,8 161,3 165,2 155,3 160,7 170,4 164,1 166,2 168,4
1979 161,4 168,3 175,9 180,2 178,6 172,4 161,2 163,7 163,8 166,3 172,8 172,2 169,7 168,8
1980 177,4 175,3 173,2 167,8 169,8 176,4 174,3 167,3 177,5 166,6 164,7 175,6 172,2 169,1
1981 174,9 167,3 180,9 169,9 163,3 171,7 169,6 164,7 168,3 169,7 170,0 169,7 170,0 169,5
1982 167,7 171,5 175,8 168,4 168,0 172,5 173,9 168,6 168,1 173,3 178,6 175,2 171,8 169,9
1983 170,7 173,7 183,1 175,2 181,1 187,2 185,9 175,7 175,3 168,3 170,2 169,7 176,3 170,3
1984 171,9 167,1 180,5 178,9 183,8 182,0 178,5 181,1 170,8 162,9 170,1 178,8 175,5 170,7
1985 170,3 173,1 176,9 179,5 179,3 179,6 169,1 170,9 164,7 169,1 165,1 167,8 172,1 171,1
1986 170,9 178,4 181,2 180,6 183,8 170,7 172,6 176,9 161,2 173,8 169,7 174,8 174,6 171,5
1987 176,6 182,3 179,8 180,1 193,1 179,6 175,9 173,3 177,4 177,9 167,1 167,6 177,6 171,8
1988 171,2 176,5 168,4 184,0 188,7 176,3 168,4 164,4 165,5 165,7 164,2 160,4 171,1 172,2
1989 160,5 173,6 175,8 175,5 177,8 175,4 171,4 162,2 177,1 162,9 170,2 155,7 169,8 172,6
1990 170,5 167,9 173,5 185,6 177,2 181,5 178,3 164,1 170,2 165,7 168,7 172,8 173,0 173,0
1991 167,4 178,8 173,7 173,5 170,7 179,3 169,4 161,0 158,3 167,8 163,9 170,9 169,6 173,4
1992 174,8 162,5 166,4 175,4 183,0 171,8 180,7 171,8 167,1 169,6 178,0 171,2 172,7 173,8
Médias Mensais
165,1 169,2 170,4 172,5 171,5 167,8 163,1 162,8 162,0 162,4 163,5 164,8
Tendência anual: 0,375 cm/ano
NM da série: 166,5 cm
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
CONTRIBUIÇÕES ESPECIAIS
VARIAÇÕES MÉDIAS MENSAIS
O comportamento do NM é fortemente influenciado
por oscilações produzidas por agentes meteorológicos.
É, pois, importante estudar a ocorrência sazonal dessas
oscilações como o primeiro passo para a
compreensão (ou mesmo para a previsão) dos seus
impactos sobre a morfologia da costa. Em vista disso,
foram calculadas, para todo o período analisado, as
médias mensais do nível médio para todos os anos, e
seus resultados são os que vemos nos gráficos das
Figuras 4.1, 4.2 e 4.3, a seguir, para Cananéia, Santos e
Charleston, respectivamente.
Tanto em Cananéia como em Santos, os mais altos
valores do NM ocorreram em abril (Outono do
hemisfério Sul), como podemos ver nas Figuras 4.1 e
4.2. Resultados análogos foram obtidos por Silva
(1991), analisando dados observados na Ilha Fiscal,
para o período 1965-1986.
Se uma onda meteorológica, produzindo uma
elevação apreciável do NM, e uma maré de sizígia
ocorrerem simultaneamente, a região costeira poderá
sofrer muitos danos. Em abril de 2001, por exemplo,
uma frente fria coincidiu com uma maré de sizígia, na
costa sul do Brasil, acarretando consideráveis prejuízos.
Contudo, tal transtorno também pode ocorrer em
outros meses. De fato, uma anômala tempestade, em
janeiro de 1980, coincidiu com uma maré de sizígia,
produzindo grandes danos em propriedades próximas
das praias.
FIGURA 3.2
Nível médio anual em Cananéia, SP, Brasil.
FIGURA 3.3
Nível médio anual em Santos, SP, Brasil.
A Figura 4.3 mostra que altos valores do NM ocorrem
durante o Outono do hemisfério Norte (outubro).
Este resultado relevante sugere a existência de um
paralelo entre ambos os hemisférios e contradiz a
crença geral de que, na costa brasileira, as maiores
“ressacas” são as produzidas por agentes
meteorológicos durante o inverno. Por outro lado, isto
indica que os mais altos valores do NM não coincidem
com a estação dos furacões (verão), na costa da
Carolina do Sul).
É importante analisar o comportamento das séries
mensais do NM durante os períodos dos registros
disponíveis. Há, para Charleston, uma evidente
periodicidade dos valores altos do NM em setembro
e outubro, podendo também ser identificada a
ocorrência de furacões. O mesmo filtro de Thompson,
com 121 pesos, que havia sido aplicado aos dados
horários, foi então aplicado às séries mensais (médias
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
FIGURA 3.4
Nível médio anual em Charleston, SC, EUA.
191
ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES
ponderadas móveis de 5 anos antes do mês escolhido
até 5 anos depois do mesmo mês). Neste caso, são
preservadas as freqüências menores que 5 graus/mês
(período = 72 meses), ao passo que são removidas as
oscilações com freqüências superiores a 10 graus/mês
(período = 36 meses). Os valores filtrados do NM
(VF-NM) estão mostrados na Figura 4.4, a seguir,
juntamente com os valores mensais do NM.
Ocorreram altos valores filtrados do NM em dois
períodos diferentes: 1946-1950 (pico em maio de
1948, 94,25 cm) e 1971-1975 (pico em setembro de
1973, 98,22 cm). Os períodos de valores mais baixos
do VF-NM ocorreram também em 1931, 1940, 1964,
1980 e 1989. Esta curva apresenta oscilações com
períodos da ordem de 10 anos, que podem ser
relacionados aos ciclos das manchas solares. Oscilações
maiores podem ser observadas em Cananéia e Santos,
mas os períodos de observação são demasiado curtos.
No entanto, há uma clara indicação da subida do NM
entre janeiro de 1976 e janeiro de 1983, seguindo ambas
as curvas uma tendência similar.
FIGURA 4.1
Média mensal do NMM em Cananéia, SP, Brasil (19551992).
Uma vez definida a tendência do NM para um
determinado lugar, fica evidente que há períodos, da
ordem de 5 ou 10 anos, em que o NM se torna mais
alto ou mais baixo.
ESTATÍSTICA DO NM
Quando se faz referência ao “nível médio do mar”,
raramente se questiona a interpretação da palavra
“média”. Quando, outrora, se acreditava que os
oceanos oscilavam (marés) em torno de um valor
médio estacionário, foram desenvolvidos vários
métodos para filtrar a maré, bem como as influências
meteorológicas e oceanográficas dos registros do nível
do mar. Atualmente, já está bem estabelecido o fato
de que o “nível médio do mar” apresenta flutuações
em várias escalas temporais. Assim sendo, é desejável
definir de forma precisa o significado da palavra
“médio”.
O uso da média aritmética de 24 alturas horárias para
estabelecer o “nível médio diário” certamente não é
adequado: poder-se-ia calcular facilmente a função de
resposta associada. Médias ponderadas móveis com
pesos capazes de filtrar a maré astronômica (como,
por exemplo, o filtro de Thompson) são muitíssimo
superiores às simples médias aritméticas. Estritamente
192
FIGURA 4.2
FIGURA 4.3
Média mensal do NMM em Charleston, SC, EUA (19212000).
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
CONTRIBUIÇÕES ESPECIAIS
FIGURA 4.4
NM mensal e NM mensal filtrado para Charleston, SC,
EUA.
FIGURE 4.5
Variação mensal do NM and tendência filtrada.
falando, não é matematicamente correto denominar
este valor “nível médio do mar”; seria mais apropriado
denominá-lo “nível do mar filtrado” (NMF).
Para muitas finalidades da engenharia, é mais
importante definir a estatística da permanência do nível
do mar. Considerando que o nível do mar observado
é, realmente, uma combinação da maré astronômica
previsível e de outros fenômenos associados
(principalmente efeitos meteorológicos e flutuações
oceanográficas), procura-se estabelecer a estatística do
NMF. A Figura 5.1 mostra o histograma do NMF
em Charleston (SC) usando os intervalos de classe de
1 cm e 10 cm, para o ano de 1955. A distribuição
normal N(µ , ó), onde ì e ó são, respectivamente, a
média e o desvio padrão dos valores mensais do nível
médio, está também representada na mesma figura.
Embora os dados exibam um ajuste razoavelmente
próximo da distribuição normal podemos observar
um certo viés. Além disso, é importante observar que
o nível correspondente a uma taxa de excedência (ou
permanência) igual a 50% não coincide com o valor
da média aritmética dos níveis, como foi bem
demonstrado por Kalil (1999) em seis estações no
Estado do Rio de Janeiro.
A Figura 5.2 mostra a distribuição cumulativa e as
curvas de permanência, calculadas com os intervalos
de classe de 1 cm e 10 cm. As Figuras 5.3 a 5.5, a
seguir, mostram a densidade de probabilidade do
NM mensal em Cananéia, Santos e Charleston.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
FIGURA 5.1
Função densidade de probabilidade
FIGURA 5.2
Distribuição de probabilidade cumulativa para
Charleston, SC, ano 1955.
193
ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES
CORRELAÇÃO CRUZADA ENTRE RUÍDOS
METEOROLÓGICOS DE ESTAÇÕES
MAREGRÁFICAS
FIGURA 5.3
Densidade de probabilidade do NM – Cananéia, SP, 19551992.
FIGURA 5.4
Densidade de probabilidade do NM para Santos.
FIGURA 5.5
Densidade de probabilidade do NMM – Charleston, SC,
1921-2000.
194
Deve ser realçado que os dados registrados por
estações maregráficas só podem fornecer variações
relativas do nível médio; variações absolutas só podem
ser obtidas desde que também sejam registradas as
variações de nível do terreno. Este fato seria, por si
só, suficiente para não estender as flutuações de longo
período do nível do mar, de um lugar para outro. Se,
além disso, são considerados os efeitos meteorológicos,
torna-se evidente que o nível médio “instantâneo” não
pode ser transferido de uma estação para outra,
mesmo que elas estejam relativamente próximas, posto
que elas podem estar sujeitas a diferentes regimes locais
de vento. De fato, se duas estações estão situadas
dentro de um mesmo sistema meteorológico e numa
delas, a maré só foi observada durante um curto
período (estação secundária), como por exemplo, um
mês, e existe nessa área uma outra estação permanente
(estação principal), onde o fenômeno tenha sido
observado por um ano ou mais, englobando o mês
da estação secundária, é possível remover uma parte
considerável do ruído meteorológico da estação
secundária, desde que se possa considerar que, naquele
mês o ruído meteorológico de mesoescala é igual nas
duas estações. Este é o caso das estações de Santos e
Cananéia, distantes entre si aproximadamente 200 km,
onde se pôde constatar a forte correlação entre níveis
médios diários. A Figura 6.1 apresenta o NMM diário
para o mês de abril de 1978, quando se obteve
coeficiente de correlação igual a 0,969.
FIGURA 6.1
NMM diário em Santos e Cananéia.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
CONTRIBUIÇÕES ESPECIAIS
Entretanto, tomando-se duas estações como Arraial
do Cabo e Ilha Fiscal, distantes cerca de 150 km, Paiva
(1993) evidencia claramente os efeitos de
empilhamento de água no interior da Enseada dos
Anjos nos meses de dezembro e janeiro por ação dos
ventos de NE, embora as duas estações estejam em
geral submetidas ao mesmo sistema de mesoescala.
Com base em estudos meteorológicos detalhados e
análises estatísticas, é possível transferir as diferenças
entre os respectivos NM de uma estação para outra
para um curto período de tempo. Isto certamente não
é válido se considerarmos as tendências de longos
períodos, pois a subsidência da terra, a circulação
oceânica e a meteorologia local podem, elas próprias,
mostrar diferentes tendências.
A Figura 6.2 mostra a correlação entre os níveis médios
mensais em Santos e Cananéia. Os dados exibem uma
fraca tendência para um período de observação de
19 anos, embora tenha sido mostrado que a tendência
da elevação anual era semelhante nos dois locais. Se
compararmos a série de dados de Charleston para o
mesmo período com os de Santos (Figura 6.2) ou os
de Cananéia (Figura 6.3), a correlação é extremamente
pobre. Em virtude das séries de dados registrados na
costa do Brasil não se estenderem a mais de 50 anos,
este exemplo evidencia que não é possível extrapolar
as variações do nível médio para o passado ou o
futuro. Consequentemente, para que seja possível
efetuar, no futuro, estudos sérios das variações relativas
do NM, no Brasil, será necessário instalar novas
estações com controle geodésico/meteorológico.
CONCLUSÕES
A principal vantagem da análise de longo período em
relação à análise usual via FFT, reside no fato de não
depender dos processos recursivos que deterioram a
precisão dos resultados. Além disso, a análise usual
fundamenta-se na hipótese de que o nível médio
permaneça estacionário, o que não é razoável, como
se comprova com os registros de Charleston, EUA,
com aproximadamente 80 anos de duração.
As variações anuais de nível médio do mar indicaram
um aumento da ordem de 35 cm/século. Não se pode
inferir daí qualquer comprovação de um aumento
global do nível dos oceanos, pois os registros não
foram corrigidos para outras variações de ordem
tectônica ou geofísica. Contudo, as evidências indicam
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
FIGURA 6.2
correlação entre níveis médios mensais em 19 anos.
FIGURA 6.3
Correlação entre níveis médios mensais em 19 anos.
uma tendência de elevação local do nível médio do
mar, que deve ser considerada ao se planejar obras e
urbanização da região costeira, num contexto de
gerenciamento costeiro integrado.
A série de dados de Charleston ilustra muito bem as
oscilações que existem do nível médio do mar em
escalas decadais e reforça a necessidade de
monitoramento permanente e de longo prazo. Tais
oscilações possuem períodos e magnitudes que são
características locais. Variações de NMM de 10 a 20
cm podem induzir a erros significativos na
interpretação de cartas náuticas ou no projeto de obras
de dragagem portuária: mudanças de valores
esperados de profundidade podem ser erroneamente
atribuídos à sedimentação ou erosão. Tal fato sinaliza
para uma mudança de posicionamento quanto à
hidrografia, que passa a exigir, além do
monitoramento maregráfico para previsão de marés
e do batimétrico para utilização de modelos de
195
ALBERTO DOS SANTOS FRANCO, BJÖRN KJERFVE, CLAUDIO FREITAS NEVES
circulação hidrodinâmica, um monitoramento
permanente
geodésico-maregráfico
para
acompanhamento do nível médio do mar.
Médias mensais de nível médio do mar, obtidas nas
três localidades, indicaram elevação maior nos meses
de outono. Este fato, já observado por outros autores
na literatura, sinalizam um efeito físico ainda não
explicado, mas que certamente exigirá uma análise
conjunta oceanográfico-meteorológica.
Nenhuma correlação existe entre os níveis médios
mensais nas três localidades. Isto significa que não se
pode simplesmente “transferir” nível médio de uma
localidade para outra, nem mesmo valores absolutos
de tendências de variação. Isto não impede que, para
localidades próximas entre si, como Cananéia e Santos,
ou Rio de Janeiro e Arraial do Cabo, sejam feitos
estudos estatísticos adicionais e sejam investigadas as
condições meteorológicas que regem tais localidades.
Eventualmente, se forem coincidentes, poder-se-á
então estabelecer correlações.
Finalmente, os autores querem enfatizar a necessidade
de uma definição mais precisa para o termo “nível
médio”. Em primeiro lugar, deve-se distinguir o nível
instantâneo do nível filtrado. Em segundo lugar,
propõe-se a utilização de uma porcentagem de
excedência (ou de permanência) quando se fizer
referência ao nível “filtrado” do mar.
196
REFERÊNCIAS
FRANCO, A.S. (1978), A refined method of tidal analysis. In: B. Kjerve
(ed,), Estuarine Transport Processes, p.311-318, Univ, South Carolina
Press, Columbia, 1978.
FRANCO, A.S. (1997), Marés: fundamentos, análise e previsão. Diretoria
de Hidrografia e Navegação.
FRANCO, A.S. e HARARI, J. (1988), Tidal analysis of long series.
International Hydrographic Review, Monaco, LXV (1).
FRANCO, A.S. e HARARi, J. (1991), Comments on the results of a tidal
analysis with a nodal cycle resolution level. In: Parker, B.B. (ed.), Tidal
Hydrodynamics, p,737-751. John Wiley & Sons, Inc., New York, 1991.
FRANCO, A.S. e HARARI, J. (1993), On the stability of long series tidal
analysis. Monaco, International Hydrographic Review, LXX (1).
GODIN, G. (1972), The analysis of tides. Liverpool, University Press.
KALIL, A. F. D. (1999), Contribuições ao estudo do nível médio do mar no
Estado do Rio de Janeiro, Tese de Mestrado, Programa de Engenharia
Oceânica, COPPE/UFRJ, Rio de Janeiro.
PAIVA, A. M. (1993), Estudo das variações do nível médio do mar em Arraial
do Cabo, RJ, Relatório de Pesquisa, FAPERJ-COPPE/UFRJ.
PARKER, B.B. (editor) (1991), Tidal Hydrodynamics. John Wiley & Sons,
Inc., New York.
SILVA, G.N. (1991), Variações de longo período do nível médio do mar: causas,
conseqüências e metodologia de análise. Tese de M.Sc., Programa de
Engenharia Oceânica, COPPE/UFRJ, Rio de Janeiro, 91 p.
THOMPSON, R.O.R.Y. (1983), Low-pass filters to suppress inertial
and tidal frequencies. Journal of the American Meteorological Society,
June.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 187-196
CONTRIBUIÇÕES ESPECIAIS
Ciência, tecnologia e inovação para a defesa
nacional – revisão de alguns conceitos
CMG Arthur Lobo da Costa RUIZ, M. Sc.
Escola de Guerra Naval
Resumo
Este texto reúne alguns princípios para a discussão do
desenvolvimento científico e tecnológico de interesse da
Defesa Nacional, assim como efetua uma revisão conceitual
em alguns deles.
São abordados a ciência, a tecnologia, a inovação, o
desenvolvimento científico e tecnológico, a transferência de
tecnologia e o processo de escolha da tecnologia a ser
empregada.
Palavras-chave
Ciência. Tecnologia. Inovação. Pesquisa e Desenvolvimento.
Defesa nacional.
Science, technology and innovation for the
national defense – revision of some concepts
INTRODUÇÃO
Em primeiro lugar, a tecnologia confere vantagens
militares decisivas aos países que a possuem, e dada a
contínua possibilidade de guerra no sistema internacional
dos Estados, nenhum Estado que preze sua independência
pode ignorar a necessidade de modernização defensiva.
(Francis Fukuyama em O fim da história e o último homem)
Este texto reúne alguns conceitos importantes para a
discussão da temática do desenvolvimento científico
e tecnológico.
A ciência, a tecnologia, a inovação, a transferência de
tecnologia e o processo de escolha da tecnologia a ser
empregada, são discutidos. A abordagem sistematizada
desses assuntos, inserida dentro do contexto
internacional atual que é propício ao livre fluxo de
transações comerciais, torna-se oportuna e de interesse
direto para a concepção de estratégias de
desenvolvimentos tecnológicos autóctones destinadas
à Defesa Nacional.
Abstract
This text presents definitions of terms related to research
and development in order to debate its influence on the
National Defense, as well as it makes a reviw of a few of
them.
It also mentions subjects such as: science, technology,
innovation, research and development, transfer of
technology and process of technology chosen.
Keywords
Science. Technology. Innovation. Research and
development. National defense.
DISCUSSÃO
Definindo Desenvolvimento Científico e
Tecnológico
Para definir desenvolvimento científico e
tecnológico, deve-se compreender em primeiro lugar
a concepção básica de ciência e tecnologia (CeT). Ao
fazer essa conceituação, alguns autores estabelecem
uma dicotomia entre a ciência e a tecnologia definindoas separadamente [5]:
Ciência: é o conjunto organizado dos conhecimentos relativos ao universo, que envolvem os fenômenos naturais, ambientais e comportamentais.
Tecnologia: é o conjunto organizado de todos os
conhecimentos científicos, empíricos ou intuitivos
empregados na produção e na comercialização de bens
e serviços.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203
197
CMG ARTHUR LOBO DA COSTA RUIZ, M. SC.
Em tese, então, a ciência seria totalmente desvinculada
de objetivos práticos. Visaria a apenas descobrir e
compreender os fenômenos do universo,
distanciando-se da realidade. Quanto à tecnologia, seria
apenas a ciência aplicada ao mundo real, o que
estabelece, então, a separação entre elas. O autor ressalta
[5], corretamente, a interdependência cada vez maior
entre a ciência e a tecnologia e afirma a existência de
conectividade entre elas ao reconhecer a imperfeição
da definição apresentada.
Com o intuito de visualizar essa incorreção, apresentase o seguinte exemplo: para o desenvolvimento do
microfone, como conhecemos hoje, foi necessário
estabelecer – antes – uma quantidade enorme de teorias
multidisciplinares como a física do som, cerâmicas
piezelétricas, eletricidade, mecânica e outras, mesmo
sem o objetivo de desenvolver um equipamento que
possibilitasse propagar a voz humana. Isso seria a
Ciência.
Para construir o microfone foi necessário o trabalho
de técnicos e trabalhadores industriais que, por meio
da experiência acumulada do conhecimento de
processos laboratoriais, passados de gerações a
gerações, contribuíram para torná-lo uma realidade
prática. Isso seria a tecnologia.
Ao analisar o exemplo acima, fica clara a relação
interdependente entre a ciência e a tecnologia no
desenvolvimento/aperfeiçoamento de produtos.
Percebe-se que o desenvolvimento científico interage
com o desenvolvimento tecnológico. O conhecimento
científico sofre uma espécie de simbiose com a
experiência técnica em um eterno ir e vir nas duas
direções, sendo necessária a ocorrência de elos entre
conhecimentos científicos (nas salas de aulas) e
conhecimentos tecnológicos (práticos nos
laboratórios).
Com efeito, a revolução científica ocorrida nos séculos
XVI e XVII criou o cientista experimental moderno,
que necessita do experimento para obter a experiência
e realiza a união inseparável da técnica com o saber
[6].
Alguns autores [2] chamam a atenção que a difusão
de uma invenção ultrapassa em importância ao da
invenção original, pois a tecnologia gera mais
tecnologia. É a chamada inovação. A inovação é a
agregação de novos conceitos que possibilitam novas
utilizações que, por vezes, superam em importância a
198
própria invenção original. A roda, comprovada pela
primeira vez por volta de 3.400 a.C. perto do mar
Negro [2], tem recebido uma série de inovações através
dos tempos, que possibilitaram a criação de novas
ferramentas, em um efeito em cascata. A inovação é
exógena à concepção científica original e é resultante
de novas necessidades ou novas percepções.
É possível obter outro conceito de desenvolvimento
científico e tecnológico ao recorrer à interpretação da
concepção aristotélica de saber, estabelecida no
texto Metafísica, principal obra do filósofo Aristóteles
[4].
Aristóteles vê o conhecimento como um processo
linear e sem rupturas. Nesse processo, a primeira etapa
do conhecimento é a “experiência”. A “experiência”
é o conhecimento prático baseado na repetição. Seria
o “saber fazer” ou o know how. A etapa seguinte seria a
“técnica”, onde o conhecimento das regras permite
produzir determinados resultados, saber “o porquê
das coisas” ou o know why. Importante notar que o
ensinamento implica na transmissão de regras e de
relações causais, portanto é necessário atingir o nível
da técnica para poder ensinar.
A etapa mais elevada do processo do conhecimento
seria a “ciência” ou o “saber teórico”. Nesse nível,
segundo as interpretações dos textos de Aristóteles,
têm-se o conhecimento de conceitos e princípios, que
se caracteriza por ser uma atividade contemplativa e
totalmente desvinculada da prática.
Acima da “ciência”, ainda segundo Aristóteles, só a
“filosofia”, que seria uma ciência ainda mais elevada,
dedicada às causas fundamentais e universais. Mais
tarde, pensadores como Galileu Galilei e Francis
Bacon, compromissados com questões do mundo
real, perceberam a “ciência” e a “técnica” como um
processo interativo para a obtenção de resultados
práticos, a colher frutos advindos do processo do
conhecimento linear.
É possível interpretar que o filósofo tenha concebido
duas ciências: uma mais elevada que a outra. A primeira,
o “saber teórico”, seria uma ciência mais limitada a
um campo específico do conhecimento e mais
próxima da realidade, mas ainda vinculada a um
caráter contemplativo e abstrato. E a outra ciência, a
“filosofia”, mais próxima das causas universais, a
chamada “filosofia primeira”.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203
CONTRIBUIÇÕES ESPECIAIS
Para a Defesa Nacional, fica claro o interesse imediato
no “saber teórico”, de utilidade mais momentânea e
destinada a gerar produtos e serviços. À “filosofia
primeira” ou “ciência pura” cabe também seu lugar e
importância, sendo, sem dúvida, merecedora de
incentivos e investimentos, que manterão o lugar cativo
e de destaque nas Universidades.
Ao fim da discussão, pode-se, então, definir os termos:
Tecnologia: é a etapa do conhecimento que congrega
o “saber fazer” ou o know how e o “saber o porquê
das coisas” ou o know why.
Ciência: é a etapa do conhecimento do “saber
teórico” ou da “ciência aplicada”.
Conseqüentemente, chega-se a:
Desenvolvimento científico e tecnológico: é o
progresso conjunto de todas as etapas do
conhecimento – o “saber fazer”, o “saber o porquê
das coisas” e o “saber teórico” – necessárias e
suficientes ao desenvolvimento autônomo de uma área
específica de interesse.
A transferência de tecnologia
É natural para as Forças Armadas (FA) o interesse em
tecnologia. Os profissionais da guerra percebem
instintivamente que a tecnologia possibilita vantagens
militares decisivas, sendo de seu interesse e do país a
modernização dos sistemas de defesa. Quando fazem
análises prospectivas, estudiosos militares examinam
as guerras passadas e observam atentamente o efeito
do uso de novas armas nos conflitos que acontecem
no momento.
Em um contexto de nova ordem (ou desordem)1
mundial, os países em desenvolvimento, dentro de seus
legítimos direitos, esforçam-se para atualizar os arsenais
militares, de maneira a proporcionar a dissuasão aos
potenciais rivais, na chamada corrida armamentista.
Esses países, que não possuem tecnologia própria, e
contam com escassos recursos financeiros, nem sempre
têm a opção de compra de produtos militares que
sejam otimizados para suas necessidades.
Durante a negociação de venda, é comum às potências
centrais agregarem aos produtos militares facilidades
financeiras de financiamento. Dessa maneira, os países
Notas de aula da disciplina “História” ministrada pelo Prof.
Francisco Carlos. Curso MBA da COPPEAD/UFRJ ministrado na
Escola de Guerra Naval em 2005.
1
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203
dependentes de tecnologia são levados a adquirir
equipamentos nem sempre os mais adequados aos
objetivos nacionais apenas por conveniências
econômicas.
Uma possibilidade estratégica a ser empregada é a
transferência de tecnologia. O país comprador de
produto militar tenta valorizar sua compra ao incluir
nos contratos cláusulas de transferência de tecnologia,
visando a uma posterior produção autóctone e à
conseqüente diminuição de sua dependência externa
em caso de conflitos.
Nesse momento, de acordo com as definições
anteriores, é útil enunciar-se a expressão “transferência
de tecnologia”.
Transferência de tecnologia: é o processo em que
se passa ou se recebe, integralmente, as etapas do
conhecimento do “saber fazer” (know how) e do “saber
o porquê das coisas” (know why) sobre determinado
produto, processo ou sistema.
Nesse processo de transferência tecnológica, é
importante a conjugação do “saber fazer”, para
possibilitar a construção física do objeto de interesse,
e o “saber o porquê das coisas”, para o entendimento
do quê se faz e possibilitar, também, a disseminação
dos conhecimentos adquiridos. Todo o ciclo de
passagem tecnológico só irá culminar com a
construção física e autônoma do objeto de interesse.
Percebe-se que não se utiliza o termo “transferência
de ciência aplicada”, apesar de ser um processo
igualmente desejável. Para isso seria necessária a
movimentação física da pessoa ou das equipes que
detém o conhecimento teórico. Um bom exemplo
dessa prática foi a remoção “voluntária” de cientistas
alemães para a Rússia e para os Estados Unidos ao se
encerrar o conflito da Segunda Guerra Mundial. Esses
especialistas foram de fundamental importância na
corrida armamentista que se iniciou com a guerra fria,
notadamente nas áreas aeroespacial e atômica.
Para o tema aqui abordado, deve-se ter em mente
que desenvolvimento científico e tecnológico não
ambiciona atingir, em um primeiro momento, graus
elevados de ineditismo. Pode ser desejável, no início
do processo, o desenvolvimento de uma tecnologia
mais simples, haja vista que a prioridade das FA seria
a de obter algum poder de dissuasão e de reduzir,
também, a dependência tecnológica existente em
relação a países dotados de tecnologia mais avançada.
199
CMG ARTHUR LOBO DA COSTA RUIZ, M. SC.
Assim, alguns cuidados devem ser observados na
condução do processo de transferência de tecnologia.
Existem vários casos de sucessos e de insucessos nesse
procedimento. Um exemplo de transferência
tecnológica bem-sucedida foi a construção de uma
série de submarinos no Brasil conduzida pelo Arsenal
de Marinha do Rio de Janeiro (AMRJ).
1975. Naquela época, o governo, em face da demanda
energética, firmou com a Alemanha um acordo que
buscava não só a construção de oito usinas nucleares,
mas também a transferência de tecnologia completa
do ciclo do combustível nuclear e de projeto,
engenharia e fabricação de componentes de centrais
nucleares.
O processo foi iniciado em 1979, quando foi
estabelecida uma estratégia de longo prazo para a
transferência e domínio da tecnologia de construção
de submarinos. Para isso, todo o processo do
conhecimento foi aquinhoado, desde as áreas de
produção, gestão de qualidade, projeto, até o
gerenciamento de materiais e manutenção.
O programa sofreu atrasos na implantação, o que
impediu que fossem atingidos os objetivos previstos
originalmente. Uma usina de enriquecimento de urânio
foi montada em Resende, RJ, mas nunca efetivamente
funcionou, portanto sua viabilidade técnica continua
sem a devida comprovação. Na verdade, o processo
de enriquecimento de urânio utilizado, denominado
jato centrífugo, ainda era experimental e cálculos
teóricos demonstraram que o processo não era viável
economicamente. Ocorreu que, possivelmente por
pressões políticas, o processo do jato centrífugo foi
vendido em substituição ao processo de
ultracentrifugação originalmente acordado entre as
partes. A transferência de tecnologia prevista nunca
foi realizada.
O planejamento previa o cumprimento de três etapas:
1. construção no exterior de um submarino de projeto
alóctone, acompanhado por técnicos e engenheiros
do AMRJ;
2. construção no Brasil, por brasileiros, de submarinos
a partir do projeto alienígena; e
3. construção no Brasil de submarinos a partir de
projetos nacionais.
As etapas um e dois foram integralmente executadas,
tendo sido lançados ao mar cinco submarinos. O
submarino Tupi foi construído na Alemanha em 1987
e incorporado à esquadra em 1989. Seguiu-se a série
de lançamentos dos submarinos construídos no AMRJ:
Tamoio (1993), Timbira (1996), Tapajó (1998) e
Tikuna (2005). Todos os submarinos construídos no
Brasil já foram incorporados ao Setor Operativo da
Marinha.
O processo integral de transferência de tecnologia foi
cumprido durante as etapas um e dois e, diante da
estratégia estabelecida, é possível, então, passar à
autonomia prevista na etapa três. No entanto, o
cumprimento dessa terceira etapa estará intimamente
ligado à decisão política de dar continuidade ao projeto.
Investimentos importantes serão ainda necessários para
manter o pessoal capacitado pronto a atuar nas
respectivas áreas de especialização e revisar todos os
processos de construção até então empregados para,
enfim, viabilizar as tarefas de construir e projetar
submarinos no Brasil.
Como exemplo de insucesso de um processo de
transferência de tecnologia, pode-se citar o contrato
firmado entre Brasil e Alemanha na área nuclear em
200
Com o advento do fenômeno da globalização e da
ratificação, pelo Brasil, do Tratado de NãoProliferação Nuclear (TNP) em setembro de 1998,
era esperada maior abertura no processo de
transferência tecnológica. No entanto, no que se refere
a produtos militares, não houve mudança do
panorama anterior de bloqueios nas aquisições de
componentes e insumos para o desenvolvimento
tecnológico do Brasil.
No âmbito da iniciativa privada, a visão é muito
parecida como constatam estudos recentes [3] sobre
as atividades de CeT na indústria brasileira. Após a
globalização, esperava-se uma acelerada disseminação
tecnológica, que viria a atuar em três dimensões: a
exploração global de tecnologia, a colaboração
tecnológica global e a geração global de tecnologia.
A realidade constatada, principalmente na área de
polímeros, foi diferente. Não foram detectadas, no
Brasil, empresas com capital nacional que fossem
geradoras de tecnologia. A indústria nacional tem a
tendência de contratar tecnologia, por considerar a
atividade de pesquisa e desenvolvimento de alto risco
e de custo também elevado. Por sua vez, as indústrias
multinacionais preferem desenvolver tecnologia nos
seus países, e, por isso, não demonstram interesse em
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203
CONTRIBUIÇÕES ESPECIAIS
implantar centros de pesquisas e desenvolvimento
(PeD) nos países periféricos.
Dessa maneira, o setor de polímeros, mesmo após a
desestatização ocorrida na “Nova República”,
permanece controlado pelas empresas estrangeiras, que
ditam os rumos a serem tomados. Constata-se, enfim,
que, na verdade, os mercados de maneira geral foram
globalizados, mas o desenvolvimento tecnológico
ainda pertence à era pré-globalização.
A solicitação e registro de patentes é um bom indicador
indireto de quanto o conhecimento gerado por
governo e empresas está se transformando em
inovações tecnológicas – ou seja, em novos produtos
ou processos produtivos.
Nessa questão de patentes, os últimos indicadores são
desanimadores. Dados preliminares de 2005 [9]
disponibilizados pela Organização Mundial de
Propriedade Intelectual (OMPI) – agência
Especializada da Organização das Nações Unidas
(ONU) – mostram que o Brasil está estagnado no
número de registros internacionais de patentes e está
aumentando a sua distância dos demais países
“emergentes”. Durante 2005 foram registradas 283
patentes brasileiras, apenas duas a mais que em 2004.
Entre as economias emergentes, o aumento de registros
em 2005 foi de 20%. Para efeitos comparativos, a
Coréia, com 4,7 mil patentes, lidera o grupo.
O papel do Estado e a escolha de tecnologia
O papel do Estado, direto ou indireto, é crucial no
processo de desenvolvimento tecnológico. No setor
privado, quando não há incentivo, a indústria de capital
nacional permanece inerte e, assim, prefere adquirir
tecnologias estrangeiras a desenvolver CeT. Os
investimentos nessa área são altos e os retornos incertos.
Em vários países, pode-se rastrear a presença do
Estado como propulsor do desenvolvimento
tecnológico. Existe uma grande concentração de
produção científica nos países centrais e foi observado
[3] que 85% das atividades de PeD de empresas alemãs,
francesas, italianas, japonesas e norte-americanas são
desenvolvidas, exclusivamente, no respectivo país de
origem.
Em qualquer país, o aparato estatal é o principal agente
que dispõe dos recursos suficientes e ainda de
disposição para suportar os riscos envolvidos. Devido
à importância estratégica, existe o interesse estatal em
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203
adquirir vantagens tecnológicas, seguindo um
planejamento de longo prazo e mantendo as equipes
de CeT em atividade.
A liderança governamental do desenvolvimento
tecnológico, porém, não significa que a condução do
processo deva ser totalmente entregue à iniciativa do
Estado. O modelo de desenvolvimento tecnológico
exclusivamente estatal não é mais viável, já que a
velocidade e a diversidade da P&D de hoje são
incompatíveis com a lentidão e a inércia de qualquer
administração pública. É necessário agregar vetores
da sociedade para aperfeiçoar esse desenvolvimento.
Um sistema nacional de ciência e tecnologia envolve
três setores principais: o governo, as empresas e as
universidades. Essa sistemática foi modelada por Jorge
Sábato, que a representou como um triângulo
eqüilátero, em cujos vértices são colocados os três
setores mencionados. A figura ficou conhecida como
“Triângulo de Sábato” [5].
Nesse sistema, teórico e perfeitamente balanceado, o
governo traça estratégias, estabelece prioridades de
desenvolvimento e fornece o financiamento necessário. Observa-se que, mesmo durante a euforia das
políticas neoliberais, a presença estatal permaneceu
insubstituível. O setor universitário é o depositário do
conhecimento técnico-científico e possibilita a formação de pessoal necessário a suprir, tanto os quadros
de funcionários governamentais quanto os da indústria. O setor empresarial faz a junção com o mundo
real, ao ficar atento às oportunidades de negócios,
aperfeiçoar as técnicas fabris e acrescentar conhecimentos técnicos.
Se feita uma analogia com o desenvolvimento
tecnológico militar, substitui-se o governo pelas FA.
O triângulo de Sábato terá, então, como vértices, as
FA, as empresas e as universidades. As FA, que atuam
por meio de centros e institutos de pesquisas, irão
especificar os equipamentos ou sistemas que necessitam
e fazer o acompanhamento técnico dos
desenvolvimentos encomendados.
As indústrias, que constituem o complexo industrial
militar, irão produzir os protótipos do que foi
especificado, dentro de padrões de eficiência e de
economia, e depois atender às encomendas necessárias
das FA. Finalmente, as universidades vão fornecer as
pessoas especializadas, que atuarão por meio de
convênios específicos com as FA e as empresas.
201
CMG ARTHUR LOBO DA COSTA RUIZ, M. SC.
Consolidado o modelo a ser seguido pelas FA, seguese o processo de escolha da tecnologia a ser
desenvolvida, ou seja, “o quê” deve ser escolhido
(know what). Essa decisão, num ambiente de restrições
orçamentárias, atinge elevado grau de importância.
No caso das FA, esse processo tem um interesse
peculiar devido ao eterno dilema: adquirir o sistema
mais moderno, o chamado estado da arte, ou algo
mais simples, que melhor se adequaria ao pessoal que
vai manuseá-lo que, conseqüentemente, necessita de
um apoio logístico viável.
Não existe na literatura um processo definitivo para a
escolha do produto ou sistema que melhor atenderia
aos propósitos das FA, porém, é possível ter uma
idéia inicial que oriente a discussão, baseada em algumas
considerações sobre a avaliação operacional de sistemas
apresentada por Mario J. F. Braga [1].
No modelo apresentado, o sistema tem três entradas
e uma saída. As entradas seriam o desempenho, o
aprestamento e o emprego, e a saída, a eficácia, assim
definidos:
Desempenho: é a medida física que descreve as
possibilidades do sistema quando em perfeito
funcionamento e empregado de maneira correta.
Aprestamento: é a medida que mensura a capacidade
do sistema de estar pronto a ser utilizado quando
solicitado e a sua capacidade de se manter pronto
enquanto necessário. É uma medida ligada diretamente
à sua necessidade de apoio logístico.
Emprego: é a medida da componente humana a atuar
positiva ou negativamente na eficácia do sistema.
Eficácia: medida do atendimento do propósito ou
finalidade para que o sistema foi concebido.
É importante notar o caráter de uma operação
matemática de produto do sistema, que poderá resultar
em uma saída (eficácia) nula, se qualquer um dos
componentes de entrada (desempenho, aprestamento
ou emprego) for de valor zero. Ou seja, pode-se
adquirir o sistema mais moderno e sofisticado existente
no mercado, mas, se o pessoal não for qualificado
para operá-lo corretamente, sua eficácia será nula. Da
mesma maneira, um equipamento poderá funcionar
muito bem em seu país de origem, perto de
sobressalentes e de engenheiros e técnicos que o
conheçam bem, enquanto que em terras distantes esse
apoio pode se tornar impossível.
202
Todas essas considerações devem ser levadas em conta
no processo de escolha do sistema bélico a ser
adquirido, com previsão ou não de transferência de
tecnologia. Às vezes, um produto menos sofisticado
e mais barato pode ser mais eficaz que outro dotado
de sofisticação, porém de difícil manuseio e que
necessite de intenso apoio logístico.
CONCLUSÕES
Neste trabalho foram discutidas e atualizadas as
conceituações dos termos Ciência, Tecnologia,
Inovação e Transferência de Tecnologia. Foi
verificado que esse último reveste-se de um caráter de
maior importância para a Defesa Nacional, uma vez
que se trata de uma expressão amplamente utilizada
nos meios de desenvolvimento tecnológico quando
celebram contratos e convênios de C&T. O conceito
também demonstra utilidade por ocasião de compras
de sistemas e equipamentos militares, onde se pretenda
que ocorra a transferência de tecnologia como cláusula
de offset 2.
A transferência de tecnologia foi abordada com a
apresentação de casos de sucesso e de insucesso de
transferência tecnológica. No contexto da iniciativa
privada, foi verificado o caso da indústria de polímeros.
Há a constatação – na literatura – de que os mercados
de maneira geral foram globalizados, porém a tão
esperada parceria no campo do desenvolvimento
tecnológico permaneceu na era pré-globalização, ou
seja, a geração de tecnologia continua como
prerrogativa exclusiva dos países-sede de
multinacionais do setor.
Como modelo de sistemática de desenvolvimento
tecnológico nacional, foi apresentado o “Triângulo de
Sábato”. Nesse modelo, a presença do Estado tornase primordial, como definidor de políticas e
incentivador direta ou indiretamente do
desenvolvimento tecnológico.
Também foi colhido na literatura um modelo de
auxílio do processo de escolha de sistemas militares.
Ele é baseado em atribuições de valores de
desempenho, aprestamento e emprego, que resulta
em medida de eficácia do sistema bélico examinado.
Verificou-se que um produto menos sofisticado,
advindo de produção autóctone, pode ser mais eficaz
2
Contrapartidas ou compensações por compras ou aquisições.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203
CONTRIBUIÇÕES ESPECIAIS
que um similar importado que necessite de pessoal
mais habilitado e de apoio logístico sofisticado.
Toda essa discussão sobre escolha, transferência de
tecnologia e a importância do Estado, como
mostrado, leva a co]nclusão que as decisões nesse
campo devam partir de uma política estratégica
abrangente e de nível nacional [8].
REFERÊNCIAS
1. BRAGA, Mario J. F. Considerações sobre avaliação operacional de
sistemas. Revista Pesquisa Naval, n. 2, p.47, out.1989.
2. DIAMONT, Jared M. Armas, germes e aço: os destinos das sociedades
humanas. Rio de Janeiro: Record, 2001.
3. HEMAIS, Carlos A.; ROSA, Elizabeth O. R. e BARROS, Henrique
M. A não-globalização tecnológica da indústria brasileira de polímeros
medida por meio de patentes. Revista de Administração
Contemporânea, V.3, n.3, p.157, set.1999.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 197-203
4. MARCONDES, Danilo. Iniciação à história da filosofia: dos présocráticos a Wittgenstein. Rio de Janeiro: Jorge Zahar, 2005.
5. PIRRÓ E LONGO, Wladimir. Brasil: 500 anos. Belém do Pará,
Universidade da Amazônia, 2000. V.2 – O desenvolvimento científico
e tecnológico do Brasil e suas perspectivas frente aos desafios do
mundo moderno.
6. REALE, Giovanni; ANTISIERI, Dani. História da Filosofia. São
Paulo: Paulinas, 1990.
7. RUIZ, Arthur L. da C. A possível independência do Poder Naval
de fontes externas e a orientação do desenvolvimento científico e
tecnológico. 1995. Ensaio (C-SGN) – Curso Superior de Guerra
Naval, Escola de Guerra Naval, Rio de Janeiro, 1995.
8. RUIZ, Arthur L. da C. Os sistemas científicos e tecnológicos do
Ministério da Defesa e do Ministério da Ciência e Tecnologia.
Possíveis parcerias com a Marinha. 2005. Monografia (C-PEM) –
Curso de Política e Estratégia Marítimas, Escola de Guerra Naval,
Rio de Janeiro, 2005.
9. JORNAL Folha de São Paulo. Ciência avança no país. Mas não gera
riqueza. Reportagem de Marcelo Billi; publicado em 12 de fevereiro
de 2006.
203
CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA
A Antártica e o Brasil
Contra-Almirante José Eduardo Borges de Souza
Secretrário da Comissão Interministerial para Recursos do Mar
E-mail: http://www.secirm.mar.mil.br
Resumo:
A região antártica tem um papel essencial nos sistemas
naturais globais. Ao longo dos últimos vinte anos,
importantes observações científicas, dentre as quais as
relativas à redução da camada protetora de ozônio da
atmosfera, à poluição atmosférica e à desintegração parcial
do gelo na periferia do continente, evidenciaram a
sensibilidade da região polar austral às mudanças climáticas
globais. Cabe destaque a importância política e estratégica
de o Brasil ser ator importante nas discussões sobre as
garantias de uso da Antártica para fins pacíficos; na
ordenação das investigações científicas e da cooperação
internacional; na conservação dos recursos vivos; nas
medidas de proteção ambiental; nas questões relativas ao
ordenamento jurídico sobre pretensões de toda a ordem. A
presença brasileira na Antártica, por meio da execução de
um poderoso e bem sucedido programa do Estado brasileiro O PROANTAR, defende interesses nacionais no Continente
Gelado e é um instrumento de projeção do país no cenário
internacional.
Palavras-chave
Antártica; Brasil; Proantar; estratégia; meio ambiente.
Antarctica and Brazil
Abstract
The Antarctica region plays an essential role in global
natural systems. Throughout the past twenty years,
important scientific researches, amongst which the ones
related to the reduction of the atmosphere protective ozone
layer, to the atmospheric pollution and to the partial
continent periphery deicing, have brought up the sensitivity
of the austral polar region to global climatic changes.
Strategically and politically, Brazil must be an important
actor on the discussions on the guarantees of the use of
Antarctica for pacific ends; on scientific researches and
international cooperation; on the conservation of natural
resources; on the measures for environmental protection; on
legal matters and all other agendas. The Brazilian presence
in Antarctica, by means of the execution of a powerful and
successful state program - the PROANTAR, defends
national interests in the Continent and is an instrument of
projection of the country in the international scene.
Keywords
Antarctica; Brazil; PROANTAR; Strategy; Environment.
204
INTRODUÇÃO
Sempre houve, por parte do Brasil, interesse na
Antártica. Somos o sétimo país mais próximo daquele
continente; os fenômenos meteorológicos e
oceanográficos brasileiros são influenciados pela
imensa massa de gelo antártico; a abundância de fauna
marinha é um celeiro que, se racionalmente explorado,
se tornará uma importante fonte de alimentação por
período indeterminado; a perspectiva da existência de
grandes reservas de gás, petróleo e minerais excitam
os interesses econômico e estratégico, assim como o
fato de a região da Península ser próxima às rotas do
Cabo e dos estreitos de Drake e Magalhães, onde a
intensificação do tráfego marítimo tem significado
especial para o Brasil, que comercializa 95% de seus
produtos por via marítima.
Sendo o único continente em que a vida humana foi
impossível desde o aparecimento do homem até o
advento da tecnologia, tornou-se uma região sem
divisão geopolítica, sem o emprego do conceito de
propriedade, tornando-se aberto a conquistas e ao
interesse da comunidade internacional.
Atualmente, regulado por um tratado internacional, o
Tratado da Antártica, que entrou em vigor em 1961,
o continente está livre de ambições territorialistas, livre
da exploração econômica de suas riquezas continentais
e tem sua fauna e flora protegidas, pelo menos até
2048, prazo de vigência do Protocolo de Madri,
apenso ao Tratado. Hoje, a Antártica é dedicada à paz
e à ciência, palco de inúmeras pesquisas científicas e
tecnológicas, e tem seu destino decidido pelo consenso
de 29 países, que possuem o título de Membros
Consultivos do Tratado da Antártica, o Brasil dentre
eles.
As preocupações mundiais com o aquecimento global,
com a quebra da camada de ozônio e com o aparente
desequilíbrio meteorológico, que leva ao aumento da
freqüência de aparecimento de fenômenos naturais
extremos, deram maior relevância à Antártica, que,
pelo seu volume imenso de gelo, é considerada como
o “refrigerador” do planeta, tendo papel fundamental
no estudo de tais ocorrências.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
CONTRIBUIÇÕES ESPECIAIS
Como o homem chegou oficialmente à Antártica
somente em 1820, principalmente induzido pela caça
às baleias, e no intuito de não aumentar em demasia a
concorrência na busca do tão precioso óleo usado
em iluminação e dos ossos de baleia empregados na
construção civil, o continente foi cercado por lendas,
fascínio, curiosidade, medo e esperança, o que
retardou a compreensão lógica dos fatores que fazem
da região um local tão especial.
HISTÓRIA
Pitágoras acreditava que o mundo era uma grande
circunferência e, quando as terras do Norte foram
descobertas pelos gregos e batizadas como ARTIKUS,
em homenagem à constelação da Ursa Menor,
(ARTIKUS em grego significa URSO), ele conjecturou
sobre a existência, no lado oposto do planeta, de uma
massa continental que “equilibrasse” a Terra.
Referindo-se às terras opostas, chamou-as de “Terra
de Antichthon” ou “Antartikos”.
Alguns geógrafos na Idade Média esboçavam em seus
mapas grandes regiões de terras ao Sul do planeta,
chamando-as de Terra Australis, mas somente a partir
dos séculos XV e XVI é que começaram a surgir as
primeiras descobertas comprobatórias da existência e
configuração real da Antártica.
Coube ao explorador inglês James Cook a proeza de
ser o primeiro a cruzar o círculo antártico, em 17 de
janeiro de 1773, porém os mares congelados o
impediram de ir mais além.
Em 1820 surgem os nomes de Nataline Palmer (norteamericano), Fabiam Thadeus von Bellingshausen
(russo) e de Edwrd Brasfield (inglês) como os
primeiros exploradores da região, e o de John Davis,
pescador americano, como a primeira pessoa a
desembarcar na Península Antártica.
Embora a possibilidade de realizar descobertas e se
apossar de novas terras fossem bons motivos para as
aventuras no Sul do planeta, foi sem dúvida o aspecto
econômico que mais incentivou as viagens à região na
busca das baleias e focas cuja gordura e ossos tinham
variadas aplicações no dia-a-dia dos idos dos séculos
XVI.
Após o período de caça, que se estendeu até meados
do século XVIII, teve início uma era de investigações
científicas, as quais se intensificaram na década de 30
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
do século XIX, destacando-se o descobridor do Pólo
sul Magnético, o britânico James Clark Ross, e o norteamericano Charles Wilkes, que realizou os mais
sistemáticos estudos da região entre os anos de 1838
e 1843, mapeando muitas milhas da costa e
identificando espécimes da fauna e da flora.
Em 1898, o belga Adrian de Gerlache e sua equipe
foram os primeiros a invernarem intencionalmente na
Antártica, quando começaram a aparecer os
problemas de ordem biológica e psicológica que, até
hoje, atacam os homens antárticos, principalmente
distúrbios como depressão e insanidade mental.
O final do século XIX trouxe o advento do arpão
explosivo, que dizimou as baleias do norte, o que
redirecionou as atenções dos caçadores para a Antártica
em um período conhecido como “anos heróicos”.
Nessa mesma época houve o despertar do interesse
científico, decorrente do VI Congresso Geográfico
Internacional, realizado em 1895, no qual foi enfatizada
a necessidade de se dedicar maior atenção à Antártica.
Foi incentivada, então, uma corrida para se alcançar o
Pólo Sul Geográfico, vencida pelo norueguês Roald
Amudsen, às 15 horas de 14 de dezembro de 1911.
Emocionado, Amudsen escreveu em seu diário: “assim
se rasgou para sempre o véu, e um dos maiores
segredos da Terra deixou de existir”. Nessa época de
grandes aventuras, foram escritas páginas heróicas e
trágicas, como a do inglês Robert Falcon Scott que,
com roupas e equipamentos inadequados, perseguido
pelo mau tempo, chegou ao Pólo Sul 34 dias após
Amudsen, deparando-se com a bandeira norueguesa,
o que lhe causou profundo desânimo. Seu retorno à
base foi mais demorado do que o previsto e todos os
alimentos foram consumidos antes do tempo. Scott e
seus companheiros fizeram o último registro em diário
em 29 de março de 1912, e foram encontrados
congelados em 16 de novembro do mesmo ano.
Ernest Shackleton foi outro herói antártico. Em sua
tentativa de alcançar o Pólo Sul, teve seu navio, o
“Endurance”, esmagado devido ao congelamento do
mar. Em suas palavras: “ele estava sendo esmagado.
Não instantaneamente, mas devagar, aos poucos. A
pressão de dez milhões de toneladas de gelo vinha
apertando seus costados e, moribundo, o navio gritava
de agonia”.
Depois da perda do navio, foram 12 meses de
deslocamento em botes e a pé, até alcançarem a Ilha
205
CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA
Elefante. Desse ponto, Shackleton e cinco homens se
aventuraram em um dos botes na passagem do terrível
Estreito de Drake e alcançaram as ilhas Geórgia do
Sul. Cruzaram montanhas e chegaram a uma estação
baleeira onde organizaram uma nova expedição.
Shackleton voltou e, com sucesso, resgatou o restante
de sua tripulação.
O início da “era tecnológica” foi marcada pelo
atingimento do Pólo Sul pelo ar, feito do Almirante
norte-americano Richard Byrd, em 29 de novembro
de 1929.
No cenário internacional, o crescimento da tensão
entre o Reino Unido, Argentina e Chile indicou um
novo período na história da Antártica, com disputas
acirradas de cunho territorialista.
O advento do Ano Geofísico Internacional, de 1957
a 1958, foi o ponto de partida para a criação do
Tratado da Antártica, que passou a vigorar em 1961,
com a participação de 12 países e validade de 30 anos.
O Brasil teve sua primeira participação na área
Antártica em 1882, com a viagem da Corveta
“Parnahyba”, sob o comando do então Capitão-deFragata Luis Philippe de Saldanha da Gama, que levou
o Dr. Luis Cruls, Diretor do Obser vatório
Astronômico, por ordem do Imperador D. Pedro II,
para observar a passagem do planeta Vênus pelo disco
solar.
Em novembro de 1961, o Professor Rubens Junqueira
Vilella, meteorologista, foi o primeiro brasileiro a pisar
no Pólo Sul, sendo tal façanha raras vezes repetida
por brasileiros até o tempo presente.
Em 16 de maio de 1975, o Brasil aderiu ao Tratado
da Antártica, ainda sem direito a voto. Realizou sua
primeira expedição científica, com a participação do
NApOc “Barão de Teffé”, de dezembro de 1982 a
janeiro de 1983, e foi admitido como Membro
Consultivo do Tratado em setembro de 1983,
passando a ter direito a voz e voto nas decisões sobre
o futuro do Continente Gelado.
Em 6 de fevereiro de 1984 foi inaugurada a Estação
Antártica Brasileira Comandante Ferraz e, nesse mesmo
ano, o país aderiu ao Scientific Commitee on Antarctic
Research – SCAR.
No âmbito interno, o Brasil estabeleceu sua política
Antártica – POLANTAR, e criou o Programa
Antártico Brasileiro – PROANTAR, em 1982.
206
Ainda em 1982 criou a Comissão Nacional para
Assuntos Antárticos – CONANTAR e, em 1984 o
Comitê Nacional de Pesquisas Antárticas – CONAPA.
O Presidente da República atribuiu, em 1982, à
Comissão Interministerial para os Recursos do Mar –
CIRM – a tarefa de implementar o PROANTAR, que
completa em 2007 seu Jubileu de Prata.
Embora o Tratado da Antártica tenha congelado as
reivindicações territorialistas e impedido, ou retardado,
possíveis confrontos, além de preservar o meio
ambiente antártico de uma exploração desenfreada,
proclamando a dedicação ao continente à paz e à
ciência, ainda são significativamente importantes as
posturas de várias nações em relação aos interesses na
região, que podem se resumir em três grandes
categorias: estratégica, científica e econômica.
GEOGRAFIA
De acordo com a Teoria da Deriva Continental,
proposta por Alfred Wegener, na gênesis do planeta
todos os continentes estavam unidos num único bloco,
chamado Pangea que, por pressões geológicas e
geofísicas, teria se partido, a princípio, em três porções.
Uma dessas porções, chamada de Godwana, incluía
as atuais América do Sul, África, Austrália, Índia e
Antártica, esta última ocupando o centro do sistema.
Novas pressões fracionaram a Terra de Godwana, e
a Antártica foi o bloco que derivou mais para o sul.
Os estudos relacionados à Paleontologia têm auxiliado
na comprovação da Teoria de Wegener. A similaridade
dos achados fósseis contemporâneos é indicação
significativa para concretizar a realidade de Godwana.
A Antártica está praticamente circunscrita pelo Círculo
polar Antártico (66º 33’ S), e a massa continental mais
próxima é a América do Sul. A distância entre a Terra
do Fogo e a Península Antártica é de aproximadamente
1000km, na área denominada passagem de Drake.
É possível identificar no continente áreas insulares e
continentais, todas cobertas por grande manto de gelo.
A Antártica possui um grande domo de gelo no
altiplano glacial, com mais de 4800m de espessura em
alguns locais. A oeste abriga uma depressão que, devido
ao fantástico peso de 18 milhões de km3 de gelo, se
estende a 2500m de profundidade abaixo do nível
do mar. A leste, na porção que fica no hemisfério
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
CONTRIBUIÇÕES ESPECIAIS
oriental, o alto planalto polar tem elevações que
atingem 1500m de altitude, formadas por rochas
subglaciais cobertas por 3800m de gelo. A espessura
média da camada de gelo é de 2,1km, sendo que, na
região do Domo de Charlie, a calota de gelo alcança
sua maior espessura, com 4776m.
Na tentativa de classificar, reconhecer e delimitar a
Antártica, muitos geólogos e geógrafos adotam as
montanhas transantárticas (supostamente uma
continuidade dos Andes) como a barreira física que
permite a divisão do continente em duas porções: a
leste (oriental), ou Grande Antártica – coberta por
um domo de gelo irregular sobre uma massa
continental contínua; e a oeste (ocidental), ou Pequena
Antártica, com cerca da metade do tamanho, inclui a
Península Antártica e duas grandes barreiras de gelo,
Ross e Filchner, sendo sua conformação mais irregular,
com o aparecimento de muitas ilhas.
A Grande Antártica, separada da Pequena Antártica
pela Cadeia Transantártica, é uma massa continental
enorme, onde se encontram formações as mais
diversas: regiões secas – típicos desertos – sem
vegetação, sem gelo e sem água: formações lacustres,
como o lago Vanda com 7,2km de comprimento,
70m de profundidade média e cobertura permanente
de gelo.
A umidade relativa do ar do continente é de 0,2%,
sendo, pois, extremamente seco e frio. A média anual
de chuvas é da ordem de 1,5cm anuais, o que é
comparável ao deserto de Gobi.
No lago Vanda ocorre um interessante fenômeno.
Como suas águas são as mais claras e transparentes
do mundo, permitem a passagem da luz solar, de
modo que a temperatura do fundo chega a 25ºC,
enquanto que a temperatura de sua superfície é de –
18ºC.
A Antártica possui cerca de 14 milhões de km2 de
superfície, sendo que 98% são recobertas de gelo. Isso
equivale a 1,6 vezes o tamanho do Brasil. No inverno,
com o congelamento dos mares em seu entorno –
fenômeno chamado de “pack-ice” – a área do
continente alcança 30 milhões de km2 . A espessura do
“pack-ice” varia de 1 a 10 metros, dependendo da
idade e distância do litoral.
Grande parte da costa antártica é circundada por
plataformas de gelo que são partes flutuantes do manto
de gelo e têm até 1200m de espessura. Nas frentes
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
dessas plataformas se formam os maiores icebergs,
alguns com mais de 100km de comprimento.
O Brasil concentra suas atividades na Península
Antártica, cordilheira com 1500m de altitude média e
2500km de extensão, assim como grande parte dos
países que desenvolvem pesquisas naquele continente.
Isso se justifica em função dessa região apresentar
condições climáticas mais amenas e por ser,
geograficamente, mais acessível.
A Península é a única massa continental que está fora
do limite do Círculo Polar Antártico e é banhada pelos
mares de Weddell e de Bellinghausen. Ela é de
formação vulcânica ainda ativa com a última erupção
tendo ocorrido em 1978, no vulcão da Ilha Deception.
É de interesse particular do Brasil a Ilha Rei George,
onde se encontram as edificações brasileiras. São
1338km2 de praias e montanhas, com apenas 26km2
livres de gelo, exatamente junto ao mar em uma estreita
faixa de terra.
Possui topografia acidentada e tem o seu pico máximo
a 575m de altitude. Suas elevações representam bem
a paisagem típica da Antártica, com grandes glaciares
e “nunatacs” – palavra de origem esquimó que designa
os picos arredondados de rocha ígnea que sobressaem
nas camadas de neve.
Com as características descritas acima, a Antártica
ganhou a classificação de Terra dos Superlativos. É a
região mais remota, mais desértica, mais estéril, de mais
alta superfície média e mais inabitável do planeta.
CLIMA
A distribuição da temperatura média anual na Antártica
apresenta predomínio de baixas temperaturas no
interior: entre – 25ºC e – 45ºC.
É na Antártica oriental onde ocorrem as menores
temperaturas devido às maiores elevações.
No verão, as médias são de –35ºC no platô antártico
e de 0ºC na costa. No inverno, as médias são de –
55ºC no platô e de – 25ºC no litoral.
A menor temperatura registrada na Terra foi de –
89,2ºC, em 23 de julho de 1983, na estação antártica
russa de Vostok.
Na Antártica existem muitos centros de baixas
pressões distribuídos em um cinturão coincidente com
o paralelo de 65ºS.
207
CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA
No interior existe um anticiclone permanente, isto é,
um centro de alta pressão, responsável pela estabilidade
atmosférica naquela região, implicando escassa
precipitação e ventos constantes que podem alcançar
até 200km/h, o que transforma a Antártica no
continente mais ventoso do planeta.
A nossa região de interesse, a Península Antártica e o
Estreito de Drake, está na rota dos centros de baixa
pressão atmosférica, sempre associados a ventos fortes
de norte a oeste, precipitação e mau tempo.
Centros de alta pressão também passam na região e
são associados a massas de ar frio do sul, ou quente
do norte, com ventos amenos.
A forte característica da região é a mudança rápida de
situação, podendo ocorrer várias vezes em uma
mesma semana, causando constantes variações de
tempo, que podem se tornar dramáticas, com
gradientes de pressão intensos e com ventos superiores
a 150Km/h.
Na Ilha Rei George, onde se localiza a Estação
Antártica Comandante Ferraz – EACF, as temperaturas
extremas registradas foram de – 32ºC e + 14,9ºC.
É nessa região, Península e Estreito de Drake, que se
encontra a Zona de Convergência Antártica, onde
águas frias do oceano Austral submergem sob as águas
mais quentes dos oceanos Atlântico e Pacífico, afetando
as condições climáticas locais.
O fato de a temperatura ao norte da Península ser
próxima de 0ºC, mesmo em alguns eventos no
inverno, cria regularmente condições para a formação
de nuvens, nevoeiros e precipitação nas formas de
chuva e neve.
Esses fenômenos tornam a previsão do tempo nessa
região muito complexa, requerendo grande vivência
prática e boa formação teórica dos previsores na
interpretação de dados e dos resultados de modelos
numéricos.
A Antártica é a região do planeta mais sensível às
mudanças globais. É lá que percebemos primeiro as
alterações que a Terra vem sofrendo. É lá, na Península
Antártica, que aparecem os primeiros sinais de
alterações climáticas.
A primeira evidência de que a atividade humana está
alterando as condições de vida no planeta foi a
descoberta do buraco de ozônio, na Antártica, em
1985.
208
A EACF, na Ilha Rei George, na orla marítima, longe
dos rigores do continente, permite ao Brasil uma
posição privilegiada para desenvolver pesquisas sobre
mudanças climáticas e ambientais e de suas
conseqüências em diversos ramos da ciência.
Uma abordagem didática da variabilidade do clima e
a retrospectiva do registro das mudanças climáticas
naturais e antropogênicas na história recente da Terra
possibilitam conectar o atual quadro de mudanças
climáticas com as futuras alterações climáticas na
Antártica, e entender como essas mudanças afetarão,
principalmente, o Brasil.
FAUNA E FLORA
Apesar das condições extremas, a vida dentro d’água,
na costa da Antártica, é surpreendentemente rica,
principalmente nas áreas livres de gelo.
A vida animal limita-se a seres que estão vinculados
ao mar, nele tendo seu habitat ou dele retirando seu
alimento. As comunidades terrestres são pobres, em
contraste com a vida marinha.
Por existirem poucas alternativas alimentares, qualquer
quebra na cadeia trófica terá conseqüências imediatas
em várias populações.
A cadeia alimentar antártica é baseada no camarão, o
krill, que existe em tal quantidade quanto o peso de
todos os seres humanos.
A Convergência Antártica é uma grande barreira à
movimentação de espécies, exceto para a baleia que
se desloca entre a Antártica e os Trópicos. A grande
maioria dos pingüins, focas, aves e peixes, no entanto,
vivem permanentemente dentro da Convergência
Antártica.
Os organismos antárticos muitas vezes são
considerados endêmicos, ou seja, vivem somente
naquela região. A vida marinha é muito rica desde a
superfície até o fundo, de regiões rasas até regiões
abissais, sendo que muitos espécimes são maiores do
que em regiões tropicais, talvez por crescerem
lentamente e assim atingirem um tamanho grande ao
longo de seu desenvolvimento. Esse fenômeno é
conhecido como gigantismo dos organismos
antárticos.
Assim, no mar houve evolução e adaptação dos
organismos criando um paraíso para a pesquisa.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
CONTRIBUIÇÕES ESPECIAIS
Os mamíferos marinhos ainda preservam
características específicas dos mamíferos terrestres dos
quais se originaram (respiração pulmonar, fecundação
interna, homeotermia e lactação) apesar de viverem
muito ou todo o tempo na água. Nesse grupo estão
as baleias, golfinhos, focas, lobos e leões-marinhos,
morsas, peixe-boi e lontras.
Eles se adaptaram às mudanças extremas do ambiente
físico e biológico do oceano Austral, apresentando
ciclos de vida relativamente longos e suportando
variações na abundância de alimento em escalas de
tempo e espaço grandes.
As espécies migratórias são as baleia-jubarte, baleiaazul, baleia-mink e machos de cachalote. A razão de
essas espécies se dirigirem para a Antártica é a fartura
de alimento, principalmente o krill. A orca também é
freqüentemente vista no verão antártico, mas ela se
alimenta mais de pingüins e focas.
O Brasil vem estudando a diversidade e a abundância
de cetáceos na região da Península Antártica, além de
estudos direcionados à migração, deslocamento,
contaminação e o reconhecimento de indivíduos da
baleia-jubarte.
No fundo do mar, de um azul escuro, é muito grande
a variedade e a quantidade de estrelas-do-mar, corais,
esponjas, mariscos, vieiras e peixes de pequeno
tamanho.
É um ambiente altamente produtivo, com plânctons
e pequenos camarões, que se proliferam durante o
verão. Os peixes, que resistem às baixíssimas
temperaturas, sem se congelarem, são uma importante
fonte de pesquisas, assim como os fictoplânctons,
essenciais para a fotossíntese global do planeta.
É em terra, no entanto, que identificamos o símbolo
da Antártica: o pingüim.
Com seu andar cambaleante e seu “traje de gala”,
representa, de forma simpática, o continente branco.
Distribuídos em cerca de 25 espécies, possuem altura
média de 70 cm, com exceção do pingüim imperador
que alcança até 1,12m de altura.
Algumas espécies de pingüins costumam nidificar em
grupo, em locais denominados pingüineiras, às vezes
dividindo o espaço com outras aves.
A maioria das aves é oceânica, principalmente pela
dificuldade em obter alimento no continente. Dentre
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
as mais comuns temos os petréis, as skuas, as gaivotas,
as andorinhas-do-mar e as pombas.
O petrel gigante tem envergadura de até 2,5m e as
skuas são consideradas os urubus antárticos, já que
são rapineiras. A andorinha-do-mar, com apenas 38cm
de comprimento, voa todos os anos da Antártica para
o Ártico, fugindo dos invernos. Já as pombas, que se
alimentam de fezes nas pingüineiras, são pequenas e
atacam os filhotes de pingüins.
Enquanto a fauna mostra-se rica e significativa, a flora,
mais tímida, não inclui vegetais superiores, resumindose à ocorrência de poucas espécies de gramíneas na
Península Antártica, mais úmida e mais apropriada para
a vida. No mais são algas, musgos e líquenes, estes
últimos tirando, com sua policromia, a monotonia da
paisagem do verão antártico.
As algas marinhas chegam a formar espessas camadas
ao longo das praias, enquanto que as terrestres
desenvolvem-se pelas geleiras. Os musgos têm seu
habitat natural em locais abrigados dos fortes ventos,
formando massas compactas, enquanto que os líquenes
– constituindo a maioria das espécies vegetais – vivem
fortemente aderidos às rochas.
A dificuldade no desenvolvimento de formas de vida
vegetal deve-se não somente às condições climáticas
extremas como também à pobreza do solo. No
entanto, locais freqüentados por pingüins, ou outros
animais antárticos, são potencialmente favoráveis para
o desenvolvimento de vegetação, visto a nidificação
favorecer o enriquecimento do solo pelo acúmulo de
dejetos.
RELEVÂNCIA DA ANTÁRTICA
INTERESSE CIENTÍFICO
A região antártica tem um papel essencial nos sistemas
naturais globais. Ao longo dos últimos vinte anos,
importantes observações científicas, dentre as quais as
relativas à redução da camada protetora de ozônio
da atmosfera, à poluição atmosférica e à desintegração
parcial do gelo na periferia do continente, evidenciaram
a sensibilidade da região polar austral às mudanças
climáticas globais.
Em uma dimensão mais ampla, a grandiosidade e
vastidão do continente antártico, seus valores naturais
e agreste, praticamente intocados pelo homem, por si
209
CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA
só constituem um precioso patrimônio de toda a
humanidade que cabe preservar.
Inúmeras razões tornam a Antártica de excepcional
interesse para a pesquisa científica. Algumas das mais
notáveis são:
– a região antártica é um dos principais controladores
do sistema climático global. A região atua como o
principal sorvedouro do calor que chega à Terra;
– o gelo polar constitui o melhor arquivo da evolução
do clima e da atmosfera ao longo de centenas de
milhares de anos e com alto grau de resolução. Estudos
geoquímicos de testemunhos de gelo permitem
reconstituir a história de todos os elementos jogados
na atmosfera pelo homem e pela natureza;
– a posição polar do continente e a configuração do
campo magnético da Terra propiciam condições
excepcionais para estudos atmosféricos e do
geoespaço;
– dados meteorológicos antárticos são essenciais para
o entendimento do sistema e elaboração de modelo
climático do hemisfério Sul; e
– o oceano Austral tem um papel importante na
absorção de CO2.
Cientistas estimam que 70% da água fresca do mundo
e 90% de toda a água potável estão na Antártica.
Os estudos dos peixes antárticos representam, além
da possibilidade do aproveitamento econômico, lições
dadas pela adaptação ao frio, alimentação
energeticamente limitada e ciclos de vida lentos com
alta longevidade e escassa fecundidade.
O estudo com as aves depara-se com importantes
questionamentos tais como a sobrevivência do
pingüim imperador, único animal antártico a
permanecer no interior do continente no inverno, ou
sobre as pequenas aves que transitam entre o Ártico e
a Antártica.
O homem também é alvo de estudos quanto à sua
adaptação ao meio ambiente e às suas modificações
metabólicas e psicológicas quando no isolamento
antártico.
A geologia busca a potencialidade de recursos minerais.
A glaciologia analisa as camadas de deposição de neve
e desvenda a história do planeta. Nas perfurações,
quanto mais profundo mais antiga a informação
obtida.
210
A análise de fósseis também contribui com o
conhecimento da história da Terra, que vem
comprovando, inclusive, a existência, em tempos
remotos, de uma floresta em grande parte daquele
continente.
Embora classificado em grandes áreas, os estudos na
Antártica assumem caráter de multidisciplinaridade,
principalmente quando a temática trata de assuntos
ecológicos.
Os estudos científicos têm sido o elo entre os muitos
países que atuam na Antártica, porém, é o interesse
econômico, inegavelmente, que impulsiona as
atividades ali desnvolvidas.
INTERESSE ECONÔMICO
Conforme mencionado anteriormente, as primeiras
viagens à Antártica foram induzidas pelo interesse na
caça às baleias e focas, pelo valor econômico da
gordura e dos ossos.
Com o fortalecimento da teoria da Terra de Godwana,
aumenta a expectativa de se encontrarem recursos
minerais semelhantes àqueles do sul da África – ouro
e diamantes – embora ainda pairem dúvidas sobre
essa acertiva.
Mesmo havendo cautela nas afirmações sobre as
potencialidades minerais da Antártica – somente as
pesquisas darão o veredito – são fortes os indícios da
existência de ouro, prata, carvão, ferro, urânio,
manganês e petróleo, conforme indícios encontrados
da Península Fields, na Ilha Rei George.
Uma riqueza, no entanto, não pode ser contestada: a
imensa reserva de água doce. Existe em tal quantidade
que já se realizaram tentativas de rebocar icebergs para
nações ricas em petróleo e pobres em água, localizadas
no oriente Médio.
Os peixes e outros animais marinhos continuam sendo
alvo de pesca em larga escala, representando poderoso
mercado.
É oportuno destacar que o Protocolo de Madri, que
foi adotado em 1991 e entrou em vigor em 1998,
proibiu a exploração econômica do continente por
50 anos. No entanto, destaca-se que o investimento
tecnológico, necessário tanto à exploração mineral
como de alimentos, somente tornar-se-á rentável se
forem realmente confirmadas as especulações sobre
a quantidade de tais recursos.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
CONTRIBUIÇÕES ESPECIAIS
INTERESSE POLITICO E ESTRATÉGICO
permite conhecer melhor o que acontece nas águas
jurisdicionais brasileiras e com o nosso pescado.
Não resta dúvida sobre a importância política e
estratégica de o Brasil ser ator importante nas
discussões sobre as garantias de uso da Antártica para
fins pacíficos; na ordenação das investigações científicas
e da cooperação internacional; na conservação dos
recursos vivos; nas medidas de proteção ambiental;
nas questões relativas ao ordenamento jurídico sobre
pretensões de toda a ordem.
No aspecto tecnológico das pesquisas, dominamos
técnicas construtivas especiais com aplicação direta no
país. Desenvolvemos estudos sobre corrosão, acústica,
zoneamento ambiental e monitoramento de poluição
e contaminação.
O mundo atual vive fases turbulentas em vários pontos
dos cinco continentes mas, ainda assim, o livre acesso
a passagens críticas para a navegação é assegurado.
Por isso, o continente antártico assume, dentre tantos
outros papéis, o de eminentemente estratégico por
dominar a parte sul das passagens entre os oceanos
Pacífico, Atlântico e Índico.
Uma provável interrupção da passagem do canal de
Suez e o já comprometido canal do Panamá, restrito
a navios de pequeno e médio portes, dão a magnitude
da importância de vias marítimas alternativas que, para
o Brasil, se tornam vitais dada a dependência do país
ao seu tráfego marítimo.
A presença antecipada a momentos de crise nos
permite entender e aprender como viver e operar em
áreas longínquas, inóspitas ao homem e perigosas para
os meios navais. A experiência e o conhecimento não
têm preço.
Politicamente, o Brasil vem participar de um seleto
grupo de países com capacidade de desenvolver
pesquisa científica e tecnológica na Antártica e manter
uma Estação Científica operando durante todo o ano.
Reconhecimento e respeito internacionais são o ganho
político. Além disso, ser admitido e se manter como
Membro Consultivo do Tratado da Antártica nos dá
poder político para regular e ordenar as atividades
em um continente que influencia diretamente nosso
país, principalmente nas áreas de meteorologia e de
oceanografia.
Na área de pesquisas, estamos conhecendo os segredos
antárticos e aprendendo como eles interferem com
nosso sistema de clima. Aprendendo como evolui o
efeito estufa e a quebra da camada de ozônio. Hoje o
Brasil possui a série de dados mais completa sobre o
fenômeno do buraco de ozônio. Entender a vida
marinha e sobre as correntes marinhas da Antártica
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
Na geologia e glaciologia estamos acumulando o
conhecimento necessário para a descoberta de riquezas
minerais e para o entendimento do que influenciou e
do que influenciaria a vida no planeta.
E todo esse conjunto será de fundamental importância
para o aproveitamento racional, quando ele for
permitido, de insumos básicos para a produção
industrial e alimentação brasileiras.
A PRESENÇA BRASILEIRA NA
ANTÁRTICA
A estação brasileira foi instalada no verão de 1984,
quando o NApOC “Barão de Teffé” transportou oito
módulos de aço, tipo containeres, que constituiriam
o núcleo da Estação Antártica Comandante Ferraz, EACF, inaugurada em 6 de fevereiro daquele ano.
Para se chegar a esse ponto, foi adquirido um navio,
foram feitos intercâmbios com países experientes na
Antártica, desenvolveu-se tecnologia própria de
construção, foi feita uma expedição, a Operação
Antártica I – OPERANTAR I, para reconhecimento
da área e início das pesquisas, e houve a dedicação de
muitos brasileiros empenhados em fincar o pavilhão
nacional naquelas terras distantes.
A estação começou tímida, com pequenos
compartimentos e, hoje, conta com um área principal
edificada de 2340m2, que propicia todo o conforto e
funcionalidade necessárias ao bom desenvolvimento
das pesquisas. Equipamentos de infra-estrutura e de
pesquisa modernos, estruturalmente revitalizada, pode
abrigar até 70 pessoas e realizar pesquisas em todas as
áreas do conhecimento de interesse na Antártica.
Além da área principal, ainda existem módulos no
entorno da estação aplicados aos estudos de química,
ionosfera, meteorologia, atmosfera e de radiação.
Temos também dois refúgios em ilhas mais afastadas
que dão o necessário suporte ao estudo da vida
marinha.
211
CONTRA-ALMIRANTE JOSÉ EDUARDO BORGES DE SOUZA
Duas características chamam a atenção na Estação
brasileira: as condições de segurança e a capacidade
de preservação ambiental, que nos elevaram à
condição de estação referência nesse último assunto.
Nosso navio foi substituído e hoje contamos com o
NApOc “Ary Rongel”, que não só realiza o apoio
logístico da EACF e dos refúgios e acampamentos
como também o apoio para inúmeras pesquisas
científicas.
O PROANTAR
O Programa Antártico Brasileiro é um programa do
Estado brasileiro e conta com colaboração relevante
de empresas privadas, além do natural suporte
prestado pelos órgãos governamentais.
A Marinha do Brasil realiza a maior parte do esforço
logístico, planejando a operação, empregando o navio
de apoio, operando e mantendo a EACF, os refúgios
e os módulos isolados, realizando o Treinamento PréAntártico, para militares e civis, fazendo a seleção de
pessoal, dando suporte logístico aos projetos de
pesquisa, mantendo os equipamentos de transporte
de pessoal e de material empregados nas operações
antárticas e cuidando de todas as etapas de abastecimento, de alimentos, roupas especiais e equipamentos.
A Força Aérea Brasileira complementa as atividades
logísticas realizando oito vôos de apoio para a
substituição de pessoal e abastecimento da EACF.
O Ministério da Ciência e Tecnologia e o Conselho
Nacional de Pesquisa e Desenvolvimento são
responsáveis pela seleção, por mérito, dos projetos de
pesquisa a serem realizados e pelo apoio financeiro
aos pesquisadores.
O Ministério do Meio Ambiente é responsável por
cuidar do controle ambiental de todas as atividades
desenvolvidas na Antártica.
O Ministério das Minas e Energia, por meio da
Petrobrás, é o fornecedor de todo o combustível
especial usado no navio e em suas aeronaves orgânicas,
nos geradores da EACF, nas aeronaves Hércules C130 da Força Aérea Brasileira e para movimentar todos
os veículos de transporte de carga e pessoal na
Antártica.
A Telemar/Oi implantou e dá manutenção a um
moderno sistema de telecomunicações que permite o
212
uso de telefonia, inclusive celular, e internet de alta
velocidade com possibilidade de tele-conferência.
O Ministério das Relações Exteriores se ocupa das
reuniões internacionais e da internalização das normas
e recomendações relativas ao Tratado Antártico.
Órgãos como o INPE e o CPTEC se engajam
significativamente na pesquisa metereológica.
Além disso, temos outras empresas que realizam
pesquisas de campo, e também o apoio do Congresso
brasileiro, com uma Frente Parlamentar Mista que se
ocupa, principalmente, de encaminhar emendas ao
orçamento que favoreçam o PROANTAR.
Na área universitária, temos a Fundação da
Universidade do Rio Grande, que opera a Estação de
Apoio Antártico – ESANTAR – responsável por
cuidar das roupas e equipamentos especiais usados
nas operações, e ainda várias outras universidades,
como a Universidade do Estado do Rio de Janeiro,
Universidade Federal do Rio de Janeiro, Universidade
Vale do Rio Doce, Universidade do Vale do Rio dos
Sinos, Instituto Oceanográfico da Universidade de São
Paulo, Universidade Federal do Estado da Bahia,
Universidade Federal de Pernambuco, encarregadas
de coordenar os projetos de pesquisa. Como
exemplo, a Universidade Federal do Espírito Santo
cuida de todo o assunto na área Tecnológica,
responsável pelo planejamento do Plano Diretor da
EACF e pelos cuidados com os módulos e refúgios
do programa brasileiro.
CONCLUSÃO
A Antártica é um continente com forte influência nas
atividades globais que regulam a vida do planeta. Além
disso, se constitui em importante reserva de riquezas
fundamentais à economia e à sobrevivência humana.
Ocupando posição estratégica, domina pontos focais
do tráfego marítimo. Região sem divisão geopolítica,
aguça o interesse territorialista de algumas nações e
pode se tornar foco de graves crises internacionais.
Hoje, a Antártica é protegida pelo Tratado Antártico
e seus anexos, sendo a única região do planeta dedicada
à paz e à ciência.
A presença brasileira na Antártica, por meio da
execução de um poderoso e bem sucedido programa
do Estado brasileiro, é irreversível.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
CONTRIBUIÇÕES ESPECIAIS
O PROANTAR defende interesses nacionais no
Continente Gelado e é um instrumento de projeção
do país no cenário internacional.
Motivo de orgulho da capacidade de realização do
povo brasileiro, foi implantado e mantido graças à
determinação de muitos homens e mulheres deste país,
que aplicaram seus esforços além do normal e
lograram concretizar o sonho brasileiro de operar na
Antártica, realizando pesquisas em favor da
humanidade e contribuindo para a manutenção da paz
no sexto continente.
O caminho não foi nem será fácil. Muitas dificuldades
foram e serão vencidas, nos restando a certeza de que
estamos com o rumo certo.
“Os primeiros passos do Brasil na Antártica foram,
muitas vezes, desajeitados, porém sempre com a força
e perseverança de quem ambiciona não somente
andar, mas correr e, se possível, voar....”
REFERÊNCIAS
ALVAREZ, Cristina Engel de. Arquitetura na Antártica: ênfase nas
edificações brasileiras em madeira. 1995. Tese. Faculdade de
Arquitetura e Urbanismo da Universidade de São Paulo (FAUUSP),
São Paulo, 1995.
ALVAREZ, Cristina Engel de. Desenvolvimento Tecnológico.
Brasília. Secretaria da Comissão Interministerial para os Recursos do
Mar. No prelo.
ALVAREZ, Cristina Engel de. Tecnologia de Edificações. In: O
Brasil e o Meio Ambiente Antártico: ensinos fundamental e médio/
coordenação Tânia Brito. – Brasília: Ministério da Educação, Secretaria
de Educação Básica, 2006. Coleção Explorando o Ensino, v. 10, 2006.
ALVAREZ, Cristina Engel de, SOARES, Glyvani Rubim,
CASAGRANDE, Brás, CRUZ, Daniel Oliveira. Conceitos e critérios
adotados para o Plano Diretor da Estação Antártica Comandante
Ferraz In: Reunión Anual de Administradores de Programas
Antárticos Latinoamericanos, 2005, Lima. Documento de
Información. Lima: IANMPE, 2005.
AQUINO, F.E.; SETZER, A. O clima na Amazônia Azul. In: SIMÕES,
Carlos F.; CHAVES, Paulo de Tarso (ed.) Geografia: ensino
fundamental e médio: O Mar no Espaço Geográfico Brasileiro.
Brasília: Ministério da Educação, Secretaria de Educação Básica, 2005,
p. 226-230 (Coleção Explorando o Ensino, v. 8).
CAMPOS, R. et all. Documento Básico para uma Política de Ciência
e Tecnologia para a Antártica. 1996.
CAPOZOLI, Ulisses. Antártica, a última terra. São Paulo: Ed. da
Universidade de São Paulo, 1991.
DIEGUES, F. M. Fontes. Conferência pronunciada no dia 23/11/89,
no 1º Congresso da Sociedade Brasileira de Geofícia.
MINISTÉRIO DA EDUCAÇÃO. Antártica: ensinos fundamental e
médio/coordenação Maria Cordélia Machado, Tânia Brito. – Brasília:
Secretaria de Educação Básica. 2006. Coleção Explorando o Ensino,
v.9, 2006.
NUNES, Marcomede Rangel. O Brasil na Antártica, mais de vinte
anos no mundo gelado. Rio de Janeiro: Régis Aló, 2005.
PALO Jr, Haroldo. Antártica, expedições brasileiras. Rio de Janeiro:
Cor/Ação Editora Ltda, 1989.
REYNOLDS, J. The Distribution of mean annual temperatures in
the Antarctic Península. British Antarctic Survey Bulletin, v.54,
p.123-133.1981.
SCAR, 2006. Antarctic in numbers. Scientific Committee on
Antarctic. Research. Disponível em http://w.w.ww.scar.org/
information/statistics/. Acesso em 21 de abril de 2007.
SIMÕES, J.C. Glossário da língua portuguesa da neve, do gelo e
termos correlatos. In: Pesquisa Brasileira Antártica. Academia
Brasileira de Ciências, v. 4: p.119-154, 2004.
VIERS, George. Climatologia. Barcelona, 2ª ed. Espanha: Oikos –
Tau Ediciones. 1981.
CHILD, Jack. Antarctica and South Americn Geopolitics. New York.
Greenwood Press, 1988.
REVISTA PESQUISA NAVAL, BRASÍLIA, N. 19, P. 204-213
213
NORMAS PARA PUBLICAÇÃO NA REVISTA PESQUISA NAVAL
A Revista Pesquisa Naval, editada pela Divisão de Ciência e
Tecnologia do Estado-Maior da Armada, é uma publicação
anual de trabalhos inéditos que tem como propósitos divulgar
resultados científicos e tecnológicos de interesse da Marinha,
bem como servir de veículo para intercâmbio com instituições
que desenvolvem pesquisa de interesse naval.
Nesse contexto, a partir desta edição, os trabalhos,
prioritariamente, seguirão as áreas de interesse em Ciência e
Tecnologia da Marinha, definidas no Plano de
Desenvolvimento Científico e Tecnológico da Marinha
(PDCTM), sendo:
1. Sistemas de armas e munições
2. Ambiente operacional
3. Processos decisórios
4. Sensores e guerra eletrônica
5. Desempenho humano e saúde
6. Materiais especiais
7. Energia
8. Arquitetura naval e plataformas
9. Tecnologia da informação
10. Telecomunicações
11. Nanotecnologia
NORMAS EDITORIAIS
1.
2.
Só serão publicados artigos inéditos. Excepcionalmente,
serão aceitos trabalhos que já tenham sido publicados
em periódicos estrangeiros. Caso isso ocorra, esses
artigos serão submetidos à mesma avaliação de originais
inéditos. O autor deverá apresentar autorização, por
escrito, do editor da revista onde seu artigo tenha sido
originalmente publicado, e acompanhado de cópia do
mesmo.
Os artigos serão apreciados e selecionados para
publicação, de forma reservada e sem a identificação de
autoria, pelo Comitê Editorial, que poderá sugerir ao
autor que sejam efetuadas modificações para melhor
enquadramento do tema ou adequação ao padrão gráfico
da revista.
e autorização para sua publicação e veiculação, bem como
seu contato (instituição, endereço, e-mail, telefone e fax).
A Coordenação da Revista encaminhará para os autores
dos trabalhos aceitos um modelo de autorização.
6.
Os originais serão publicados em língua portuguesa.
7.
Cada autor receberá dois exemplares da revista.
8.
Os trabalhos publicados não estarão sujeitos à qualquer
tipo de remuneração.
9.
No caso de haver número maior de trabalhos do que o
comportado pela edição, os excedentes poderão ser
editados em edições subseqüentes, se autorizado pelo
autor.
10. Os trabalhos publicados passam a ser propriedade da
Revista Pesquisa Naval, ficando sua reimpressão, total
ou parcial, sujeita à autorização expressa do EMA. Deve
ser consignada a fonte de publicação original. Os
originais não serão devolvidos aos autores.
11. Serão de responsabilidade exclusiva dos autores as
opiniões emitidas no artigo, bem como a obediência ao
padrão culto da língua e as regras de ortografia e gramática
12. A coordenação da revista receberá como colaborações
para a edição:
12.1.
Artigos: compreende textos que contenham
relatos de estudos ou pesquisas concluídas,
matérias de caráter opinativo e revisões de
literatura.
12.2.
Relatos de experiências: compreende
comunicações e descrições de atividades realizadas
por sistemas, ser viços ou unidades de
informação.
12.3.
Recensões: compreende análises críticas de livros,
de periódicos recentemente publicados,
dissertações e teses.
APRESENTAÇÃO DOS TRABALHOS
O processo de seleção de trabalhos envolverá a avaliação
de especialista do Comitê Editorial. A data do aceite
será informada pela coordenação da Revista Pesquisa
Naval. No sumário, a seqüência dos títulos obedecerá,
dentro de cada tema, a ordem alfabética de nomes dos
autores.
Revisão gramatical: Deverá ser obrigatoriamente
providenciada pelos autores do trabalho.
4.
O número de originais publicado em cada edição será
limitado a dois por autor.
5.
Para trabalhos com autoria múltipla, é necessário
informar a ordem de apresentação dos autores,
declaração de cada um quanto à originalidade do trabalho
Formato: As colaborações deverão ser encaminhadas por email ou em mídia magnética (disquete ou cd) acompanhado
de uma cópia em papel, com entrelinhamento duplo. O arquivo deve estar gravado no formato Microsoft Word, versão 6 ou superior, observando o tamanho máximo de 2MB.
3.
Idioma: O Português é o idioma oficial da Revista. Em caráter
excepcional, por decisão do Editor-Chefe, poderão ser aceitos
trabalhos na língua do autor quando, por alguma razão
justificada, não for possível fazer a necessária versão do texto.
214
Tamanho: A extensão máxima do trabalho completo (texto,
figuras, tabelas, gráficos, notas de rodapé, etc) deverá ser:
artigos 20 laudas; recensões 5 laudas; e relatos de experiências
10 laudas. Página no formato A4 (21cm x 29,7cm). Margens:
superior - 2cm, inferior - 2cm, esquerda - 3cm, direita - 2cm.
Entrelinhamento duplo. Fonte em Times New Roman,
tamanho 12. Uma lauda é uma página de no máximo 1.400
caracteres.
Estrutura: Os trabalhos deverão conter as seguintes seções a
partir da primeira página:
–
Título em português; autoria; resumo; palavras-chave;
título em inglês; abstract; Keywords; introdução;
metodologia; resultados; discussão; considerações finais;
agradecimento (se for o caso); e referências
Título do trabalho: Deve ser breve e suficientemente
específico e descritivo. Formato: entrelinhamento simples;
fonte em Times New Roman, tamanho 14; efeito negrito;
letras maiúsculas e minúsculas; e parágrafo centralizado.
Autoria: Deve conter o nome completo do autor; último
grau acadêmico; vínculo institucional; endereço; telefone; fax;
e e-mail. Isso se repetirá para cada um dos autores, no caso de
autoria múltipla. É necessário informar a ordem de
apresentação dos autores. Formato: entrelinhamento simples;
fonte em Times New Roman, tamanho 12; efeito negrito
somente para o nome do autor; letras maiúsculas e
minúsculas; e parágrafo centralizado.
Resumo: Deve ser elaborado um resumo informativo com
no máximo 200 palavras, incluindo objetivo, método,
resultado, conclusão. Formato: entrelinhamento simples;
fonte em Times New Roman, tamanho 10; letras maiúsculas
e minúsculas; e parágrafo justificado.
Palavras-chave: Devem representar o conteúdo do texto.
Serão no mínimo 3 e no máximo 6 palavras. Formato:
entrelinhamento simples; fonte em Times New Roman,
tamanho 10; letras maiúsculas e minúsculas; e parágrafo
justificado.
Title: Será a tradução para o inglês do título do trabalho.
Formato: entrelinhamento simples; fonte em Times New
Roman, tamanho 12; efeito negrito; letras maiúsculas e
minúsculas; e parágrafo centralizado.
Abstract: Será a tradução do resumo para o inglês, com no
máximo 200 caracteres. Formato: entrelinhamento simples;
fonte em Times New Roman, tamanho 10; efeito itálico;
letras maiúsculas e minúsculas; e parágrafo justificado.
Keywords: Deve ser a tradução para o inglês das palavraschave. Formato: entrelinhamento simples; fonte em Times
New Roman, tamanho 10; efeito itálico; letras maiúsculas e
minúsculas; e parágrafo justificado.
Corpo do Texto: Deve seguir, sempre que possível, a
estrutura: Introdução; Metodologia; Resultados e/ou
215
Discussão; e Considerações Finais. Formato: entrelinhamento
duplo; fonte em Times New Roman, tamanho 12; efeito
itálico somente para palavras estrangeiras; e parágrafo
justificado.
Notas: As notas contidas no artigo devem ser indicadas
imediatamente depois da frase ou palavra a que diz respeito
e no rodapé da página correspondente. Formato:
entrelinhamento simples; fonte em Times New Roman,
tamanho 9; efeito itálico somente para palavras estrangeiras;
e parágrafo justificado.
Agradecimento: Agradecimentos a auxílios recebidos para
a elaboração do trabalho deverão ser mencionados no final
do artigo, antes das referências. Formato: entrelinhamento
simples; fonte em Times New Roman, tamanho 12; efeito
itálico somente para palavras estrangeiras; e parágrafo
justificado.
Apêndices: Apêndices podem ser empregados no caso de
listagens extensivas, estatísticas e outros elementos de
suporte. Formato: entrelinhamento simples; fonte em Times
New Roman, tamanho 12; efeito itálico somente para palavras
estrangeiras; e parágrafo justificado.
Figuras e tabelas: Serão aceitos fotografias nítidas, gráficos
e tabelas (em preto e branco) com os respectivos números de
ordem. Deverão estar intercaladas e referenciadas no texto. Se
as ilustrações enviadas já tiverem sido publicadas, mencionar
a fonte. Também deverão ser encaminhados em arquivos à
parte, em software gráfico, com indicação de localização no
texto e respectivas legendas.
Referências: NBR 6023/2003. São da responsabilidade do
autor a exatidão e a adequação das referências a trabalhos
consultados e mencionados no texto. As fontes de
comunicação pessoal, trabalhos em andamento e os não
publicados não devem ser incluídos na lista de referências,
mas indicados em nota de rodapé da página onde forem
citados.
Recomendações: Para aspectos gerais de apresentação,
referências bibliográficas, citações, notas e demais detalhes,
recomenda-se que se observem as normas da ABNT (NBR
5892, 6022, 6024, 6028, 10.520 e 12.256), bem como a norma
de apresentação tabular do IBGE.
Para encaminhamento dos trabalhos e quaisquer
informações adicionais, contatar a Coordenação da
Revista Pesquisa Naval:
Divisão de Ciência e Tecnologia
Estado-Maior da Armada
Esplanada dos Ministérios, Bloco “N”, 8º andar
Plano Piloto – CEP: 70.055-900 – Brasília/DF
e-mail: [email protected]
Tel/Fax: (61) 3429-1366
ESTADO-MAIOR DA ARMADA
ESTADO-MAIOR DA ARMADA
Subchefia de Logística e Mobilização
Divisão de Ciência e Tecnologia
Esplanada dos Ministérios, Bloco “N” - 8º andar
CEP: 70.055-900 – Brasília/DF
Tel: (61) 3429-1366 - Fax: (61) 3429-1383
[email protected]
Download

19ª Edição - Marinha do Brasil