PESQUISA NAVAL
ISSN 1414-8595
Suplemento Especial
da
REVISTA MARÍTIMA BRASILEIRA
NÚMERO 16 - OUTUBRO DE 2003
Serviço de Documentação da Marinha
ISSN 1414-8595
PESQUISA NAVAL
SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA
PATROCÍNIO
ESTADO-MAIOR DA ARMADA (EMA)
EDITOR-CHEFE
ALTE ESQ JOSÉ ALFREDO LOURENÇO DOS SANTOS
CHEFE DO ESTADO-MAIOR DA ARMADA
EDITORES ADJUNTOS
V ALTE (EN) OLAVO AMORIM DE ANDRADE
INSTITUTO DE PESQUISAS DA MARINHA – IPqM
C ALTE RICARDO SERGIO PAES RIOS
CENTRO DE ANÁLISES DE SISTEMAS NAVAIS – CASNAV
C ALTE PAULO CESAR DIAS DE LIMA
INSTITUTO DE ESTUDOS DO MAR ALMIRANTE PAULO MOREIRA - IEAPM
C ALTE (EN) ALAN PAES LEME ARTHOU
CENTRO TECNOLÓGICO DA MARINHA EM SÃO PAULO - CTMSP
C ALTE ARNON LIMA BARBOSA
SUBCHEFE DE LOGÍSTICA E MOBILIZAÇÃO - EMA
COORDENAÇÃO
CMG EVANDRO RUI CONDÉ MARLIÈRE
MARIA HELENA SEVERO DE SOUZA
DIVISÃO DE CIÊNCIA E TECNOLOGIA - EMA
EDIÇÃO
SERVIÇO DE DOCUMENTAÇÃO DA MARINHA
PESQUISA NAVAL
ISSN 1414-8595
Suplemento Especial
da
REVISTA MARÍTIMA BRASILEIRA
NÚMERO 16 - OUTUBRO DE 2003
Serviço de Documentação da Marinha
A Pesquisa Naval, suplemento da tradicional Revista Marítima Brasileira, se
destina a divulgar os resultados científicos e tecnológicos obtidos sob a égide da
Marinha do Brasil, bem como servir de veículo para intercâmbio com instituições de
pesquisa.
Os artigos aqui publicados não refletem a posição ou a doutrina da Marinha e
são de responsabilidade de seus autores.
Pesquisa Naval / Serviço de Documentação da Marinha
- v. 1, n. 1, 1988 - Rio de Janeiro - RJ - Brasil - Ministério da Marinha
Anual
Título Abreviado: Pesq. Nav.
ISSN 1414-8595
1. Marinha - Periódico - Pesquisa Científica. Serviço de Documentação da
Marinha
CDU 001.891:623.8/.9
CDD 623.807.2
REVISTA PESQUISA NAVAL
SUPLEMENTO ESPECIAL DA REVISTA MARÍTIMA BRASILEIRA
SUMÁRIO
Apresentação
Almirante-de-Esquadra José Alfredo Lourenço dos Santos
Chefe do Estado-Maior da Armada ......................................................................................
IX
Capítulo I
Uma Analogia Físico-Matemática entre um Processo Termodinâmico Adiabático Não
Reversível e a Estimativa de Pesos de um Meio Naval em Concepção.
Contra-Almirante (EN) Tiudorico Leite Barboza - Assessor Especial para Construção
Naval da EMGEPRON......................................................................................................... 11
Capítulo II
Estudo da Aplicação de Célula Bragg Multicanal em Medidas de Apoio a Guerra Eletrônica
A. F. S. Tinoco, M.C. – Divisão de Engenharia Eletrônica - Instituto Tecnológico de
Aeronáutica – (ITA)
M. A. Faria Pires, Cap.Av. – Divisão de Fotônica, Instituto de Estudos Avançados (IEAv)
André César da Silva, Maj.-Eng., PhD. – Divisão de Fotônica – IEAv
W. J. Perrella, D.C. – Divisão de Engenharia Eletrônica - ITA
J. E. B. Oliveira, PhD. – Divisão de Engenharia Eletrônica - ITA ............................ 25
Capítulo III
Cálculo dos Ganhos dos Filtros do Sistema de Rastreamento de Foguetes do Centro de
Lançamento de Alcântara para o Segundo Protótipo do Veículo Lançador de Satélites
Mauricio A. P. Rosa, Alexandre D. Caldeira,
Francisco A. Braz Filho, Lamartine N. F. Guimarães,
Eduardo M. Borges e Jonas Rubini Júnior - Instituto de Estudos Avançados do Centro
Técnico Aeroespacial (CTA) ..........................................................................................
39
Capítulo IV
Nonlinear Flapping Oscillations in Helicopter Rotors
Roberto Ramos, M. Eng and Donizeti de Andrade, PhD - Technological Institute of
Aeronautics (ITA), Aerospace Technical Center (CTA) ..................................................... 53
Capítulo V
Avaliação do Efeito de Diferentes Dopantes sobre a Histeresimetria Magnética dos
Compósitos de Hexaferritas de Bário Dopadas: Policloropreno Utilizados como RAMS
Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM), Instituto de
Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ) ........................
Capítulo VI
Influência nas Medidas de Refletividade do Efeito da Dispersão de Partículas
Ferrimagnéticas em Matrizes Poliméricas
Roberto da Costa Lima - Instituto de Pesquisas da Marinha (IPqM); PEMM-COPPE
da Universidade Federal do Rio de Janeiro (UFRJ)
65
Magali Silveira Pinho - Instituto de Pesquisas da Marinha (IPqM); Instituto de
Macromoléculas da Universidade Federal do Rio de Janeiro (IMA-UFRJ)
Júlio César dos Santos Leandro - IPqM
Augusto Cesar de Carvalho Peres - IMA
Manoel Ribeiro da Silva - Instituto de Física (IF) da UFRJ
Júlio Maria Neto - Instituto de Física (IF) da UFRJ .........................................................
73
Capítulo VII
Estudo da Cinética de Sinterização do Sistema UO2-Gd2O3
Thomaz Augusto Guisard Restivo, M.Sc.
CF(EN) Luciano Pagano Jr. - Centro Tecnológico da Marinha em São Paulo-Aramar ....
81
Capítulo VIII
Using MCDM Methods In An Application For Outranking The Ballast Water
Management Options
Carlos Francisco Simões Gomes - CASNAV...................................................................... 91
Capítulo IX
Controle Fuzzy de Algoritmos Estocásticos de Otimização Global e VFSR
Hime Aguiar e Oliveira Junior - Engenheiro Eletrônico – FINEP ...................................... 103
Capítulo X
Sistemas Criptográficos Baseados em Identidades
CT Waldyr Dias Benits Júnior - Centro de Coordenação de Estudos da Marinha em
São Paulo
Prof. Dr. Routo Terada, PhD -Prof. titular do Instituto de Matemática e Estatística da
Universidade de São Paulo ............................................................................................. 115
Capítulo XI
Estratégias de Implementação e Efeitos de Arraste dos Grandes Programas de
Desenvolvimento Tecnológico Nacionais: Experiências do Programa Nuclear da
Marinha do Brasil
Capitão-de-Fragata (EN) Leonam dos Santos Guimarães - Coordenador do
Programa de Propulsão Nuclear - Centro Tecnológico da Marinha em São Paulo
...............
129
Capítulo XII
Análise da Confiabilidade do Sistema de Suprimento de Energia Elétrica de Emergência
de um Reator Nuclear de Pequeno Porte
Bonfietti, G. e Oliveira Neto, J. M. - Instituto de Pesquisas Energética e Nucleares –
IPEN – CNEN/SP ............................................................................................................... 147
Capítulo XIII
Utilização de Técnicas de Processamento Digital de Sinais para a implementação de
funções biquadráticas
CT(EN) Paulo Henrique da Rocha, M.Sc.- Centro Tecnológico da Marinha em São Paulo.. 163
Capítulo XIV
Variabilidade Meteorológica do Nível do Mar em Baixa Freqüência em Cananéia, SP e
Ilha Fiscal, RJ
Alessandro Filippo - Depto. Geoquímica - Universidade Federal Fluminense (UFF)
Björn Kjerfve - University of South Carolina e Depto. Geoquímica da UFF
Rogério Neder Candella - Instituto de Estudos do Mar Almirante Paulo Moreira
Audalio Rebelo Torres Jr. - Depto. Meteorologia da UFRJ ..................................................175
Capítulo XV
Caso da Praia do Gonzaguinha em São Vicente - SP - Pesquisa do Transporte de
Sedimentos na Baía de Santos
Gilberto Berzin -Universidade Santa Cecília -UNISANTA
Alexandra Franciscatto P. Sampaio - Universidade Santa Cecília ..................................... 191
Capítulo XVI
Caracterização Termohalina da Região Norte do Brasil
Danielle Sara Correia Alves - Universidade do Estado do Rio de Janeiro
1º Ten (T) Marcia Helena Moreira Valente - Centro de Hidrografia da Marinha .............. 205
Capítulo XVII
Modelagem de Equações Estruturais na Melhoria da Gestão
CC (T) Sérgio Luís Dutra de Lamare, M.Sc. - Centro de Análises de Sistemas Navais..... 217
Capítulo XVIII
Comportamento da Taxa de Falha como Conhecimento Necessário para a
Formulação de Hipóteses Estatísticas na Pesquisa da Confiabilidade
CMG (T-RRm) Paulo Antonio Cheriff dos Santos, MSc - (MB)/ComOpNav
Paulo Fernando Ferreira Frutuoso e Melo, DSc - COPPE/UFRJ.
Carlos Rodrigues Pereira Belchior, DSc - COPPE/UFRJ ..................................................... 231
Capítulo XIX
Estimativa da Pressão Máxima em Contenções de Reatores Navais Devido a um
Acidente de Perda de Refrigerante no Circuito Primário
Teofilo Mendes Neto, MSc - IPEN/CNEN-SP
João Manoel Losada Moreira, PhD - Centro Tecnológico da Marinha em São Paulo........... 245
Capítulo XX
Determinação do Fator de Pico Utilizando Sinais de Detectores Out-Of-Core em
Reatores Navais
Rose Mary Gomes do Prado Souza, MSc - Centro de Desenvolvimento da Tecnologia
Nuclear - CDTN-CNEN/BH
João Manoel Losada Moreira, PhD - Centro Tecnológico da Marinha em São Paulo........... 257
Capítulo XXI
Análise da Distribuição e Identificação de "Outliers" de um Conjunto de Dados de
Primeira Detecção Radar Utilizando a Ferramenta "Boxplot"
CC Cleber Almeida de Oliveira, MSc - Centro de Apoio a Sistemas Operativos - CASOP.... 269
Capítulo XXII
Complementando DEA com o Cálculo Probabilístico de Produtividades Globais na
Comparação de Desempenhos em um Segmento do Setor Público
CC Cleber Almeida de Oliveira - Centro de Apoio a Sistemas Operativos - CASOP
Annibal Parracho Sant'Anna - Universidade Federal Fluminense ....................................... 277
Capítulo XXIII
Dimensionamento do Número Ótimo de Equipamentos "Stand By" em uma Rede
Local de Microcomputadores
Solange Fernandes Pinheiro - Universidade Federal Fluminense
CF(IM) Antonio Carlos Bodini Junior -Diretoria de Finanças da Marinha ......................... 295
Capítulo XXIV
Modelo de Programação Linear em Dois Níveis para Otimização de Estoques de
Sobressalentes
CC (EN) Júlio César Silva Neves , DSc.
Cap QEM Alexandre Laval Silva , M.C. - Instituto Militar de Engenharia....................... 309
APRESENTAÇÃO
Esta é a primeira edição que não conta com a orientação segura do
seu idealizador e primeiro Editor-Chefe, V Alte (Refº) MARIO JORGE
FERREIRA BRAGA. A continuidade da Revista, assegurada por esta edição, pretende prestar-lhe o justo reconhecimento.
A Marinha do Brasil sabe que todo salto em desempenho que obteve
ocorreu após a incorporação de tecnologia nova. Em verdade, muitas delas
adquiridas prontas, mas a cada dia, acrescidas do esforço sadio e idealista de
novos homens de ciências, acostumados a repetir tentativas, a perseverar pelo
sucesso.
Senhores pesquisadores, o Estado-Maior da Armada agradece e parabeniza-os pelos trabalhos, estimulando-os a fazer crescer, com zelo e dedicação, o desempenho da Marinha e do País.
Em nome da Marinha do Brasil, muito lhes agradeço.
10
Pesquisa Naval Nº 16, Outubro de 2003
I
Capítulo
UMA ANALOGIA FÍSICO-MATEMÁTICA ENTRE UM PROCESSO
TERMODINÂMICO ADIABÁTICO NÃO REVERSÍVEL E A ESTIMATIVA DE
PESOS DE UM MEIO NAVAL EM CONCEPÇÃO.
Contra-Almirante (EN) Tiudorico Leite Barboza,
atual Assessor Especial para Construção Naval da EMGEPRON e Ex-Diretor do
Departamento de Ciência e Tecnologia do Ministério da Defesa.
Abstract
This paper discusses the difficulties faced by naval architects in order to
control the tendency for light weight growth of a ship by occasion of her conception
as if there was some phenomena similar to Entropy as it was embedded into the
design process and tries to proof that really it exists.
Sumário
Este artigo discute as dificuldades encontradas pelos arquitetos navais no
exercício do controle da tendência ao crescimento apresentada pelo deslocamento
leve do navio, durante o desenvolvimento da sua fase de concepção do projeto, como
se existisse algum fenômeno similar à Entropia que fosse inerente ao projeto de
engenharia, e procura provar que ele, de fato, existe.
1.0 - INTRODUÇÃO
É comum entre os arquitetos navais, a preocupação com o crescimento de
pesos do navio (deslocamento), desde o início da Fase de Concepção, quando dos
chamados “Estudos de Exeqüibilidade”, ocasião em que o meio ainda é uma abstração,
até ao final da construção, que é a materialização da idéia concebida. Em suma, para o
Arquiteto Naval, a variável deslocamento parece ser de extremo e difícil controle, com
uma indesejável tendência crescente, efeito semelhante à inflação para o economista.
12
Pesquisa Naval Nº 16, Outubro de 2003
Atualmente, diferentemente do que ocorria há algumas dezenas de anos, os
estudos de exeqüibilidade eram feitos totalmente por meios manuais, incluindo
estimativas, cálculos, gráficos e desenhos. A partir da década de 1960, começaram a
surgir nos E.U.A, ferramentas computacionais, chamadas modelos de síntese
(“
Ship Synthesys Model”), que são formidáveis ferramentas de apoio ao projeto na sua
fase de concepção, pois admite, idealmente, como variáveis de entrada (“inputs”),
alguns elementos de Requisitos de Estado-Maior (REM) e praticamente todos os
chamados “Requisitos de Alto Nível dos Sistemas” (RANS); como saída (“output”),
tem-se uma primeira idéia da configuração do meio naval , desde as suas dimensões
principais, incluindo o deslocamento, até às suas características de desempenho,
como velocidade máxima mantida, estabilidade, comportamento no mar (“seakeeping”),
etc.; e com o advento dos “personal computers” (PC), até mesmo uma idéia da silhueta
é fornecida, dependendo, evidentemente, não somente da habilidade do programador,
mas também da experiência e capacidade de aprofundamento do arquiteto naval que o
orienta na execução da elaboração deste instrumento. Evidentemente, o próprio
arquiteto naval pode também ser um grande programador e executar as duas tarefas,
isto é, se auto-orientar e programar, mas não é o que comumente ocorre.
Além disso, até à época atual, o computador é um instrumento que ainda
apenas resolve, mas não formula1, isto é, sua grande vantagem é a solução de
problemas com grande velocidade e capacidade de armazenamento de dados para
problemas que são formulados pelo homem, com soluções e métodos de cálculo também
concebidos por este. Por esta razão, mesmo um instrumento como um modelo de
síntese, não torna dispensável o trabalho dedicado e sobretudo experiente de uma
equipe de projeto; a experiência (”expertise”) é fundamental também para reduzir tempo
na convergência de um processo que é iterativo e, por isso mesmo, conhecido no
jargão dos arquitetos navais como “espiral de projeto”. A figura de mérito que estaciona
tal espiral (define a convergência) a qual, em essência, é um verdadeiro algoritmo, sem
dúvidas é o deslocamento. Este, por ser produto de um processo iterativo, obriga que,
mesmo com a ferramenta modelo de síntese, o projetista assuma, usando razoável
intuição, um valor inicial para o deslocamento, valor este, inferior, é claro, ao máximo
admissível pelos requisitos estabelecidos (no caso do deslocamento, normalmente
pelos REM).
No exercício de C&T voltado para resultados, procura-se, mesmo utilizando
ferramentas teóricas, isto é, extraídas da teoria científica, atingir um resultado
eminentemente prático. Está aí a diferença entre ser teórico e ser conceitual. Assim,
quando se utiliza a solidez dos conhecimentos teóricos, para rejeitar, prontamente, um
suposto “invento maravilhoso”, quando já vislumbramos, antecipadamente, que este
contraria, por exemplo, o Segundo Princípio da Termodinâmica, tudo que se está
1
Em matéria de Ciência não cabem as palavras sempre, nunca e impossível e, portanto, as
ficções científicas, envolvendo o conceito de inteligência artificial, não podem ser
desconsideradas.
Pesquisa Naval Nº 16, Outubro de 2003
13
fazendo é aplicar o conteúdo conceitual que se tem agregado sobre o assunto, ao
julgamento quanto à possibilidade prática da existência de um fato.
Quando também se recorre a analogias de comportamento de sistemas, sejam
eles físicos, químicos, biológicos ou até mesmo sociais, estamos fazendo a extensão
de conhecimentos teóricos adquiridos no campo de uma disciplina, para bem conceituar
um problema que ocorre no campo de outra disciplina, de modo a torná-lo melhor
compreensível e permitir-lhe uma solução prática mais assimilável. É o que se faz, por
exemplo, nos estudos de transmissão de calor, em que o tratamento que se dá aos
circuitos térmicos, nos quais aparecem resistências térmicas ao fluxo de calor, é o
mesmo aplicado aos circuitos elétricos, onde aparecem, mais precisamente, as reatâncias
elétricas, das quais a resistência elétrica é um tipo particular mais identificado com os
processos habituais do fenômeno da transmissão de calor.
Também é nesta linha que, a compreensão ou comprovação de um fenômeno
que nos parece intuitivo, mas que não sabemos bem que leis o governam, podem ser
comprovados, melhor compreendidos, qualificados e até mesmo quantificados, se nos
valemos de fenômenos de mesma analogia, já conceituados e com leis estabelecidas.
Este trabalho se propõe a procurar demonstrar que as leis que regem a tendência ao
crescimento do deslocamento de um navio (meio naval), desde as fases iniciais do
projeto, como já foi dito, são análogas àquelas que regem a tendência ao crescimento
da Entropia, objeto da 2ª Lei da Termodinãmica.
2.0 - METODOLOGIA
A metodologia a ser usada para atingir o propósito deste trabalho consiste
em primeiro desenvolver uma análise matemática, consubstanciada, visando discutir
um problema prático, real a ser enunciado, vivido pelos arquitetos navais que já
tiveram a oportunidade de projetar, para demonstrar que as deduções, equações,
igualdades e desigualdades envolvidas nesta discussão se enquadram, em analogia,
com aquelas discutidas na Termodinâmica e associadas, ao conceito de Entropia,
âmago da 2ª Lei desta Ciência.
“Seja um processo iterativo convergente para o desenvolvimento de um ciclo
de projeto de um navio, que partindo de um deslocamento inicial arbitrado ∆0, permite
ao final de algum ciclo j, chegar-se a um deslocamento final ∆f, que seja considerado
aceitável em função do raio de convergência R adotado no processo iterativo utilizado,
ou seja ,∆j—∆j-1≤ R, a partir de um certo j.
Tendo sido imposto como requisito que o deslocamento final ∆f de um navio
deve ficar no intervalo [∆1 , ∆2], considerado adequado em face também dos demais
“Requisitos do Armador” (REM, no caso da MB), pergunta-se se o valor de ∆f obtido
(contido no intervalo estabelecido, se exeqüível) ao final do ciclo j, utilizando o processo
iterativo convergente mencionado, é dependente do valor ∆0 arbitrado como valor
inicial, com ∆1 ≤ ∆0 ∆2, já que o processo é convergente.”
≤
14
Pesquisa Naval Nº 16, Outubro de 2003
Esta pergunta, não deve ficar por conta das opiniões subjetivas e nem da
intuição que muitas vezes conduz a equívoco. Merece uma investigação com ferramentas
de análise adequada, o que se procura fazer ao longo dos itens seguintes; infelizmente,
com a limitação imposta ao número máximo de páginas que podem ser apresentadas no
trabalho em pauta.
Assumamos uma expressão analítica confiável do deslocamento e o conceito
de “coeficiente de majoração” aplicado a esta característica do navio, (uma de suas
dimensões principais), durante a fase do projeto, ambos apresentados pela referência
bibliográfica 1 deste trabalho.
A expressão concebe o deslocamento ∆ como uma função polinomial da
forma:
∆=k0∆0 +k1∆1/3+k 2∆2/3+k3∆3/3+k4∆4/3
(1)
∆ 0 +k1∆
∆1/3+k 2∆
∆2/3+k3∆
∆3/3+k4∆
∆4/3 pode ser utilizada
A equação ∆=k0∆
para gerar a função F(∆) definida como:
∆)=(k0∆0 +k1∆1/3+k 2∆2/3+(k3-1)∆
∆3/3+k4∆4/3)=0,
F(∆
(2)
∂∆ é:
cuja derivada parcial ∂F/∂∆
∂F/∂∆=1/3.k1.∆-2/3+2/3.k2.∆-1/3+(k3-1)+4/3.k4.∆44/3=0 ⇒ Reduzindo ao
mesmo denominador e multiplicando numerador e denominador por ∆3/3 vem:
k1 Λ1 3 + 2k 2 Λ2 3 + 3(k 3 − 1)Λ3 3 + 4k 4 Λ4 3
∂F ∂Λ =
3.Λ3 3
− ∂∆ ∂F =
− ∂∆ ∂F =
∆3 3
∆3 3
− 1 3.k1 ∆1 3 + 2 3.k 2 ∆2 3 + k 3 .∆ + 4 3.k 4
[
(3)
∆
∆ − 1 3.k1 ∆ + 2 3.k 2 ∆2 3 + k 3 .∆ + 4 3.k 4 ∆
[
13
∂∆
∂F = -1/∂
∂F/∂∆
∂∆ significa a taxa de variação
A derivada parcial negativa -∂∆
∂∆/∂
∆),
da variável ∆ (deslocamento) em relação a uma variação ∂F da própria função F(∆
sendo chamada pela referência bibliográfica 1 de “Coeficiente de Majoração do
Deslocamento M”. Pelo seu significado intrínseco, deveria ser chamado mais
propriamente de “Coeficiente de Auto-Majoração do Deslocamento” e será como o
∂∆
∆) é variado. E como qualquer
quando um valor de uma componente da função F(∆
Pesquisa Naval Nº 16, Outubro de 2003
15
variação em F(∆) é devido a uma variação de peso que venha afetar uma parcela da
função F(∆), podemos escrever, para variações pequenas:
∂∆ = M. δP , onde
M=
∆
∆ − 1 3.k1 ∆ + 2 3.k 2 ∆2 3 + k 3 .∆ + 4 3.k 4 ∆4 3
[
13
]
(4)
δP= Variação de peso do deslocamento leve devido a alterações de pesos em uma
ou mais parcelas componentes da expressão:
P =1/3. k1.∆1/3+2/3.k 2.∆2/3+ k3.∆+4/3.k4.∆1/3=P1+P2+P3+P4
(5)
Onde:
-P1 o somatório de pesos proporcionais a ∆1/3;
- P2 o somatório de pesos proporcionais a ∆2/3;
- P3 o somatório de pesos proporcionais a ∆; e
- P4 o somatório de pesos proporcionais a ∆4/3
3.0 - RESULTADOS E DISCUSSÃO
Como vimos na introdução, para o Arquiteto Naval, a variável deslocamento
parece tender a aumentar, exatamente como ocorre com a Entropia nos processo
termodinâmicos, em que somente os processos “adiabáticos reversíveis”
(isoentrópicos) mantém sua Entropia constante; esta por sua vez, somente pode
decrescer com rejeição de calor no processo. O princípio da entropia, fundamento da
2ª Lei da Termodinâmica, nos leva a concluir pelo aumento da Entropia do próprio
Universo , caracterizando a sua tendência à incontrolabilidade. Caberia então a pergunta
(embora muitos arquitetos navais possam não tê-la feito). Existiria uma identificação
em termos físico-matemáticos desta analogia ? A resposta a esta pergunta está no
desenvolvimento do item abaixo.
As causas do aumento de Entropia nos processos termodinâmicos são as
chamadas irreversibilidades, que podem ser internas ou externas ao sistema
considerado. As irreversibilidades internas existem em função do processo
termodinâmico pelo qual passa o sistema e assim estas estão presentes nos
processos não reversíveis ou não quase-estáticos. As irreversibilidades externas
influenciam o “estado entrópico” do sistema devido à troca de calor com o ambiente
na fronteira sistema-meio. Por esta razão, o processo somente é isoentrópico se
for adiabático reversível. O processo termodinâmico é sempre representado por
uma função matemática de mais de uma variável. No caso do processo isoentrópico,
o diferencial da função entropia é uma diferencial exata, isto é, uma função de
ponto, cujo resultado de sua integração ao longo do processo é função apenas do
16
Pesquisa Naval Nº 16, Outubro de 2003
estado inicial e do estado final, qualquer que seja a trajetória, que do ponto de vista
termodinâmico eqüivale ao processo.
Já nos processos não isoentrópico, que caracterizam os processos reais, o
diferencial da função entropia depende da trajetória ou caminho, isto é, no sentido
termodinâmico, dependem do processo.Esta discussão é resumida pela 2ª Lei da
Termodinâmica apresentada abaixo, onde Q representa calor, T temperatura absoluta
e S, Entropia:
dS ≥
∫
dQ
(6), onde a igualdade vale para os processos reversíveis e o sinal de maior
T
vale para os processos irreversíveis. Também podemos escrever esta desigualdade
pela seguinte igualdade que também tem sua correspondente analogia no cálculo do
deslocamento:
 dQ 
 dQ 
 rev + δ Wirrev, onde 
 rev corresponde à variação dS1 que haveria se o
 T 
 T 
dS= 
processo fosse reversível e δ Wirrev corresponde à variação dS2 devido ao trabalho
dissipativo causado pelas irreversibilidades.
Do item 3.0, grupo de equações (4), concluímos que a função deslocamento
∆ , numa etapa qualquer do ciclo do projeto, incluindo, evidentemente, o final de ciclo,
pode ser definido como sendo do tipo ∆ = ∆ ( ∆ 0, M, p). Assim, o incremento δ∆ será
dado por:
δ∆ =
δ∆
∂∆
∂∆
.δ∆ 0 +
.δM + .δp
∂∆ 0
∂M
∂p
(5)
A condição necessária e suficiente para que a expressão acima represente
uma diferencial exata e, assim o valor de δ∆ seja independente da trajetória ou caminho
(neste caso δ∆ =d δ ), é a existência simultânea das três igualdades abaixo:
∂∆
∂∆
=
;
∂∆ 0 ∂M
∂∆ δ∆
=
∂M ∂p ; e
∂∆ ∂∆
=
∂∆ 0 ∂p
(6)
Pesquisa Naval Nº 16, Outubro de 2003
17
Vislumbra-se assim, que além de não ser fácil a representação de ∆ por uma
função elementar2 simples, menos provável é ainda querer que esta seja também uma
função de ponto. A demonstração de que, de fato, ela não é uma função de ponto teve
que ser excluída do contexto deste trabalho devido à limitação de páginas, mas será
objeto de uma próxima edição e já fica aqui como promessa do autor. A trajetória, do
ponto de vista matemático, ou puramente geométrico, representa uma curva no R2 ou
no R3. Na Termodinâmica corresponde ao processo termodinâmico e na estimativa de
pesos corresponde à evolução do processo do deslocamento, segundo o Método de
Cálculo ou Algoritmo utilizado.
O método de cálculo ou algoritmo, por não traduzir a integração de uma
diferencial exata, é equivalente ao gerador de irreversibilidades internas que existe
nos processos termodinâmicos; as alterações de pesos dos componentes de cada um
dos grupos que compõem o deslocamento, por decorrência dos impactos não
associados ao método ou algoritmo de cálculo, representam as irreversibilidades
externas, já que não dependem do processo de cálculo, mas sim das alterações
decorrentes das novas atualizações dos valores de pesos que vão sendo incorporadas
à medida que o projeto se desenvolve, este bastante dinâmico, nos vários aspectos.
É bastante razoável e intuitivo, portanto, que haja dependência do valor inicial
assumido para o deslocamento e do seu processo de estimativa no valor final deste, da
mesma forma que num processo não isoentrópico, o valor da Entropia final depende
do valor inicial e do processo.
A variação da entropia S do processo termodinâmico é medido pela integral
de
dQ
; para o processo de evolução do cálculo de pesos o valor da variação do
T
deslocamento é medido pela integração de

M
1
p
 . Como num processo isoentrópico dS=0, num

d[Mp]=dN ou d 
processo com isodeslocamento d (Mp)=0. Como o símbolo S para Entropia vem de
sistema, pois é um conceito aplicado ao próprio Universo como sistema fechado,
simbolizamos a nossa variável Mp por N de navio, que é o sistema objeto deste trabalho.
A Entropia é uma propriedade instável no sentido do seu crescimento, ou
seja, um excitação no sentido de aumentar S produz, como efeito, uma realimentação
no sentido de intensificar este aumento. Pela eqüivalência das formulações acima, é de
todo razoável que exista uma analogia para esse efeito no que se refere ao deslocamento,
ou seja, uma excitação no sentido de aumentar o deslocamento, ∆ produz como
resultado, uma realimentação para o aumento ainda maior de ∆ .
2
Lembremos que função elementar é aquela capaz de ser expressa na forma
tradicional clássica y=f (x).
18
Pesquisa Naval Nº 16, Outubro de 2003
i)-Analogia com rendimento térmico da Máquina de Carnot
Vamos estabelecer o conceito de rendimento do processo de convergência
para o cálculo do deslocamento, por similaridade com o rendimento do Ciclo de Carnot.
Como a analogia termodinâmica estabelecida é de que 1/p (p ⇒ peso) equivale à
temperatura T e M equivale a calor Q, podemos introduzir o conceito de “eficiência
do processo de convergência do cálculo de pesos” por analogia com o ciclo ideal de
Carnot para “Máquina Térmica”.
Numa “Máquina Térmica” propriamente dita ( que produz trabalho à custa da
rejeição de calor de uma fonte quente QH com temperatura absoluta TH para uma fonte
fria QL), o rendimento térmico é dado por
ηt = 1 −
QL
TL enquanto numa
=1 −
,
QH
TH
máquina térmica refrigeradora (frigorífica ou bomba de calor), o conceito existente é o
de “coeficiente de eficácia”, dado por
e
β b=
TH
=
TH − TL
β f=
TL
1
=
no caso da frigorífica
TH − TL TH
−1
TL
1
, no caso da bomba de calor.
TL
1−
TH
Para um correto entendimento da analogia termodinâmica que existe entre o
rendimento térmico ou eficácia da “Máquina de Carnot” e o que foi chamado de “eficácia
do processo de convergência do cálculo de pesos”, cabem as seguintes observações:
- as temperaturas TH e TL são absolutas e portanto positivas, com TH>TL.
Assim, a diferença TH−−TL, presente nas expressões acima são sempre positivas, pois
coeficientes de rendimento ou de eficácia são grandezas positivas. Assim, como a
eqüivalência estabelecida entre a temperatura termodinâmica T e a variável da
Arquitetura Naval p (peso) é T ⇔
1
p
, a diferença entre TH-TL , corresponde a
1
1
−
pH pL
<0. Assim, as expressões equivalentes no cálculo da “eficiência do processo de
convergência do cálculo de pesos” serão adaptadas de forma a conter expressões
positivas que passarão a ser da forma
1
1
−
>0, nessa ordem. Essa necessidade
pL pH
Pesquisa Naval Nº 16, Outubro de 2003
19
de adaptação decorre do fato de que a variável peso p além de poder ser negativa, foi
colocada em eqüivalência com o inverso da temperatura T, isto é, T ⇔
1
p
Considerando p como peso a adicionar, quer seja por valores menores que
uma cota superior pH, quer por valores maiores que uma cota inferior pL, a analogia mais
consistente, em termos de semelhança de expressões, com rendimento ou eficácia de
um ciclo térmico é com a máquina térmica refrigeradora do tipo frigorífica, pois as
analogias com máquina térmica propriamente dita ou com bomba de calor nos conduziria
a valores de rendimento ou de coeficiente de eficácia negativos (o exercício fica por
conta do leitor). A nossa “frigorifica” teria assim um coeficiente de eficácia dada por:
β=
1
pL
1
1
−
pL pH
=
1
 1
1 

pL  −
 pL pH 
=
1
> 1,
pL
1−
pH
pois pL<pH.
Escrito desta forma, o coeficiente acima expressa o objetivo de diminuir pL, o
que tem consistência, pois se deixarmos crescer pL, em decorrência, crescerá também
pH, pois pH é sempre maior que pL.
É relevante lembrar que o calor Q tem a eqüivalência com M e, portanto, o valor de
β também pode ser expresso por β =
ML
1
=
, o que corrobora com
M H − M L MH
−1
ML
a expectativa de que MH>ML, ou seja , quanto maior o peso p acrescentado, maior seu
impacto no acréscimo de deslocamento, devido não somente ao acréscimo de peso em
si, mas também devido à sua majoração produzida pelo operador M.
Note também que quando pH tende a pL, β tende a ∞ , significando uma
impossibilidade prática, pois neste caso a máxima e a mínima variações de peso entre
∆ 0 (assunção inicial) e o valor final de convergência ∆f são de mesma magnitude,
independente de ∆ 0 , o que , como já vimos não pode ocorrer. Termodinâmicamente,
eqüivaleria a uma frigorífica com rendimento ou eficiência infinita, por trocar calor com
fontes de temperaturas TH e TL, infinitamente próximas, o que seria uma “extravagância”
do ponto de vista prático, pois não haveria sentido em utilizar uma fonte quente com
temperatura TH, que já é infinitamente próxima de TL.
Quando pL tende a zero, β tende a 1 (unidade), o que na prática significa que
nada se fez, ou seja, ∆ permaneceu estacionado na assunção inicial ∆ 0 (lembrar que
∆= ∆ 0 +Mp).
20
Pesquisa Naval Nº 16, Outubro de 2003
ii) Significados de pH e pL
Não parece ser difícil identificar que pH e pL são patamares ou cotas superior
e inferior por quais passou o cálculo de pesos nos diversos ciclos iterativos. Se o ciclo
converge com pH próximo de pL, significa que se desenvolveu o processo de cálculo de
pesos, com grande eficácia ou pouco trabalho. Este, por sinal, tem como analogia
1
 pH − p L 
1 
−  = K
 , onde k é constante e, portanto, tanto menor o
 pL pH 
 p H .p L 
W=K 
trabalho quanto menor a diferença entre pH e pL.
É importante observar que o processo de cálculo tramita entre pH e pL à custa da
interação feita pelo coeficiente M que tem a eqüivalência a Q. Assim, o processo é tão
mais eficaz quanto mais for possível trabalhar numa região de baixo M e de baixa
derivada primeira de M com relação a ∆3, pois assim é baixa a diferença MH-ML. Neste
caso, se tivermos também proximidade entre pH e pL teremos, como conseqüência,
pequenas diferenças MHpH−−MLpL que eqüivalem, no modelo, a diferenças de Entropia
ou, para ficar mais próximo do jargão comum, “gerações de Entropia”, responsáveis
por quedas de eficiência do processo.
4.0 - CONCLUSÕES
4.1-Sobre o que é coeficiente de auto-majoração M, do ponto de vista de um balanço de
energia na Arquitetura Naval:
O “coeficiente de auto-majoração M” para um dado sistema navio de formas
conhecidas é a grandeza cuja variação, entre dois calados H m1 e Hm2, mede o saldo
líquido de variação de Energia devido ao trabalho executado pelas forças do campo
gravitacional e do meio fluido no qual este sistema navio está em equilíbrio hidrostático4.
4.2-O que traz a sua analogia termodinâmica:
Uma analogia “termodinâmica” da evolução da variável M, confirmado pela
verossimilhança das equações que governam a 2 ª Lei da Termodinâmica, justificaria
também o seu comportamento “entrópico”, razão pela qual uma majoração do seu
valor, na fase inicial do ciclo de projeto, ou seja, quanto mais se assume o valor inicial
do deslocamento no entorno da cota superior permissível, tende-se pela natureza do
processo iterativo real, a facilitar a que o valor deste limite seja ultrapassado pelo valor
obtido na convergência do ciclo.
3
É também uma demonstração a que o autor se compromete a apresentar em
próxima edição, devido à limitação das doze páginas.
4
Idem nota 3
Pesquisa Naval Nº 16, Outubro de 2003
21
4.3-A aplicação prática dos resultados e da discussão exposta:
O resultado da análise indica ser recomendável para o arquiteto naval que se
envolve, ou irá se envolver, na concepção do navio (projetista), tome as seguintes
orientações:
a) - Deve-se iniciar o ciclo de projeto na Fase de Concepção, arbitrando, de
preferência, um valor para o deslocamento, se possível até mais baixo do que o menor
valor admissível na faixa estabelecida pelos requisitos e se procure estabelecê-lo como
meta. Para tal, convém utilizar estatísticas disponíveis, estabelecendo diferenças
percentuais entre valores concebidos ao final de fases iniciais do projeto e o final da
construção e, por extrapolação reversa (contas “de trás para a frente”), chegar-se a um
valor a ser estabelecido como meta. Infelizmente, não temos em nossa Marinha um
banco de dados para tal fim, já que nos últimos 25 anos, rigorosamente, os navios que
projetamos e que se tornaram verdades, são contados nos dedos, utilizando-se uma
única mão!
Como alternativa, a referência bibliográfica 2 que, inspirou margens de peso
no projeto das corvetas da classe “Inhaúma”, pode servir de guia, mas alguns cuidados
sobre esta utilização serão feitas no item c) deste item, por razões de ordenação;
b) - De preferência, não se deve considerar, margens para pesos estimados
ou calculados nas fase iniciais do projeto do navio, nem para os grupos que,
isoladamente, compõem o peso leve do navio, nem para o próprio deslocamento leve
obtido pelo somatório dos pesos destes grupos.
Caso o projetista venha a adotá-las, por instinto de precaução, ou por
recomendação de um critério5, não deve fazê-lo com que estas sejam generosas,
principalmente se há falta de confiabilidade na estima destes pesos, por
indisponibilidade de dados, almejando assim uma suposta margem de segurança; não
se deve esquecer que “margem de segurança” é uma expressão elegante para “margem
de ignorância”, no bom sentido da Engenharia, isto é, a margem de segurança existe
para evitar a catástrofe, já que nos critérios e métodos de cálculo, os materiais são
considerados ideais e quase sempre isotrópicos, o que não ocorre na realidade; os
processos e carregamentos são considerados, quase sempre, determinísticos e quando
identificados como essencialmente aleatórios, são enquadrados numa distribuição de
probabilidade, em que a probabilidade de excedência de uma ou mais variáveis aleatórias,
envolvidas no processo, é admitida, segundo um determinado critério6;
- Com relação às conclusões a) e b) acima, vale comentar que a tendência que
se teve nos ciclos da Fase de Concepção das corvetas da classe Inhaúma foi, ao que
tudo indica, justamente ser generoso nas margens, por inspiração, na época, (final dos
5
6
Critério, ao pé da letra, significa opinião, o que nem sempre está fundamentada.
Idem nota 5
22
Pesquisa Naval Nº 16, Outubro de 2003
anos de 1970 e início da década de 1980) da referência bibliográfica 2 que enfatizava a
ocorrência dos seguintes fatos na U.S. Navy:
i)-após a estimativa do deslocamento leve elaborada ao final da Fase Preliminar
(final do período compreendido pelo desenvolvimento das Fases de Concepção e
Preliminar e que antecede o das fases do Projeto de Contrato, Projeto de Construção e
Construção), o crescimento do deslocamento foi menor que cerca de 34% para os
100% dos 60 navios pertencentes ao espaço amostral considerado naquela referência;
menor que cerca de 14% para 60% dos navios; menor que 9% para 40% dos navios; e
menor que 4% para 20% dos navios; e
ii)- após a estimativa do deslocamento leve elaborada ao final da Fase de
Contrato (que antecede o período compreendido pelo desenvolvimento do projeto de
construção e construção), os percentuais análogos foram: 24% para os 100% dos
navios; 6% para 80%; 3% para 60%; 2% para 40%; e, fato de realce, margens negativas
que chegaram próximas de –5% para cerca de 25% dos navios considerados.
Aqui cabe uma observação: Diferentemente do que ocorre em nossa Marinha,
Na U.S. Navy, a Fase preliminar estabelece o “congelamento” (“freezing”) da
configuração do meio naval (dimensões principais, principalmente), incluindo a
chamada “carga militar” e por isto esta fase é também chamada de Fase de Validação
(“validation”). A atuação como “ente” por assim dizer, do coeficiente de auto-majoração
M, somente se dá nas etapas de concepção, em que as dimensões principais estão
sendo recicladas até convergirem definitivamente.
Assim, é fácil entender, de maneira simples, como o fenômeno se dá: quando se
considera mais um peso p e a seu valor se dá uma margem, cresce o valor do
deslocamento leve, não somente pelo efeito de p, mas também pelo acréscimo de uma
margem. Como isto ocorre, para mais de um componente, origina-se uma seqüência
conexa de causas e efeitos em cascata: mais deslocamento gera necessidade de rever
o projeto da estrutura que, inevitavelmente, cresce em peso e, então, novo valor para
o deslocamento; agora, com mais deslocamento, para manter a velocidade que se tinha
na configuração anterior, requer-se maior potência propulsiva; maior potência propulsiva
acarreta maior peso da planta propulsora como um todo, incluindo mais óleo
combustível, mais óleo lubrificante; os sistemas auxiliares são mais exigidos, portanto,
a princípio também mais pesados. A carga elétrica, por sua vez, é obviamente aumentada
e se já estiver no limite de sua margem, mais potência elétrica é requerida, de novo com
plantas geradora e distribuidora mais pesadas; auxiliares e acessórios do casco,
dependentes do deslocamento, tais como sistema de fundeio (máquina de suspender,
ferro, amarras, etc.) crescem em peso, e assim por diante, peso gerando peso, o que em
geral, acarreta necessidade de rever as dimensões principais e, aí, recomeça o ciclo.
É esta a noção intuitiva de analogia com a entropia, que do ponto de vista
físico também significa desordem, perda, passagem constante de um estado menos
provável para um mais provável, instabilidade. No fim, convergir é o grande desafio do
Pesquisa Naval Nº 16, Outubro de 2003
23
Arquiteto Naval e se ele não tiver o bom senso e a “expertise” para afirmar “já estou
satisfeito, pois o resultado já está dentro da tolerância”, o processo continua, sem que
isso signifique eficácia. O entendimento científico de um fenômeno, aliado à intuição
que já se tinha deste, pode ser o elo que falta na corrente que interliga a Ciência ao
resultado prático, isto é, Ciência ao “design” e “design” à Tecnologia.
5.0 - BIBLIOGRAFIA
1.______. ECOLE NATIONALE SUPERIEUR DE TECHNICQUES AVANCEES (ENSTA)
Guide Pour la Conduite des Etudes de Projet de Batiments de Surface-1983
2. ______.GALE Peter A. Margins in Naval Surface Ship Design. Naval Engineers
Journal, April 1975.
24
Pesquisa Naval Nº 16, Outubro de 2003
II
Capítulo
ESTUDO DA APLICAÇÃO DE CÉLULA BRAGG MULTICANAL
EM MEDIDAS DE APOIO A GUERRA ELETRÔNICA1
A. F. S. Tinoco(1), M.C. – [email protected]
M. A. Faria Pires(2), Cap.-Av. – [email protected]
André César da Silva(2), Maj.-Eng., PhD. – [email protected]
W. J. Perrella(1), D.C. – [email protected]
J. E. B. Oliveira(1), PhD. – [email protected]
(1)
Divisão de Engenharia Eletrônica
Instituto Tecnológico de Aeronáutica – ITA
Pça. Mal. Eduardo Gomes, 50 – V. das Acácias – 12228-900
São José dos Campos, SP – Brasil
Tel./Fax: (12) 3947-5879
(2)
Divisão de Fotônica
Instituto de Estudos Avançados – IEAv
Rodovia dos Tamoios, km 5,5 Torrão de Ouro – 12228-840
São Jose dos Campos, SP – Brasil
Fone: (12) 3947-5360 - Fax (12) 3944-1177
Resumo
Este trabalho apresenta o estudo da aplicação de células Bragg Multicanal
para a detecção de sinais de microondas, com ênfase em duas características relevantes
para aplicações em medidas de Apoio a Guerra Eletrônica (MAGE): composição espectral
e ângulo de chegada. A formulação matemática empregada fundamenta-se na teoria de
modos acoplados, para abordar o fenômeno de difração acusto-óptico, e na teoria de
difração de Fresnel, para determinar a transformada de Fourier espacial do feixe óptico.
Os resultados obtidos proporcionam esclarecimentos relevantes sobre a operação de
26
Pesquisa Naval Nº 16, Outubro de 2003
processadores ópticos que utilizam células Bragg multicanal. Resultados de simulações
referentes à resolução em freqüência e ângulo de chegada são apresentadas, para uma
célula Bragg com 64 canais em GaP com freqüência central igual a 800MHz e 480 MHz
de largura de faixaR:.
1
Palavra - chaves: Processador óptico, detecção de sinais de microondas, célula Bragg
multicanal, analisador de espectro
Abstract
This paper presents an investigation of the potential of multichannel Bragg cell
for detecting microwaves signal characteristics required by Electronic warfare support
measurements namely: signal spectrum and angle of arrival. The theoretical formulation
developed to this aim relies on both, the coupled mode formulation and the Fresnel’s
diffraction theory. Such approach yielded very insightful results regarding to the
multichannel Bragg cell performance. Numerical simulation were carried out using a
GaP Bragg cell with 64 channels and a 800 MHz IF center frequency.
I – Introdução
A caracterização do ambiente eletromagnético no qual diversas aplicações em
guerra eletrônica ocorrem requer a utilização de tecnologias e técnicas de processamento
de sinais que possibilitem rápidas detecções em amplas faixas de freqüências do
espectro de microondas, bem como alta resolução na identificação das coordenadas
angulares das fontes de sinais. Dentre as várias soluções que estão sendo
desenvolvidas em diversos grupos de pesquisa, ressalta-se a que utiliza um processador
acusto-óptico bidimensional, por possibilitar a obtenção simultânea do espectro e da
orientação da fonte, isto é, o seu ângulo de chegada [1].
A arquitetura de um processador óptico que pode atender a estes requisitos é
aquela que se fundamenta na utilização de uma célula Bragg multicanal alimentada por
uma rede de antenas, de tipo linear ou circular. As amostras dos sinais eletromagnéticos
obtidas com a rede de antenas apresentam dependências com relação ao espectro e à
direção de propagação dos sinais e são utilizadas para gerar ondas acústicas, por meio
de uma rede de transdutores piezoelétricos. Estas ondas acústicas dão origem à
modulação da transmitância óptica da célula Bragg. Iluminando-se esta célula com um
feixe óptico, com distribuição espacial apropriadamente conformada, obtém-se, por
meio de uma lente de Fourier, a formatação da intensidade óptica com distribuição, no
plano focal, que permite determinar, simultaneamente, o espectro e a orientação da
fonte de sinais eletromagnéticos [1].
Este artigo é constituído de quatro partes, além desta introdução. Na segunda
parte, apresenta-se uma análise, com teor de revisão, da resposta de um processador
óptico que utiliza células Bragg monocanal, a qual tem como um dos seus objetivos o
estabelecimento de uma nomenclatura que facilite a identificação e a compreensão de
como os parâmetros físicos e geométricos se inserem na modelagem do processador
Pesquisa Naval Nº 16, Outubro de 2003
27
óptico. A generalização desta formulação para o caso de um processador com célula
Bragg multicanal alimentada por uma rede linear de antenas é apresentada na terceira
parte deste trabalho. A abordagem matemática, desenvolvida com esta finalidade,
permite determinar as características do feixe óptico difratado, para operação em regime
de Bragg e com eficiência de difração linear com relação à potência, em função dos
seguintes parâmetros: geometrias das redes de antenas e de transdutores piezoelétricos,
fases dos sinais que alimentam os transdutores, composição espectral do sinal e largura
de faixa da célula Bragg. A generalização do resultado assim obtido decorre da sua
aplicabilidade para redes lineares aperiódicas e sinais de microondas com fases
arbitrárias. Quando aplicada para redes uniformes e distribuição de fase linear, a
formulação propicia interpretações imediatas para as dependências da resposta do
processador com relação aos seguintes parâmetros: número de transdutores, largura e
espaçamento entre transdutores e coeficiente angular da variação de fase. A quarta
parte refere-se aos resultados numéricos obtidos utilizando-se dados de células Bragg
multicanal disponíveis comercialmente [2], [3]. As dependências das resoluções em
freqüência e em ângulo de chegada são analisadas em função das características das
redes de antenas e de transdutores.
II – Processador Óptico Com Célula Bragg Monocanal
Para facilitar a compreensão deste trabalho descreve-se, inicialmente, a estrutura
básica de um AEAP. A Fig. 1 ilustra a representação esquemática de um processador
óptico a célula Bragg monocanal, configurado como analisador de espectro.
Fig. 1: Representação esquemática de um analisador de espectro a célula Bragg
monocanal.
Iniciando a descrição do processador pela unidade de acesso de microondas,
observa-se que o sinal de saída da antena é acoplado a um conversor de freqüência, o qual
alimenta um transdutor piezoelétrico, com seção transversal LxD. Este transdutor gera a
onda acústica que, ao se propagar na direção Y, modula, espacialmente e temporalmente, a
28
Pesquisa Naval Nº 16, Outubro de 2003
transmitância óptica da célula Bragg. Esta célula, por sua vez, ao ser iluminada com um feixe
óptico apropriadamente formatado e orientado com relação às frentes de onda acústica,
proporciona em sua saída, um feixe com características modificadas pela onda acústica, o
qual é transmitido através da lente de Fourier. Finalmente, o feixe óptico, assim processado,
é detectado por uma rede de fotodetectores, posicionada em um dos seus planos focais [4].
Para modelar matematicamente a resposta do processador, considera-se a
situação na qual a representação complexa do sinal na entrada do transdutor apresenta
as seguintes características:
Vin (t ) = A (t ) exp  j ( 2π f I t − ψ o )
(1)
Recorrendo-se à teoria de modos acoplados para uma célula Bragg ideal,
alimentada por um sinal definido em (1), mostra-se que, na região linear da eficiência de
difração, a representação complexa da transmitância da célula Bragg é dada por [5]
x
 y 
T ( x, y, t ) = η L rect   rect   A (t − tR ) exp  j ( 2π f I t −ψ )
D
W
(2)
onde η é o coeficiente de acoplamento acusto-óptico normalizado da célula Bragg,
rect[x]=1 se |x|≤1 e rect[x]=0 |x| ≥1, ψ = ψ o+ 2 π f I t R , tR=(2y+W)/(2vs) e vs é a velocidade
da onda acústica.
A célula Bragg, assim modulada, é iluminada por um feixe óptico gerado por um
diodo laser, cujo campo elétrico tem a seguinte representação complexa
E y ( x, y, z , t ) = Eo ( x, y ) exp  j ( 2π f o t − kz + φo )
(3)
Portanto, utilizando-se (1) e (2) em combinação com a teoria de difração de
Fresnel para calcular o campo elétrico do feixe óptico no plano da rede de fotodetectores,
obtém-se:
E y ( p , q, t ) = h ( t ) ∫ ∫
∞
−∞
{ V (t − t )W ( x, y ) exp  j λ2πF ( py + qx ) }d
in
R


(4)
com
h (t ) =
ηL
 
F 
exp  j  2π f o t + φo − 4π  
λF
λ 
 
x
 y 
W ( x, y ) = Eo ( x, y ) rect   rect  
D
 
W
(5.a)
(5.b)
Pesquisa Naval Nº 16, Outubro de 2003
29
onde λ é o comprimento de onda do laser, F é a distância focal da lente de Fourier, p e
q são as coordenadas cartesianas no plano de Fourier e L é a dimensão do transdutor
na direção de propagação do feixe óptico, conforme mostrado na Fig. 1.
Uma análise de (5) revela que o campo difratado, no plano focal, é proporcional
à transformada de Fourier ponderada com peso W(x,y).
O resultado geral representado pela equação (5), pode ser particularizado para
uma situação na qual a integração dupla poder ser realizada de forma analítica; portanto
considera-se um feixe óptico com distribuição de campo uniforme com relação às
coordenadas x e y. Nesta situação, obtém-se:
E y ( p, q, t ) =
Eoη LDW
A (t − τ ) exp j  2π ( f o + f I ) t − ψ o − 2π f I τ + φo  ex
λF
{
  p fI
πL 
⋅ sinc 
−
q  sinc π 
 λF 
  λ F vs
}
 
W 
 
(6)
onde Eo é a amplitude do campo elétrico, τ=W/vs é a abertura temporal da célula Bragg
e sinc(x)=[sen(x)]/x.
A equação revela, com relação à coordenada “p”, que é paralela à direção de
propagação acústica, a ocorrência de um lóbulo principal, com valor de pico posicionado
em p=λFfI/vs e largura, entre os pontos de 3 dB, inversamente proporcional à dimensão W,
a qual especifica o diâmetro do feixe óptico incidente, conforme mostrado na Fig. 1. Por
outro lado, com relação à coordenada “q”, observa-se que a posição do pico do lóbulo
central está localizada em q=0, independentemente da freqüência de FI na saída do
conversor de microondas. Adicionalmente, a largura, entre os pontos de 3 dB, é inversamente
proporcional a D.
De acordo com o objetivo proposto na introdução deste artigo, observa-se que
o resultado apresentado em (6) permite uma rápida identificação e compreensão de
como os parâmetros geométricos e físicos aparecem no modelo matemático do
processador à célula Bragg monocanal.
III – Processador Óptico Com Célula Bragg Multicanal
Recorrendo à nomenclatura adotada na Fig. 1. e enfatizando apenas as
características mais relevantes do processador bidimensional, obtém-se a representação
esquemática apresentada na Fig. 2.
30
Pesquisa Naval Nº 16, Outubro de 2003
Fig. 2: Representação esquemática do processador óptico com célula Bragg
multicanal.
Nesta configuração o feixe óptico incidente deve ser formatado de tal forma
que as colunas acústicas geradas pelos “N” transdutores da rede sejam
apropriadamente iluminadas. As características de células Bragg disponíveis são
apresentadas na Tabela I.
Tabela I: Características de células Bragg multicanal de GaP, [3].
Modo acústico
Comprimento de onda
Número de canais
Freqüência central (MHz)
Largura de faixa (MHz)
Tempo de subida (ns)
Abertura temporal (µs)
Produto tempo-largura de faixa/canal
Crosstalk (dB)
Altura do eletrodo (µm)
Comprimento do eletrodo (µm)
Espaçamento dos eletrodos (µm)
Eficiência de difração (% a 200 mWRF e 633 nm)
Uniformidade eficiência de difração canal-canal
(dB)
Defletor
[1 –1 0]S [1 –1 0]S [1
632,8
830
64
64
400
800
200
480
1,0
200
<-30
125
1800
250
22
2,56
1280
-35
50
383
250
9
± 0,75
± 0,75
2
<
±
Pesquisa Naval Nº 16, Outubro de 2003
31
Na modelagem da resposta do processador ilustrado na Fig. 2, considera-se que a
representação complexa do sinal de FI aplicado na entrada do transdutor de ordem “n”,
com 1 ≤ n ≤ N, seja descrito por:
Vin(
n)
(t , x ) = An (t ) exp  j ( 2π f I t −ψ n ( x ) )
(7)
Aplicando-se a formulação desenvolvida na secção anterior para cada canal,
obtém-se a seguinte expressão para o campo óptico processado pelo canal “n”, na
saída da célula Bragg, plano focal esquerdo da lente de Fourier,
E y(
n)
( x, y, t ) = η Lg n ( x ) Eo ( x, y ) rect 
x
 y
 rect 
D
W

 An (t − tR ) ⋅

 
W

exp  j  2π ( f o + f I ) t − ka y − ka − ψ n ( x ) + φo  
2

 
(8)
onde ka=2πfI /vs é o número de onda acústico.
Para prosseguir com a análise, são exploradas as similaridades com a formulação
apresentada em (4) e determinado o campo elétrico total do feixe óptico, no plano da
rede de fotodetectores
N
E Total
( p, q, t ) = ∑ E y(
y
n =1
n)
( p , q, t )
(9)
onde
E y(
n)
∞


2π
( px + qy )  dxdy
 λF

( p, q, t ) = ∫ ∫  E y(n) ( x, y, t ) exp  j
−∞ 
(10)
Por razões de clareza, considera-se conveniente, neste estágio do trabalho, introduzir
algumas simplificações e concentrar a análise em cada parcela de (9) e posteriormente
realizar o somatório indicado. As simplificações são: iluminação uniforme e envoltória A(t)
com variação suave com relação ao tempo. Procedendo com estas hipóteses, obtém-se:
E y(
n)
( p, q, t ) = KW exp  j (ω o + ω I ) t  An (t − τ ) ⋅
  p
f    ∞
  2π
  
q − ψ n ( x )  dx 
− I  W   ∫ g n ( x) exp  j 
sinc π 
v
F
λ
λ
F
  
 
s 
 
  −∞
(11)
onde K=(ηLEo/λF)exp[j(φo-4πF/λ)] e W e L referem-se às dimensões da coluna gerada
pelo transdutor de ordem “n”.
O resultado apresentado em (11), conforme esperado, revela a presença de um
lóbulo principal cuja posição, no eixo “p”, depende da freqüência de FI. Por outro
32
Pesquisa Naval Nº 16, Outubro de 2003
lado, a determinação da dependência com relação à coordenada “q” está condicionada
ao conhecimento das distribuições dos transdutores, gn(x), e do comportamento da
fase, ψn(x). Portanto, é conveniente utilizar esta formulação para uma situação que
possibilite a obtenção de expressão analítica para a integral. Desta forma, as soluções
simplificadas podem ser muito úteis para a orientação da investigação de processadores
com redes de transdutores mais complexas. As características de uma rede constituída
de N=2M+1 transdutores que facilita a compreensão dos resultados desta análise é
apresentada na Fig. 3.
Fig. 3: Características de uma rede linear, periódica e simétrica de transdutores
piezoelétricos alimentada por sinais com fases proporcionais às ordens dos
transdutores. Os transdutores têm dimensão D, na direção x, e secção transversal
LxD, no plano xz; a separação entre transdutores consecutivos também é igual a D.
φ denota um valor de referência para a diferença de fase.
A análise da Fig. 3 permite obter as representações para as quantidades gn(x) e
ψn(x), as quais, substituídas em (11), proporcionam:
E y(
n)
πD 
q ⋅
 λF 
( p, q, t ) = KA exp  j (ωo + ω I ) t  DW sinc 
  p
f  
  4π D

⋅ sinc π 
− I  W  exp  jn 
q − φ 

  λF
  λ F vS  
(12)
Realizando a superposição das contribuições geradas por cada um dos 2M+1
canais da célula Bragg, determina-se com os auxílios de (10) e (12) a seguinte expressão
para o campo no plano focal
  p
f 
E Total
( p, q, t ) = KWD exp  j (ω o + ω I ) t  A (t − τ ) sinc π  − I
y
λ
v
F
S 
 
π D 
⋅ sinc 
q  R ( q, φ , M )
 λF 
(13)
Pesquisa Naval Nº 16, Outubro de 2003
33
onde
 2 M + 1  4π D

sen 
q −φ  

λ
2
F





R ( q, φ , M ) =
 4π D

sen 
q −φ 
 λF

(14)
O resultado acima revela que, para a situação ilustrada na Fig. 3, o comportamento
do campo com relação às coordenadas “p” e “q” são independentes. Adicionalmente,
observa-se que a posição do pico do lóbulo principal no eixo “p” é proporcional à
freqüência de FI, fI, enquanto que no eixo “q” é determinada pela diferença de fase
entre transdutores consecutivos, “φ”. Ressalta-se que a representação matemática do
parâmetro R(q,φ,M) está de acordo com a teoria de difração de múltiplas aberturas,
conforme ilustrado na Fig. 4 [5]. Esta concordância revela que para o feixe óptico cada
canal da célula Bragg se comporta como uma abertura retangular, com transmitância
modulada pelo sinal de microondas.
A análise de (14) revela que R(q,φ,M) exibe um comportamento periódico com
relação à quantidade (4πD/λ)q-φ. Os valores dos máximos absolutos de R(q,φ,M)
ocorrem quando
λF
(φ + 2kπ ) ; k = 0, ± 1, ± 2,K
(15)
4π D
Portanto, para um máximo absoluto de ordem, “k”, observa-se uma dependência
linear entre a sua posição no eixo “q” e a diferença de fase “φ”. Este resultado
demonstra que o fator de escala que relaciona posição e defasagem, λF/4πD, independe
da freqüência do sinal de microondas.
qk =
Fig. 4: Comportamento da amplitude do primeiro lóbulo do fator de rede, R(q,φ,M),
para célula Bragg com diversos números de canais.
34
Pesquisa Naval Nº 16, Outubro de 2003
A análise de (14) revela que R(q,φ,M) exibe um comportamento periódico com
relação à quantidade (4πD/λ)q-φ. Os valores dos máximos absolutos de R(q,φ,M)
ocorrem quando
qk =
λF
(φ + 2kπ ) ; k = 0, ± 1, ± 2,K
4π D
(15)
Portanto, para um máximo absoluto de ordem, “k”, observa-se uma dependência
linear entre a sua posição no eixo “q” e a diferença de fase “φ”. Este resultado
demonstra que o fator de escala que relaciona posição e defasagem, λF/4πD, independe
da freqüência do sinal de microondas.
Devido ao comportamento periódico de R(q,φ,M) faz-se necessário selecionar
os parâmetros do processador de tal forma que a distância entre as posições de dois
máximos absolutos consecutivos seja a mais elevada possível. De acordo com (14)
esta diferença é dada por
∆q = qk +1 − qk = λ F 2 D
(16)
Conseqüentemente, para evitar a presença de mais de um lóbulo principal ao longo
do eixo “q”, para uma dada geometria da rede de fotodetectores; é necessário utilizar
processadores com F elevado ou D reduzido. Os limites destes parâmetros são estabelecidos
por razões práticas e pela eficiência de difração da célula Bragg [5].
A formulação desenvolvida até este estágio do artigo pode ser estendida para
uma rede de transdutores na qual a largura dos transdutores no eixo x, D, e o
espaçamento entre eles, De, são diferentes. Neste caso, mostra-se que (15) e (16) são
alteradas, respectivamente, para:
qk =
λF
(φ + 2kπ )
2π ( D + De )
(17)
e
∆q = λ F ( D + De )
(18)
Portanto, a assimetria assim introduzida da rede de transdutores flexibiliza as
especificações de sua geometria, sem contudo comprometer a linearidade da relação
entre fase e posição.
Outro aspecto da análise do processador que merece considerações adicionais é o
que diz respeito às fases dos sinais aplicados aos transdutores. Como um dos objetivos
deste trabalho é o estudo da aplicação do processador para medida de ângulo de chegada,
considera-se a situação, de interesse prático, na qual a direção de propagação da onda
eletromagnética forma um ângulo θ com a linha de base da rede linear e não uniforme de
antenas, constituída de cinco antenas, conforme ilustrado na Fig. 5 [3].
Pesquisa Naval Nº 16, Outubro de 2003
35
Fig. 5: Representação esquemática das redes não periódicas de antenas e
transdutores utilizadas para detectar o ângulo de chegada. Ressalta-se que Di≠di.
Na situação ilustrada na Fig. 5 a amplitude relativa do sinal recebida pela antena
de ordem “n” é dada por:

dn

 d

senθ  cos  2π f R  t − n senθ 
(19)
c
c





onde En(fR, θ) é o campo distante normalizado da antena de ordem “n”, dn é a distância
entre esta antena e a antena de referência, fR é a freqüência do sinal, antes do conversor
de freqüência, e c=1/(µoεo)1/2.
Vin(
n)
(t , f R ) = En ( f R ,θ ) A  t −
Os sinais, representados por (19), após serem processados pelo conversor,
proporcionam as seguintes entradas de FI para os transdutores:
Vin(
n)
(t ) = An (t ) cos [2π f I t −ψ n ] En ( f R ,θ )
(20)
onde ψn=(2πfR/c)dnsen(θ).
A partir deste resultado foi possível desenvolver a análise do processador
com redes de antenas e de transdutores não uniformes com base na formulação
simplificada apresentada em (7) a (11) deste trabalho.
As expressões matemáticas, assim obtidas, revelam que a dependência da
posição do lóbulo principal no eixo “p” continua proporcional à freqüência de FI,
porém somente quando a razão entre a separação dos transdutores for igual à razão
entre a separação das antenas, às quais eles estão conectados, a posição do primeiro
lóbulo principal no eixo “q” relaciona-se com o ângulo de chegada de forma simples,
q = α Fsen (θ )
(21)
36
Pesquisa Naval Nº 16, Outubro de 2003
onde α é o fator de escala que depende das geometrias das redes de antenas e de
transdutores e F é a distância focal da lente de Fourier.
Portanto, por meio de (21), conclui-se que, uma vez medida a posição do lóbulo
principal no eixo “q”, é possível calcular o ângulo de chegada θ.
Ressalta-se que não é objetivo desta publicação a análise do processamento
do sinal pós-fotodetectores, porém uma abordagem dos fundamentos deste tópico,
com base na formulação aqui apresentada, pode ser acessada em [5].
IV – Resultados Numéricos
Para ilustrar parte da formulação sobre processador multicanal apresentada
na secção anterior, avaliou-se numericamente a resposta em relação à freqüência e
ao ângulo de chegada de um processador que emprega célula Bragg especificada
na segunda coluna da tabela I. Dentre as várias simulações realizadas, apresentase, na Fig. 6, os resultados obtidos com uma rede uniforme de 64 transdutores, na
qual, as dimensões dos transdutores são: L=383µm, D=50µm e De=250µm. As
fases dos sinais são selecionadas de acordo com a representação esquemática da
Fig. 3. Como o número de transdutores é par, pequenos ajustes foram realizados na
teoria apresentada (13).
Os resultados apresentados na Fig. 6 têm motivação apenas ilustrativa.
Estudos mais elaborados estão sendo conduzidos com o objetivo de desenvolver
software apropriado para otimizar a resposta do processador para configurações
com maior potencial de aplicação prática, inclusive com a utilização de rede circular
de antenas. A análise da Fig. 6 revela que os dois lóbulos principais estão separados
em freqüência por 2 MHz e em ângulo por 0,5°.
Em aplicações práticas é importante obter-se resoluções semelhantes com
um número inferior de transdutores e antenas. Porém, este estudo será motivo de
outra publicação.
Fig. 6: Resposta do processador óptico em ângulo e freqüência. As características dos picos
dos lóbulos principais são: (1) f = 802 MHz e φ = 44.5° e (2) f = 800 MHz e φ = 45°.
Pesquisa Naval Nº 16, Outubro de 2003
37
V – Conclusões
Neste trabalho, apresentou-se os resultados de estudos que estão sendo
desenvolvidos visando à aplicação de célula Bragg multicanal em detecção de sinais
de microondas com ênfase nas seguintes características: espectro e ângulo de chegada.
A formulação obtida leva em consideração os principais parâmetros de projeto, de
forma clara, e possibilita a compreensão de vários fundamentos de processadores a
célula Bragg que não são claramente apresentados na literatura disponível. A
continuação deste trabalho com o objetivo de criar ferramenta computacional para
otimizar os projetos das redes de antenas e transdutores constitui um dos objetivos
dos autores deste trabalho
Referências Bibliográficas
[1] Lee, J.P., “Two-dimensional Acousto-optic Processor Using a Circular Antena
Array with a Butter Matrix”, Optical Engineering, Vol. 31, No 9, pp. 1999-2011, Sep.,
1992.
[2] NEOS Technology, (2001), Melbourne, Florida, USA, [Online]. Available: http://
www.neostech.com
[3] PAPE, D.R.,”Multichannel Bragg cells: design, performance and applications”,
Optical Engineering, pp. 2148 - 2158, Vol. 31, 1992.
[4] Tinoco, A.F.S., “Analisador de Espectro Acusto-óptico para Sinais de
Microondas”, Instituto Tecnológico de Aeronáutica, São José dos Campos, SP,
Tese, 1999.
[5] A. Vanderlug, Optical Signal Processing, W. Joseph, Ed. New York, John
Wiley & Sons, Inc., 1992, pp. 566-569.
38
Pesquisa Naval Nº 16, Outubro de 2003
SICONTA
O SICONTA é um sistema de controle tático que possui um elevado grau de
modularidade, sendo configurável para instalação em praticamente qualquer tipo de navio
ou submarino. O porte compacto e a simplicidade de operação são algumas das características
do sistema, que, aliadas à tecnologia de ponta utilizada em seu projeto, fazem do SICONTA
um dos melhores sistemas de sua categoria a nível mundial.
CARACTERÍSTICAS PRINCIPAIS
Acompanhamento manual e automático de alvos.
Compilação multi-sensores do panorama tático.
Auxílio a manobras táticas e à navegação.
Controle de aeronaves.
Interface com sistema de armas.
Controle de guerra eletrônica.
INTERFACEAMENTO COM SENSORES
Radares de vigilância e navegação.
IFF.
Transpondedores de helicópteros.
MAGE.
Enlaces digitais de dados.
Sonares.
"HARDWARE" E "SOFTWARE"
Dois tipos de consoles: horizontal e vertical.
Processadores 68030 e 68020.
Barramento padrão VME.
Interfaces de comunicação 802.3, 802.5, RS-422 e RS-232.
Visualização de radares em terminais gráficos.
TCP/IP e HDLC.
Sistema operacional VRTX32.
Sistema implementado de forma distribuída e tolerante a falhas.
III
Capítulo
CÁLCULO DOS GANHOS DOS FILTROS DO
SISTEMA DE RASTREAMENTO DE FOGUETES DO
CENTRO DE LANÇAMENTO DE ALCÂNTARA PARA O
SEGUNDO PROTÓTIPO DO VEÍCULO LANÇADOR DE SATÉLITES
Mauricio A. P. Rosa, Alexandre D. Caldeira,
Francisco A. Braz Filho, Lamartine N. F. Guimarães,
Eduardo M. Borges e Jonas Rubini Júnior
Instituto de Estudos Avançados do Centro Técnico Aeroespacial (CTA)
Rod. dos Tamois, km 5,5, São José dos Campos, SP CEP 12228-900
e-mail: [email protected]
Resumo
Os filtros atualmente implementados no sistema de rastreamento de foguetes
do Centro de Lançamento de Alcântara (CLA), são do tipo α−β−γ com ganhos fixos
por fase para um total de apenas duas fases para todo o evento. Os principais
objetivos deste trabalho são: apresentar uma metodologia desenvolvida para
produzir conjuntos de ganhos de filtros adequados para o rastreamento de foguetes
no CLA cujos dados reais ainda não se encontram disponíveis, inferir os ganhos
para o lançamento do segundo protótipo do Veículo Lançador de Satélites - VLS1V02 e avaliar o desempenho dos filtros utilizados no rastreamento do VLS1-V02
durante os primeiros 55,8 segundos de vôo.
Palavras-chave: rastreamento de foguetes; filtragem de dados de radares;segurança de vôo;
veículo lançador de satélites
Abstract
The filters presently implemented in the rocket tracking system of the Centro de
Lançamento de Alcântara (CLA) are of the α−β−γ type with fixed gains for each
40
Pesquisa Naval Nº 16, Outubro de 2003
flight phase for a total of only two phases for the entire event. The main objectives of
this work are: to present a developed methodology to calculate sets of filter gains
suitable for rocket tracking at CLA whose real flight data are not available yet, to
determine the filter gains for the tracking of the second prototype of the Satellite
Launcher Vehicle - VLS1-V02 and to analyze the performance of the filters during the
first 55.8 seconds of the VLS1-V02 flight.
1. Introdução
A motivação principal para a realização deste trabalho foi estabelecer, em
cooperação com pesquisadores do Instituto de Aeronáutica e Espaço (IAE) do Centro
Técnico Aeroespacial (CTA), uma metodologia de cálculo dos ganhos dos filtros para
os radares ADOUR e ATLAS, para rastreamento de foguetes atualmente lançados do
Centro de Lançamento de Alcântara (CLA) que não tenham dados de lançamentos
anteriores destes radares disponíveis.
O filtro que vem sendo utilizado no CLA é do tipo α−β−γ com ganhos
constantes e iguais para todas as direções, ajustados para uma trajetória de foguete
dividida em duas fases: propulsada e balística. O melhor conjunto α−β−γ foi obtido
através da metodologia do índice de manobrabilidade do alvo /1/, modificada para
considerar o fato de não se ter disponíveis dados de lançamentos anteriores.
Na próxima seção é comentado o sistema de rastreamento de foguetes do
CLA. A seguir, descreve-se o filtro do tipo α−β−γ, destacando-se os modelos cinemático
e de medidas utilizados, o procedimento de cálculo do índice de manobrabilidade do
alvo e o procedimento usado para a extração de ruído dos sinais. Posteriormente, são
apresentados os procedimentos e critérios adotados no desenvolvimento da
metodologia de cálculo de ganhos de filtros e são calculados os ganhos dos filtros
para o lançamento do foguete VLS1-V02. Na seqüência, são analisados os ganhos dos
filtros utilizados no rastreamento do VLS1-V02 durante o vôo normal (até 55,8 segundos),
destacando-se o desempenho dos filtros e, finalmente, são apresentados os comentários
mais relevantes observados nestas análises e algumas recomendações para
desenvolvimentos futuros.
2. Sistema de Rastreamento de Foguetes do CLA
O sistema de rastreamento de foguetes do CLA é composto, basicamente, por
duas estações de radares e seus respectivos sistemas de tratamento de dados. A
primeira estação, situada no Maranhão, responsável pelo rastreamento do foguete,
consiste de dois radares, o ADOUR, considerado de proximidade, situado a 6 km da
rampa de lançamento, e o ATLAS, de precisão, distante 30 km. A segunda estação,
localizada no Centro de Lançamento da Barreira do Inferno (CLBI), no Rio Grande do
Norte, é utilizada para a definição do ponto de injeção em órbita do satélite e não será
analisada neste trabalho.
Pesquisa Naval Nº 16, Outubro de 2003
41
Os dados brutos são adquiridos pelos radares ADOUR e ATLAS fornecendo
as informações de elevação, azimute e distância do foguete. A seguir, estes dados são
enviados a dois sistemas de tratamento de dados de localização que apresentam como
característica importante a operação em tempo real, condição necessária para o
rastreamento de foguetes. Uma das finalidades destes sistemas é efetuar a filtragem
dos dados brutos (medidas de posição do foguete pelos radares) através de algoritmos
computacionais e gerar o que denomina-se dados filtrados (valores de posição e
velocidade estimados do foguete) através dos quais é possível inferir, a todo instante,
a posição na superfície terrestre de uma possível queda do foguete. Denomina-se
trajetória do ponto de impacto à evolução temporal desta grandeza.
Os dados filtrados de cada radar são enviados para os sistemas centrais de
tratamento de dados de localização. Somente os dados do radar designado são enviados
para as estações de visualização de trajetória. Estas estações possuem terminais que
estão localizados na sala da Segurança de Vôo.
O principal objetivo da Segurança de Vôo é o acompanhamento visual da
evolução das trajetórias de posição e do ponto de impacto do foguete. No caso em que
a trajetória do ponto de impacto tende a deixar uma região de segurança pré-estabelecida,
é de responsabilidade da Segurança de Vôo abortar a missão.
3. Filtro do Tipo α−β−γ
A fórmula de recursão (filtro de Kalman) da estimativa do vetor de estado
para o instante
t k +1 de um sistema dinâmico é dada por
[
]
x$ ( k + 1) = x$ p ( k + 1) + W ( k + 1) z ( k + 1) − z$ p ( k + 1) ,
onde
xˆ (k + 1) é a atualização da estimativa do vetor de estado, xˆ p (k + 1) o valor
predito da estimativa do vetor de estado,
filtro,
(1)
W (k + 1) a estimativa do vetor ganho do
z (k + 1) o valor medido e zˆ p (k + 1) o valor predito da estimativa da medida.
No caso de rastreamento de alvos, a utilização desta fórmula e a obtenção do
vetor ganho dependem dos modelos cinemático e de medidas adotados.
O modelo cinemático estocástico adotado para os filtros atuais do sistema de
rastreamento de foguetes do CLA é o de aceleração constante por partes (processo de
Wiener) /1/. Neste modelo, o ruído branco de processo,
v ( k ) , é o incremento da
aceleração durante o k -ésimo período de amostragem. Portanto, definindo-se
T = t k +1 − t k como um período de amostragem uniforme, compreendido entre os
42
Pesquisa Naval Nº 16, Outubro de 2003
instantes t k e
escrita como
t k +1 , a equação matricial que descreve a dinâmica do foguete pode ser
x (k + 1) = F x (k ) + Ã v(k ) ,
(2)
para
 s(t k ) 


x( k ) = v el (t k )  ,
 a (t k ) 
onde
1 T T 2 2


T ,
F = 0 1
0 0
1 
T 2 2


Γ = T 
 1 
(3)
s , vel e a representam a posição, velocidade e aceleração do foguete,
respectivamente, e v(k ) é um escalar.
O modelo de medidas da posição em uma direção específica é dado por
z ( k ) = H ( k ) x ( k ) + w( k ) ,
(4)
com
[
]
H (k ) = 1 0 0 ,
onde
(5)
w( k ) representa o ruído das medidas.
O vetor de estado predito,
x$ p ( k + 1) , é calculado em função da última
atualização da estimativa do vetor de estado,
x$ ( k ) , através da equação
xˆ p (k + 1) = F xˆ (k ) ,
enquanto que o valor predito da medida,
de estado predito,
(6)
z$ p ( k + 1) , é calculado em função do vetor
x$ p ( k + 1) , pela equação
zˆ p (k + 1) = H xˆ p (k + 1) = HF xˆ (k ) .
(7)
Pesquisa Naval Nº 16, Outubro de 2003
43
O vetor ganho de filtros do tipo α−β−γ apresenta a seguinte notação

W ≡ α ;

β
γ 
;
,
T
2T 2 
(8)
onde α, β/T e γ/2T2 são os ganhos para as variáveis de posição, velocidade e aceleração,
respectivamente, e α, β e γ são constantes a serem determinadas. Doravante, embora
de uma maneira imprecisa, os parâmetros α, β e γ serão ocasionalmente denominados
ganhos dos filtros, por questão de simplicidade.
O algoritmo completo considera a mesma fórmula de recursão para todas as
direções. Os filtros implementados atualmente no CLA consideram ganhos idênticos
em todas as direções (x, y e z) e apenas dois conjuntos de ganhos distintos (duas fases
de vôo) para todo o vôo, independentemente se o foguete apresenta mais do que um
estágio de propulsão, como são os casos do VS40 e VLS.
A seguir é apresentada a metodologia de cálculo dos ganhos através do
índice de manobrabilidade do alvo. Pode-se mostrar /1/ que, para o modelo cinemático
adotado, a matriz de covariância da estimativa do vetor de estado converge para um
valor de estado estacionário. Além do mais, pode-se obter expressões explícitas para o
vetor ganho em função do parâmetro λ , denominado índice de manobrabilidade do
alvo:
γ2
= λ2 ,
4(1 − α )
(9)
β = 2( 2 − α ) − 4 1 − α ,
(10)
β2
γ =
α
O índice de manobrabilidade do alvo,
σvT 2
λ=
,
σw
(11)
λ , é dado por:
(12)
onde os parâmetros σ v e σ w representam as incertezas no movimento do alvo e nas
medidas dos radares, respectivamente, e T é o tempo de amostragem dos radares.
44
Pesquisa Naval Nº 16, Outubro de 2003
O parâmetro
σ v depende, basicamente, do modelo cinemático adotado para
o rastreamento do alvo. No presente caso σ v é calculado a partir da curva nominal de
aceleração longitudinal do veículo. Na Referência 1 é recomendado utilizar-se valores
na faixa
∆ a max / 2 ≤ σ v ≤ ∆ a max , onde ∆ a max é a maior variação absoluta de
aceleração num intervalo de amostragem (T), compatível com aquele dos radares, para
uma dada fase do vôo. Na presente análise, adotou-se o valor mínimo desta faixa, isto
é, σ v
= ∆a max / 2 .
Uma vez que o parâmetro
σ w é função das características particulares de
cada radar, associa-se o valor deste parâmetro ao desvio padrão, obtido a partir do
ruído de média zero, retirado das medidas de posição dos radares do alvo rastreado. O
valor de σ w global é obtido através das variâncias dos ruídos nas direções x, y e z,
usando-se a fórmula
σ w = σ w2 , x + σ w2 , y + σ w2 ,z .
(13)
4. Extração de Ruídos de Dados dos Radares
Nesta seção é explicada de forma sucinta a técnica utilizada para a obtenção
do ruído de medida de média zero. Um exemplo deste ruído é apresentado na Figura 1
para um vôo emulado do VLS. Entende-se como vôo emulado forçar o radar a
acompanhar uma trajetória de um vôo fictício do foguete. Este vôo emulado recebe o
nome de SAGADA, que é a abreviatura em Francês para “Site Automatique”, “Giseman
Automatique” e “Distance Automatique”, os quais são os ângulos de elevação e de
azimute e a distância do foguete ao radar, respectivamente, e que representam os
dados de posição medidos, em coordenadas esféricas. Este tipo de dado será
amplamente utilizado no cálculo dos ganhos do filtro, uma vez que dados reais de vôo
ainda não estão disponíveis.
Entende-se aqui como ruído de média zero aquele que apresenta uma
distribuição aproximadamente simétrica de pontos em torno do valor zero. O cálculo da
média pode ser utilizado para se inferir a proximidade desta de zero. O ruído de média
zero é obtido da diferença entre os respectivos valores de posição medidos e os
produzidos por uma curva polinomial de ajuste, uma vez que o valor real não é conhecido.
Estas curvas polinomiais são ajustadas aos valores medidos para cada fase distinta de
vôo e cada direção. O procedimento de extração de ruídos e o cálculo das variâncias
para cada direção foram desenvolvidos no ambiente MATLAB /2/.
Pesquisa Naval Nº 16, Outubro de 2003
Figura 1: Ruído na coordenada
45
z , radar ATLAS, do SAGADA do VLS.
5. Metodologia de Cálculo de Ganhos dos Filtros
O objetivo da análise apresentada nesta seção é estabelecer um critério para
inferir ganhos de filtros, para os radares ADOUR e ATLAS, adequados para o
rastreamento de foguetes, cujos dados reais brutos ainda não estejam disponíveis,
tais como o VLS e outros foguetes.
O vôo do VS30 (em março de 1999) foi o único evento para o qual foram
fornecidos dados brutos reais e de SAGADA para ambos os radares, portanto, este
caso foi utilizado como base para se estabelecer um critério de cálculo de ganhos dos
filtros que utilize somente dados de SAGADA, uma vez que se considera que este é o
único tipo de dado disponível para análise.
Para a solução das Equações (9) a (12), obtidas da metodologia do índice de
manobrabilidade do alvo, é necessário conhecer-se as incertezas σ v e σ w . A incerteza
σ v é obtida da curva de aceleração nominal do foguete. A incerteza σ w é calculada
corrigindo-se o valor desta grandeza, obtida com ruído de SAGADA do foguete
analisado, por um fator que é a razão das incertezas calculadas para os ruídos real e de
SAGADA do VS30.
A Figura 2 ilustra o comportamento da curva de desvio padrão da diferença
entre os pontos de impacto nominal e filtrado,
σ PI , em função do ganho α. O valor
deste parâmetro que minimiza esta curva para ruído real é considerado, para este
46
Pesquisa Naval Nº 16, Outubro de 2003
estudo, o de referência. Desta forma, os ganhos α assim produzidos para as fases de
propulsão e balística com dados reais do VS30 foram utilizados para se obter fatores de
correção que devem ser aplicados aos calculados através da metodologia do índice de
manobrabilidade do alvo. Considera-se que estes fatores, utilizados somente para o
cálculo do ganho α, prevaleçam para vôos semelhantes, até mesmo de outros tipos de
foguetes como, por exemplo, o VLS. Com o ganho α assim obtido, calculam-se os
respectivos ganhos β e γ através da solução das Equações (10) e (11). A seguir são
apresentados os procedimentos de cálculo destes fatores e os ganhos para o VS30.
12000
R a d a r A D O U R - F a s e P r o p u ls a d a
Desvio Padrão do Ponto de Impacto (m)
SAGADA
REAL
10000
8000
6000
4000
2000
0 .0 2
0 .0 4
0 .0 6
0 .0 8
0 .1 0
0 .1 2
0 .1 4
0 .1 6
G a n h o A lp h a
Figura 2: Desvio padrão do ponto de impacto para ruído real e de SAGADA para a
fase propulsada, calculado com dados do radar ADOUR.
O VS30 é um foguete com uma fase inicial propulsada de 31 segundos e o
restante do vôo é balístico até aproximadamente 350 segundos. A Figura 3 mostra as
curvas de aceleração longitudinal nominal e real para este vôo. Nota-se que a curva
real é muito próxima à nominal, o que indica o sucesso do vôo.
Pesquisa Naval Nº 16, Outubro de 2003
47
13
12
Aceleração Longitudinal do VS30 (g)
11
10
9
8
N O M IN A L
7
REAL
6
5
4
3
2
1
0
-1
0
10
20
30
40
50
60
70
T em p o (s)
Figura 3: Curvas de aceleração longitudinal nominal e real para o lançamento
do VS30 realizado em 15/03/99.
Os valores calculados de σ v , para as fases propulsada e balística do VS30,
para o tempo de amostragem de 0,05 segundos, são 1,98 e 0,34 m/s2, respectivamente.
A incerteza nas medidas, σ w , bem como a razão destas incertezas para ruído
real e de SAGADA, para ambos os radares e por fase do vôo, são mostradas na Tabela
1. As razões das incertezas entre ruído real e de SAGADA, apresentadas na última
linha desta tabela, são os fatores utilizados para inferir incertezas de medidas reais
para casos de lançamentos em que só estejam disponíveis dados de SAGADA.
Tabela 1: Valores de
σ w (m) para cada fase e radar para o vôo do VS30.
48
Pesquisa Naval Nº 16, Outubro de 2003
Os valores de σ w para ruído real e os de σ v mencionados anteriormente são
utilizados para calcular os ganhos dos filtros através da metodologia do índice de
manobrabilidade do alvo.
A Tabela 2 apresenta os ganhos α calculados através da metodologia do
índice de manobrabilidade do alvo e da minimização do desvio padrão ( σ PI ) utilizando
dados reais, bem como os percentuais relativos de correção entre estes ganhos, para
cada fase do vôo do VS30 e cada radar.
Tabela 2
Ganho α
Metodologia do índice Minimização de σ
PI
de manobrabilidade do
com dados reais
alvo
Propulsada Balística Propulsada Balística
ADOUR
0,098
0,049
0,105
0,052
ATLAS
0,194
0,090
0,135
0,085
Perce
corre
Propu
+
−
Portanto, em casos em que não sejam disponibilizados dados reais mas se
conheçam dados de SAGADA, tais como para o VLS, os ganhos dos filtros devem ser
inferidos com a metodologia apresentada. Este procedimento deve ser reavaliado, à
medida que mais dados reais estejam disponíveis.
6. Avaliação dos Ganhos dos Filtros para o Lançamento do VLS1-V02
A seguir, serão avaliados os ganhos dos filtros do sistema de rastreamento
de foguetes do CLA, para o lançamento do foguete VLS1-V02.
O VLS1-V02 é o segundo protótipo do Veículo Lançador de Satélites em
desenvolvimento no IAE. O vôo está programado para apresentar 6 fases. A Figura 4
mostra as acelerações dos três primeiros estágios seguidas de uma fase balística e,
finalmente, o quarto e último estágio. Nesta figura não é mostrada uma fase balística,
posterior a este último estágio, por não ser importante para a Segurança de Vôo.
Embora existam 6 fases distintas, o sistema atual de filtragem só permite a
divisão do lançamento em duas, o que implica na necessidade de agrupamento de
algumas destas fases. Pela análise feita anteriormente, os ganhos da fase propulsada
são bem diferentes dos da balística, assim sendo, adotou-se, para efeito de cálculo,
uma fase de 0 a 193 s (Fase−1) e outra de 193 a 569,4 s (Fase−2).
Pesquisa Naval Nº 16, Outubro de 2003
49
Aceleração Longitudinal Nominal do VLS (m/s 2 )
90
80
70
60
50
40
30
20
10
0
0
100
200
300
400
500
600
T e m p o (s )
Figura 4: Aceleração longitudinal nominal do VLS.
Na Tabela 3 são apresentados os valores de σ v , calculados a partir da curva
de aceleração nominal do VLS1-V02, para a divisão de fases estabelecida.
Tabela 3: Valores de
σ v (m/s2) para o VLS1-V02.
Fases
Tinicial (s)
T final (s
Fase-1
Fase-2
0
193
193
569,4
Utilizando-se os dados referentes ao SAGADA do VLS para os radares
ADOUR e ATLAS, calculou-se as incertezas nas medidas destes radares, σ w . A estes
valores aplicaram-se as razões apresentadas na Tabela 1, para ambas as fases do VLS1V02, com o intuito de inferir resultados reais deste parâmetro, os quais são mostrados
na Tabela 4. Considerou-se a razão da fase balística do VS30 para a Fase–2 do VLS1V02, uma vez que a duração do quarto estágio é bem menor que a da balística.
Tabela 4: Valores inferidos das incertezas nas medidas,
Fase–1
Fase–2
ADOUR
114,6
773,7
σ w (m).
50
Pesquisa Naval Nº 16, Outubro de 2003
Com os dados das Tabelas 3 e 4 obteve-se os valores de λ e respectivos
valores de α, β e γ para ambas as fases, para os radares ADOUR e ATLAS.
Considerando-se as correções propostas na Tabela 2, os valores calculados para estes
parâmetros são apresentados nas Tabelas 5 e 6, para os radares ADOUR e ATLAS,
respectivamente.
Tabela 5: Parâmetros do filtro para o radar ADOUR.
Fase–1
Fase–2
†
λ
4,63(–5) †
2,70(–6)
α
0,069
0,027
Leia como 4,63×10–5
Tabela 6: Parâmetros do filtro para o radar ATLAS.
Fase–1
Fase–2
†
λ
1,71(–4) †
6,43(–5)
α
0,105
0,077
Leia como 1,71×10–4
7. Análise do Rastreamento do VLS1-V02
O lançamento do segundo protótipo do Veículo Lançador de Satélites (VLS1V02) ocorreu em 11 de dezembro de 1999 no CLA. O vôo do foguete transcorreu
normalmente até 55,8 segundos do lançamento, quando ocorreu uma explosão no
motor do segundo estágio e o foguete deixou de ser propulsado /3/. A partir deste
instante, embora a missão de colocação do satélite em órbita tenha sido perdida,
permitiu-se que o foguete continuasse evoluindo, adiando assim a sua destruição,
uma vez que este, embora em trajetória anômala, ainda permaneceu dentro dos limites
de segurança. Desta forma, os radares continuaram coletando dados do foguete até o
instante de 189 segundos aproximadamente.
Os desempenhos dos filtros serão analisados somente para os primeiros 55,8
segundos de vôo, tempo este em que o vôo foi considerado normal pois os ganhos
dos filtros são fixos e calculados a partir de condições nominais de vôo.
Verifica-se, através da Figura 5, que o ponto de impacto calculado através
dos dados do radar ADOUR teve uma mudança considerável de comportamento, a
partir do instante 49 segundos. Isto ocorreu devido a variações inesperadas e
acentuadas nos componentes de posição e velocidade do foguete a partir deste instante,
calculados pelo sistema de filtragem deste radar. Constatou-se que tais oscilações não
se originaram no sistema de filtragem de dados e sim nos próprios dados brutos
medidos pelo radar ADOUR.
Pesquisa Naval Nº 16, Outubro de 2003
51
O radar ATLAS é designado somente a partir do instante 8,3 segundo de vôo.
Verificou-se que o efeito de inicialização do filtro pode ter conseqüências bastante
graves no que diz respeito à segurança de vôo, uma vez que o ponto de impacto foi
muito afetado pela inicialização imprecisa do filtro deste radar. Como pode ser observado
na Figura 5, grandes alterações deste parâmetro, nos primeiros instantes após a sua
designação, afetaram o rastreamento do foguete por este radar até aproximadamente
25 segundos após o lançamento. Portanto, alternativas de inicialização do filtro
diferentes da atual, que considera o foguete estacionado na rampa de lançamento no
momento de designação, devem ser consideradas a fim de minimizar o seu efeito sobre
o ponto de impacto. Quanto a este radar, notou-se ainda que o conjunto de ganhos do
filtro foi menos eficiente para o movimento na direção y do que o observado nas outras
direções /4/. Isto sugere que projetar conjuntos de ganhos distintos para cada direção
deve melhorar o desempenho do filtro.
6000
Desvio do Ponto de impacto (m)
R adar
ATLAS
5000
ADOUR
4000
3000
2000
1000
0
0
10
20
30
40
50
T e m p o (s )
Figura 5: Desvio do ponto de impacto calculado pelos sistemas de filtragem dos
radares ADOUR e ATLAS.
8. Comentários e Recomendações
Embora o radar ATLAS tenha passado a ser o radar primário a partir do
instante 8,3 segundo de vôo do VLS1-V02, pôde-se observar que o radar ADOUR
apresentou um melhor desempenho (menor desvio do ponto de impacto) que o radar
ATLAS até aproximadamente o instante 40 segundos de vôo. Portanto, a não ser que
atitudes sejam tomadas para melhorar a inicialização do radar ATLAS e que se permita
52
Pesquisa Naval Nº 16, Outubro de 2003
a utilização de ganhos distintos por direção, deve-se avaliar a possibilidade de permitir
que o radar ADOUR permaneça, por mais tempo que os 8,3 segundos iniciais, como o
radar primário.
Em virtude das análises realizadas apresentam-se as seguintes recomendações:
i) analisar os resultados do SAGADA para o radar ADOUR, posterior ao lançamento
do VLS1-V02, a fim de verificar se as oscilações observadas nos dados reais estão
presentes também nestes dados; ii) melhorar a inicialização do filtro do radar ATLAS
e avaliar a possibilidade de permitir que o radar ADOUR permaneça por mais tempo
que os 8,3 segundos iniciais de vôo como o radar primário; iii) considerar a possibilidade
de estender a metodologia atual para cálculos de conjuntos de ganhos distintos por
direção e para múltiplas fases de vôo; iv) desenvolver um algoritmo computacional
completo de extração de ruído de média zero; e v) estudar a viabilidade de desenvolver
novos filtros com ganhos adaptativos (utilizando o conceito de Kalman), adequados
também para situações anômalas.
Os resultados da análise do vôo do VLS1-V02 mostraram que, de um modo
geral, os sistemas de filtragem, para ambos os radares, tiveram um bom desempenho
durante o periodo de vôo analisado.
Para estes estudos foram desenvolvidas ou aprimoradas várias ferramentas
de cálculo e de análise, que permitiram, também, uma melhor compreensão e visualização
do problema estudado /4/.
9. Referências Bibliográficas
[1] Yaakov Bar-Shalon and Xiao-Rong Li, “Estimation and Tracking: Principles,
Techniques and Software”, Artech House Inc., 1993.
[2] “MATLAB: The Language of Technical Computing”, The Math Works Inc. US,
1998.
[3] Carrara, Walter José, “Análise da Falha do Propulsor do Veículo VLS1-V02”, DOC.
590.000.000/B6012, IAE/CTA, Fevereiro de 2000.
[4] A. D. Caldeira, E. M. Borges, F. A. Braz Filho, Jonas Rubini Jr., L. N. F. Guimarães e
M. A. P. Rosa , “Avaliação e Análise dos Ganhos dos Filtros do Sistema de Rastreamento
de Foguetes do Centro de Lançamento de Alcântara para o vôo do VLS1-V02”, Relatório
de Pesquisa, CTA/IEAv-RP-001/2000.
10. Agradecimentos
Os autores gostariam de expressar os seus agradecimentos ao Cel. Gastão e
ao Cel. Lousada, pela oportunidade e confiança depositada no grupo, aos colegas do
IAE, Ten.-Cel. Pelson, Maj. Eudy, Raul, Laís e Yoshino, pela imprescindível colaboração
e esclarecedoras discussões em todas as etapas deste desenvolvimento, e a todos
que, de alguma forma, contribuíram para o sucesso deste trabalho.
IV
Capítulo
NONLINEAR FLAPPING OSCILLATIONS IN HELICOPTER ROTORS
Roberto Ramos, M. Eng
Donizeti de Andrade, PhD
Technological Institute of Aeronautics (ITA), Aerospace Technical Center (CTA)
12228-900 São José dos Campos, São Paulo, Brazil
e-mail: [email protected], [email protected]
Resumo
Este trabalho apresenta um estudo do movimento não-linear de batimento
das pás de rotores de helicópteros em vôo pairado considerando os efeitos de rajadas
de vento. A equação diferencial não-linear para o movimento de batimento é obtida
e as simulações computacionais juntamente com a análise de bifurcações mostram
que acima de um ângulo de passo coletivo crítico, grandes oscilações em batimento
podem ocorrer devido ao fenômeno de salto (“jump”), particularmente sob fortes
ventos e com velocidades de rotação reduzidas. Estas grandes oscilações, talvez
destrutivas, não são previstas pelo modelo linear e podem estar relacionadas com o
fenômeno de “blade sailing”, uma ocorrência comum em operações navais.
_____________
Accepted for presentation at the 29th European Rotorcraft Forum, Friedrichshafen,
Germany, Sept. 16-18, 2003.
Abstract
This work presents a study of the nonlinear flapping motion of helicopter
rotor blades in hover considering gust effects. The nonlinear differential equation
for the flapping motion is obtained and the computational simulations and
bifurcation analysis show that above a critical collective pitch angle, large flapping
oscillations can occur due to a jump phenomenon, particularly under high winds
and with reduced rotational speeds. These large, possibly destructive, oscillations
54
Pesquisa Naval Nº 16, Outubro de 2003
are not predicted by the linear model and may be related to the phenomenon of
blade sailing, a common occurrence in naval operations.
Keywords. helicopter, rotor, flapping, nonlinear, dynamics, oscillations, gust, naval
operations.
Nomenclature
R - rotor radius, m
w - vertical gust velocity, m/s
Vmw - mean wind velocity, m/s
α - gust amplitude, m/s
β - flapping angle, rad
γ - Lock number
λ - wavelength, m
λ1 - nondimensional flapping frequency ratio
vi - induced velocity, m/s
φ - inflow angle, rad
θ 0 - collective pitch angle, rad
Ω - rotor rotational speed, rad/s
p B , q B , rB - components of the blade angular velocity
Introduction
Helicopter response in gusty air has been poorly studied, despite its importance for
several applications, particularly in naval operations. Large flapping oscillations in
helicopter rotors can occur at low rotational speeds in high winds, a phenomenon
called blade sailing (Refs. 1,2). Tail-boom strikes have happened during the startup or
shutdown of the rotor system, occasionally yielding severe damage (Refs. 3,4,5). For
some naval helicopters, like the H-46 Sea Knight, a relatively small flapping angle is
enough to result in blade strike and thus a linear analysis is suitable to study the
phenomenon. However, despite the standard low collective and inflow inputs, the
coupling with a high amplitude gust at low rotor speeds can amplify the nonlinear
structural effects.
Pesquisa Naval Nº 16, Outubro de 2003
55
This work investigates the resulting nonlinear flapping motion of rotor blades in
hover considering gust effects. The aim is to compare the linear model commonly used
for small flapping oscillations analysis (Refs. 6,7,8) to a more general nonlinear model
for the rotor blades in hover that allows large flapping oscillations to occur due to
gusty air and collective pitch command.
The arising of large destructive oscillations in structures due to a gust input is not
a new phenomenon. The famous case of the Tacoma Narrows Bridge, not still completely
understood, illustrates that the linear approach, based on resonance, may not be the
correct explanation for the observed large oscillations. The resonance phenomenon
requires stringent conditions of damping and gust/structure frequencies to take place.
A recent and more plausible hypothesis is based on the nonlinearity of the system,
which obviously cannot be captured by linearizing the model, under the small angle
assumption (Ref. 9).
Previous Work
Large flapping oscillations in helicopter rotors have been studied by some
researchers (Refs. 1-5). The focus has been the blade sailing, which is an aeroelastic
phenomenon affecting helicopter rotors when rotating at low speeds in high wind
conditions.
Particularly at low speeds, during startup or shutdown, gusts are of concern since
the blade is free to flap and bend in the absence of strong centrifugal forces (Ref. 10).
For very low rotor speeds, the aerodynamic forces are much less than at full rotor
speed and the droop stops are of some value. Many rotors have spring-loaded,
centrifugally operated droop stops that prevent the blades from going below the rotor
hub’s height until the rotor speed is near its operating value.
Despite this there have been numerous events where the helicopter blades have
actually impacted the helicopter fuselage, which is called “tunnel strikes”. Besides the
airframe, the flight crew and any personnel working close to the aircraft can be affected.
The U.S. Army requires that the rotor can be safely started and stopped in 45-knot
winds, while U.S. Navy requires a 60-knot capability (Ref. 10).
The blade sailing phenomenon is particularly applicable to naval helicopters or
those operating off exposed sights such as oil rigs (Refs. 1,2).
Naval Helicopters
Naval helicopters, like LYNX, NH90 and EH101, are vertical flight vehicles that
operate from the deck of ships like aircraft carriers, frigates and naval amphibious
assault vessels. They often operate in bad weather, involving harsh and unstable
conditions. Statistically, a helicopter can safely land on a frigate in the North Sea only
10 percent of the time in winter (Refs. 3,4,5).
56
Pesquisa Naval Nº 16, Outubro de 2003
High winds, the rotor downwash and the turbulent airflow over the ship’s
superstructure generate an aerodynamic environment that increases the pilot’s workload
and reduces the operational safety, particularly during helicopter approach, landing
and takeoff. These severe conditions affect the control performance, handling qualities
and structural limits of the helicopter, yielding the blade strikes.
The occurrence of the large flapping oscillations may be related to resonance due
to the matching between the angular frequency of the rotor and the shedding frequency
of vortices from the sharp edges of the ship.
However, when the rotor is prone to large flapping deflections, the nonlinear
effects become relevant and resonance may not be the unique explanation for the large
flapping motion observed in practice. Bifurcation, limit cycles and chaos must also be
taken into account.
Sensitive dependence on initial values and strong change of flapping behavior
according to several varying parameters are conditions that must be evaluated through
analytical and numerical tools.
The nonlinear theory based on a topological approach is still poorly understood
and used by engineers. Except possibly for limit cycle oscillations (Ref. 11), concepts
like attractors, bifurcations and Lyapunov exponents are nearly absent of the
aeronautical research, even about helicopter rotor dynamics, which is inherently
nonlinear.
The engineering analysis based on Computational Fluid Dynamics (CFD) and
Wind Tunnel tests is very important, but the tools of the bifurcation and chaos theory
can shed light on the complex dynamics of naval helicopters, driving and complementing
the experimental work. The investigation and understanding of the nonlinear aeroelastic
phenomena related to helicopter operations in a hostile wind environment can determine
operational and design modifications for improved safety and autonomy.
Integrated Model for Rotor Dynamics with Aerodynamic Gust Disturbance
The aerodynamics and structural dynamics of the rotor, linked to an autopilot
used to trim the system, may be represented by Fig. 1 (Refs. 12,13):
Figure 1. Structure-Aerodynamics-Control Interactions
Pesquisa Naval Nº 16, Outubro de 2003
57
The airloads theory relates the velocity field about the section to the lift, drag and
pitching moment. The induced flow theory links the rotor airload distribution to the
inflow velocity distribution at the rotor disk. The structural model relates the rotor
airloads to the blade motions. The autopilot provides the collective and cyclic control
inputs required for the desired flight condition, specified by hub thrust, roll and pitch
moment coefficients.
The pilot must keep a trimmed flight condition in an aeroelastic context and, thus,
an aeromechanical control problem must be resolved (Ref. 12).
Aiming to consider a possible aerodynamic disturbance, like a vertical gust or
turbulence, the integrated rotor model includes this external effect on the velocity
distribution. The resulting airloads (lift and pitching moment) can produce significant
deviations from the specified hub thrust, roll and pitch moment coefficients, possibly
preventing the autopilot from keeping the planned set-points and trajectories and,
thus, increasing the pilot workload.
Nonlinear Flapping Model with Gust Effects
The flapping degree of freedom of helicopter rotors was introduced to isolate
the problem created by the advancing and retreating sides, associated to the
dissymmetry of lift in forward flight (Ref. 7).
The flapping, lagging and torsional degrees of freedom of the flexible rotor interact
nonlinearly and a lot of work has been dedicated to analyze these couplings (Ref. 11).
According to the integrated model in Fig. 1, the aerodynamic loads are dependent
on the structure deformation (Ref. 14). However, the structure is also dependent on the
aerodynamic environment and gusty air can produce large deflections, amplifying the
nonlinear effects.
In order to study the flapping behavior in gusty air and analyze the nonlinear
effects, the rotor is assumed to be fully articulated, operating in a hovering state with
no translational velocity. The rotor blade is assumed to be rigid and the nonlinear
flapping model is derived using the blade element theory (Ref. 8).
The flapping model includes a simplified sinusoidal vertical gust and collective
pitch inputs with constant inflow, neglecting the couplings with the other degrees of
freedom.
Initially it is important to identify the sources of the flapping nonlinearities and
the conditions under which these nonlinearities are significant.
In order to accomplish this, the equation of motion of the rotor blade about the
flapping axis must be obtained. Using the Newtonian approach and Euler’s equations
58
Pesquisa Naval Nº 16, Outubro de 2003
based on a blade-body axis system and considering the blade as a very slender rod,
the angular acceleration of the blade about the flapping axis y is given by (Ref. 8):
αy =
dq B
− p B rB
dt
(1)
where
p B = Ω sin β
q B = −dβ / dt
rB = Ω cos β
(2)
Therefore the angular acceleration of the blade about the y axis is:
αy =−
d 2β
− Ω 2 sin β cos β
dt 2
The Equation (3) determines the flapping nonlinearity, which is significant only
for large angles. However, this condition is typical for blade sailing phenomenon and
thus the linear approximation is not applicable.
The inflow angle for a radial blade element located at distance r from the rotor hub
obtained in Ref. 8, made up of the effect of induced velocity (downwash) and the
induced angle due to flapping velocity, can be modified by including gust effects, as
follows:
φ=
r
dβ
+ vi − w
dt
Ωr
(4)
where φ is the new inflow angle, assumed to be relatively small.
Therefore, the nonlinear differential equation for the flapping motion in hover with
gust effects is:
d 2 β γΩ dβ
+
+ λ12Ω 2 sin β cos β
2
8 dt
dt
γθ
γv 
γΩ

=  0 − i Ω 2 +
w
6R
 8 6ΩR 
(5)
Pesquisa Naval Nº 16, Outubro de 2003
59
The gust effects are modeled by a simplified vertical sinusoidal wave actuating
uniformly over the rotor blades (Ref. 15):
 2π

w = α sin  Vmw t 
 λ

(6)
This gust model is far from the complex air wake patterns that exist in a real
environment, particularly over ships (Ref. 16), but it allows a preliminary study of the
fluid-structure-pilot nonlinear interactions in dangerous situations.
The term
λ12 Ω 2 sin β cos β of the Equation (5) represents the nonlinearity of
the flapping motion and it is usually approximated by the term
λ12 Ω 2 β for small
amplitude oscillations (Refs. 6,7,8). While this approximation seems reasonable for
stability analysis purposes around an equilibrium position, the gust response may
require a nonlinear analysis considering the possibility of the arising of large
oscillations.
Simulation of the Nonlinear Flapping Equation
A common approach for rotor stability analysis is to find the equilibrium points
using the complete nonlinear equations and then linearize the equations around these
points. However, though commonly assumed, this static nonlinear approach may not
be adequate for response problems, for, in fact, the modeling requires the use of nonhomogeneous differential equations with forcing terms that interact in a complex way.
Therefore, the aeroelastic investigation developed in the present work uses the
fully nonlinear model describing the dynamic flapping behavior and is based on the
Runge–Kutta simulation of the Equation (5). Fig. 2 shows the differences between the
solutions predicted by the nonlinear model and the linear one, for the following set of
parameters and inputs:
R = 5 .7 m
γ =8
Ω = 10rad / s
λ1 = 1
θ 0 = 4 deg
v i = 0m / s
α = 21m / s
λ = 15m
Vmw = 3m / s
60
Pesquisa Naval Nº 16, Outubro de 2003
Figure 2. Nonlinear and linear gust/collective pitch response.
The low rotational speed used in the simulation represents a condition of startup
or shutdown of the rotor system, when the centrifugal force is small. This condition is
also associated with a low stiffness of the rotor blades. The simulation considered a
high amplitude sinusoidal gust input, thus generating a large aerodynamic force. The
combination of low stiffness, large aerodynamic force and nonlinear effects gave rise
to the excessive flapping of the rotor blades shown in Fig. 2. Possibly this nonlinear
phenomenon is present in some blade sailing occurrences.
A linear model can be used to study this phenomenon if relatively small flapping
angles are considered. However, for large angles the nonlinearity becomes important
and a new class of phenomena can occur, including bifurcations and, possibly, chaos.
Bifurcation Analysis
2
1
2
Approximating
the
term
λ Ω sin β cos β
in
Equation
(5)
by
λ12 Ω 2 ( β − 2 β 3 / 3) , valid for the considered range of the flapping angles (0 to 1
Pesquisa Naval Nº 16, Outubro de 2003
61
rad), a nonlinear Duffing-type model is obtained, as follows:
d 2 β γΩ dβ 2 2
+
+ λ1 Ω (β − 2β 3 / 3)
8 dt
dt 2
γv 
γΩ
 γθ
=  0 − i Ω2 + w
6R
 8 6ΩR 
(7)
Equation (7) can be written in the general form:
d 2β
dβ
+
+ bβ + cβ 3
a
2
dt
dt
= B0 + B1 sinωt = f (θ0 , w)
(8)
A first approximate solution is given by:
β (t ) = C 0 + C1 sin(ωt + σ )
(9)
Substituting (9) in (8) and using the method of harmonic balance (Refs. 17,18), the
result is a system of algebraic equations involving
C 0 , C1 , σ :
C1 (−ω 2 + b + 3cC02 + 3cC12 / 4) =
= B1 cosσ
− aωC1 = B1 sinσ
(10)
C0 (b + cC + 3cC / 2) = B0
2
0
2
1
The flapping response given by (9) and (10) exhibits the nonlinear behavior called
jump phenomenon, related to a cycle bifurcation (Ref. 19). This occurrence is due to
the multi-value solutions of C1 for a particular B0 . Two limit cycles with different
stability properties coexist for some values of the control parameter (collective pitch
command theta0).
62
Pesquisa Naval Nº 16, Outubro de 2003
Fig. 3 shows the jump phenomenon related to the Duffing-type Equation (7).
Figure 3. Bifurcation diagram for beta (flapping amplitude) varying according to
the control parameter theta0 (collective pitch command).
Discussion of the Analysis Results
The large damping, approximately equal to γ/16 (γ range is, typically, from 5 to 15),
prevents large flapping oscillations from occurring in normal conditions, which is a
highly desirable property.
However, the computational simulations and the bifurcation analysis show that a
combination of low rotational speeds, low gust frequencies and large gust amplitudes
can give rise to large, possibly destructive, flapping oscillations if the collective pitch
is commanded above a critical angle. This jump phenomenon is inherent to nonlinear
systems and is not predicted by the linear model. Fig. 2 shows the large difference
between the flapping amplitudes predicted by the two models.
The origin of the discrepancies between the two models is that the principle of
superposition does not apply for the nonlinear flapping and, thus, the gust and
collective pitch input contributions are not additive, yielding the large oscillations.
Pesquisa Naval Nº 16, Outubro de 2003
63
Therefore the reduction of excessive tip deflections by increasing the blade
collective pitch setting as suggested in Refs. 3-5 should be carefully analyzed, taking
into account the possible onset of the jump phenomenon.
Conclusions
The analysis of the Equation (5) reveals that a helicopter rotor, as a nonlinear dynamic
system, may be extremely sensitive to a gust input, despite the large flapping damping.
Probably a careful nonlinear analysis validated by experimental results will be particularly
important for naval operations, where high winds are common.
Future work includes a nonlinear analysis of the coupling of the flapping motion
with the other degrees of freedom, particularly the torsional motion, including gust
effects. Eventually, this aeroelastic coupling may constitute itself as the basis for a
control method to reduce rotor oscillations.
References
1. Newman, S.J., 1999, “The Phenomenon of Helicopter Rotor Blade Sailing”,
Proceedings of the Institution of Mechanical Engineers, Oct. 5.
2. Newman, S.J., 1990, “A Theoretical Model for Predicting the Blade Sailing Behavior
of a Semi-Rigid Rotor Helicopter”, Vertica, Vol. 14, No. 4, pp. 531-544.
3. Geyer Jr., W.P., Smith, E.C. and Keller, J.A., 1998, “Aeroelastic Analysis of Transient
Blade Dynamics During Shipboard Engage/Disengage Operations”, Journal of Aircraft,
Vol. 35, No. 3.
4. Keller, J.A. and Smith, E.C., 1999, “Experimental and Theoretical Correlation of
Helicopter Rotor Blade-Droop Stop Impacts”, Journal of Aircraft, Vol. 36, No. 2, MarchApril.
5. Keller, J.A. and Smith, E.C., 1999, “Analysis and Control of the Transient Shipboard
Engagement Behavior of Rotor Systems”, AHS 55th Annual Forum, Montreal, Quebec,
May 25-27, pp. 1064-1078.
6. Kunz, D.L., 1998, “Saturation Control for Suppressing Helicopter Blade Flapping
Vibrations: A Feasibility Study”, AIAA Paper No. 98-2004, AIAA/ASME/ASCE/AHS/
ASC 39th Structures, Structural Dynamics and Materials Conference and Exhibit, Long
Beach, California.
7. Bramwell, A.R.S., 1976, “Helicopter Dynamics”, Edward Arnold (Publishers).
8. Dowell, E.H., editor [et al.], 1995, “A Modern Course in Aeroelasticity – Chapter 7”,
Kluwer Academic Publishers.
9. McKenna, P.J., 1999, “Large torsional oscillations in suspension bridges revisited:
fixing an old approximation”, The American Mathematical Monthly, 106:1-18.
10. Prouty, R., 1988, “Accidents waiting to happen – blade strikes”, Rotor and Wing,
August/September and “Even More Helicopter Aerodynamics”, Chapter 20.
64
Pesquisa Naval Nº 16, Outubro de 2003
11. Dowell, E.H. and Tang, D., 2002, “Nonlinear Aeroelasticity and Unsteady
Aerodynamics”, AIAA Journal, Vol. 40, No. 9, pp. 1697-1707, September.
12. de Andrade, D., 1992, “Application of Finite-State Inflow to Flap-Lag-Torsion
Damping in Hover”, Ph.D. thesis, Georgia Institute of Technology.
13. Stumpf, W.M., 1992, “An Integrated Finite-State Model for Rotor Deformation,
Nonlinear Airloads, Inflow and Trim”, Ph.D. thesis, Georgia Institute of Technology.
14. Brandão, M.P., 1996, “Special loads as prototypes to aeroelastic problems”, ITAIEA/AE-002/96.
15. Riaz, J., Prasad, J.V.R., Schrage, D.P. and Gaonkar, G.H., 1993, “Atmospheric
Turbulence Simulation for Rotorcraft Applications”, Journal of the American Helicopter
Society, Volume 38, Number 1.
16. Guillot, M.J., 2002, “Computational Simulation of the Air Wake over a Naval Transport
Vessel”, AIAA Journal, Vol. 40, No. 10: Technical Notes.
17. Agrawal, A.K., Yang, J.N. and Wu, J.C., 1998, “Non-Linear Control Strategies for
Duffing Systems”, Int. J. Non-Linear Mechanics, Vol. 33, No. 5, pp. 829-841.
18. Kapitaniak, T., 1991, “Chaotic Oscillations in Mechanical Systems”, Manchester
University Press.
19. Fiedler-Ferrara, N. and Prado, C.P.C., 1994, “Chaos – An Introduction” (in
Portuguese), Edgard Blücher.
V
Capítulo
AVALIAÇÃO DO EFEITO DE DIFERENTES DOPANTES SOBRE A
HISTERESIMETRIA MAGNÉTICA DOS COMPÓSITOS DE HEXAFERRITAS DE
BÁRIO DOPADAS:POLICLOROPRENO UTILIZADOS COMO RAMS
Magali Silveira Pinho 1,2, Roberto da Costa Lima 1,3, Júlio César dos Santos
Leandro1, Augusto Cesar de Carvalho Peres 2, Manoel Ribeiro da Silva 4,
Júlio Maria Neto 4
1
Instituto de Pesquisas da Marinha (IPqM)
2
Instituto de Macromoléculas (IMA) da Universidade Federal do Rio de Janeiro (UFRJ)
3
4
PEMM-COPPE da Universidade Federal do Rio de Janeiro (UFRJ)
Instituto de Física (IF) da Universidade Federal do Rio de Janeiro (UFRJ)
Resumo
Este trabalho tem por objetivo avaliar o efeito do emprego de diferentes
dopantes sobre a histeresimetria magnética dos compósitos de hexaferritas de bário
(BaHF) com o policloropreno (CR), utilizados como materiais absorvedores de
radar (RAMs). O equipamento utilizado para a observação deste efeito consistiu do
magnetômetro de amostra vibrante (VSM).
A eficiência destes materiais como absorvedores de microondas foi
avaliada pelo emprego de um guia de ondas, para a faixa de freqüência de 8,00 a
16,00 GHz. O método utilizado nas medidas de refletividade (dB), baseia-se na
determinação dos valores, relativos ao vácuo, de permeabilidade complexa (µr*) e
de permissividade complexa ( εr*), a partir de dados de espalhamento, sendo
conhecido como método de Transmissão/Reflexão (T/R).
Abstract
In this work, the effect of different dopants on the magnetic hysteresis
of barium hexaferrites composites with polychloroprene, employed as radar absorbing
materials (RAMs), was evaluated. The vibrating sample magnetometer (VSM) was
the equipment employed for the visualization of this effect.
66
Pesquisa Naval Nº 16, Outubro de 2003
The performance of these materials as microwave absorbers was
evaluated in a waveguide medium for the range of frequencies between 8.00 and
16.00 GHz. The method adopted to measure the complex permeability (µr*) and
complex permittivity (εr*) related to free-space, from scattering parameters, was the
transmission line technique known as the Transmission/Reflection method (T/R).
1. Introdução
O emprego de materiais absorvedores de microondas, em particular os
RAMs, tornou-se um dos campos mais fascinantes da engenharia de materiais embora,
ainda represente um grande desafio [1].
Um RAM deve ser constituído por compostos, com elevada perda de
energia, que absorvem a radiação incidente em freqüências sintonizadas e dissipam a
energia absorvida sob a forma de calor, inibindo a energia necessária para o sinal de
eco de detecção por radar [1,2].
Os RAMs são recobrimentos cujas propriedades elétricas e magnéticas
podem ser alteradas de forma a permitir a absorção de microondas em freqüências
específicas ou em espectro de freqüência mais amplo. O crescente aumento da
necessidade por RAMs surgiu em decorrência do grande aumento no número de
sistemas eletrônicos, resultando em um aumento da interferência eletromagnética (EMI,
“Electromagnetic Interference”) e/ou do emprego destes na redução da seção reta
radar (RCS, “Radar Cross Section”) de plataformas de navios.
Um RAM ideal deve apresentar como características principais a
durabilidade, baixa densidade, baixo custo, a abrangência de uma ampla faixa de
freqüência e ser de fácil aplicação, além da resistência à atmosfera salina, possibilitando
sua aplicação para fins navais. Deste modo, o policloropreno (CR) foi o elastômero
escolhido [3].
Hexaferritas de bário são materiais cerâmicos policristalinos com
propriedades magnéticas, que devido às possíveis combinações de composições
químicas e estruturais, podem ser utilizadas em várias aplicações específicas, tais
como RAMs. Para cada tipo de estrutura cristalina (espinélio, granada e hexagonal) o
ajuste das propriedades magnéticas possibilita a absorção de microondas em diferentes
freqüências [3,4].
Para as medidas realizadas em guia de ondas, Nicolson e Ross
desenvolveram um método para a determinação dos valores, relativos ao vácuo, de
permeabilidade complexa (µr*) e de permissividade complexa (εr*), a partir dos
parâmetros de espalhamento (S11 e S21) [5,6].
Este trabalho tem por objetivo estudar o efeito do emprego de
diferentes dopantes sobre a histeresimetria magnética de compósitos 80:20 (% em
Pesquisa Naval Nº 16, Outubro de 2003
67
peso) de hexaferrita de bário:policloropreno, permitindo a absorção de microondas
em diferentes freqüências.
2. Procedimento Experimental
Materiais
As sínteses das hexaferritas de bário ocorreram através da técnica
convencional de misturas de pós [3,4].
As matérias primas utilizadas na síntese de hexaferrita de bário não
dopada (BaHF) consistiram de óxido de ferro (Fe2O3) e carbonato de bário (BaCO3).
Para obtenção de hexaferrita de bário dopada com cobalto, titânio e
manganês (Co-TiBaHF), além das matérias primas anteriormente utilizadas foram
empregados em quantidade estequiométrica o óxido de titânio (TiO2), óxido de cobalto
(CoO) e óxido de manganês (Mn2O3) [2].
A hexaferrita de bário dopada com sódio e lantânio (La-NaBaHF) utilizou,
em adição às matérias primas utilizadas na obtenção de BaHF, o carbonato de sódio
(Na2CO3) e o hidróxido de lantânio (La(OH)3) [3].
O tempo de mistura/moagem foi de 24 h e a temperatura de calcinação foi
de 1200 °C pelo período de 2 h.
Os demais reagentes, tais como o policloropreno (CR; Neoprene W da Du
Pont, densida de =1,21 g/cm3 ; Mw= 440.000) foram utilizados como adquiridos [2].
Obtenção dos Compósitos com o Policloropreno
As amostras de hexaferritas de bário foram misturadas, em adição aos
agentes de vulcanização, com o CR resultando na composição percentual em peso
80:20 de hexaferrita de bário:policloropreno (% em peso).
As misturas físicas (blendas) foram realizadas em um misturador de
cilindros Berstoff à temperatura ambiente e com velocidades de 22 e 25 rpm (anterior e
posterior), de acordo com os procedimentos clássicos empregados pela indústria de
borracha. As blendas foram moldadas por compressão a 150 °C e 6,7 MPa. Os corpos
de prova foram obtidos sob a forma de tapetes vulcanizados, com dimensões de 4,0 x
4,0 cm e espessuras de 0,15 cm [2,7].
Magnetometria de Amostra Vibrante
A histeresimetria magnética das hexaferritas de bário calcinadas foi estudada
pela Magnetometria de Amostra Vibrante, utilizando o equipamento 4500 da EG & G
Princeton Applied Research, acoplado ao vibrador de amostra EG & G e controlado
pelo IBM 386.
68
Pesquisa Naval Nº 16, Outubro de 2003
Método de Transmissão/Reflexão (T/R)
A permeabilidade e permissividade complexas (µr* e εr*, respectivamente)
foram determinadas a partir de dados de espalhamento, por intermédio do analisador
vetorial de redes HP 8510, que determina as perdas de inserção e retorno em magnitude
e fase de amostras submetidas a teste (SUT, “Sample Under Test”), através da
comparação entre o sinal transmitido pela SUT e o refletido na sua entrada [5,6].
Análise Morfológica por SEM
A observação micromorfológica das amostras, sob a forma de pós, foi realizada
pelo emprego de um microscópio eletrônico de varredura Leica Mod S440, utilizando o
detetor de elétrons secundários.
3. Resultados e Discussão
A Figura 1 ilustra o comportamento magnético das amostras de (a) BaHF, (b)
Co-TiBaHF e (c) La-NaBaHF.
100
BaHF
LaBaHF
Co-TiBaHF
80
Magnetização (emu/g)
60
40
20
0
-20
-40
-60
-80
-100
-10
-8
-6
-4
-2
0
2
4
6
8
10
Campo Magnético Aplicado (KOe)
Figura 1 - Curvas de histerese para as amostras de (a) BaHF, (b) Co-TiBaHF e (c)
La-NaBaHF.
Pelos resultados apresentados pode ser observado que BaHF apresentou uma
maior dureza magnética, ilustrada pelo valor mais elevado do campo coercitivo (Hc de
3,2 kOe) e da magnetização de saturação (Ms) em relação às hexaferritas de bário
Pesquisa Naval Nº 16, Outubro de 2003
69
dopadas. Dentre as amostras dopadas a de Co-TiBaHF (Hc de 0,47 kOe) apresentou-se
magneticamente mais mole em relação à de La-NaBaHF (Hc de 2,3 kOe).
A Figura 2 ilustra as imagens obtidas por SEM para as amostras de (a) BaHF, (b)
Co-TiBaHF e (c) La-NaBaHF.
(a) BaHF (20.000X)
(b) Co-TiBaHF (10.000X)
(c) La-Na
Figura 2 - Imagens de SEM para as amostras de (a) BaHF, (b) Co-TiBaHF e (c) LaNaBaHF.
Pelos resultados apresentados na Figura 2, para o aumento de 20.000 vezes, foi
confirmada a obtenção da estrutura hexagonal, característica para estes materiais. Para
a amostra de La-NaBaHF foi observada a presença de uma segunda fase, identificada
como óxido de ferro (hematita) pela Difratometria de Raio-X [4].
Na Figura 3 são apresentadas as curvas de absorção de microondas dos
compósitos 80:20 de (a) BaHF:CR, (b) Co-TiBaHF:CR e (c) La-NaBaHF:CR, com
espessuras de 0,15 cm.
70
Pesquisa Naval Nº 16, Outubro de 2003
0
-5
-10
Reflectividade (dB)
-15
-20
-25
-30
-35
(a) BaHF:CR
-40
-45
8
10
12
Freqüência (GHz)
14
16
0
-5
Reflectividade(dB)
-10
-15
-20
-25
-30
-35
(b) Co-TiBaHF:CR
-40
-45
8
10
12
14
16
Freqüência (GHz)
0
-5
-10
Refletividade (dB)
-15
-20
-25
-30
-35
(c) La-NaBaHF:CR
-40
-45
8
9
10
11
12
13
Freqüência (GHz)
14
15
16
Figura 3 - Medidas de refletividade (dB) para os compósitos 80:20 de (a) BaHF:CR,
(b) Co-TiBaHF:CR e (c) La-NaBaHF:CR, com espessuras de 0,15 cm.
De acordo com a literatura, o compósito 80:20 de BaHF:CR absorve em freqüência
próxima a 45 GHz [3].
Pelos resultados obtidos, a dopagem resultou em um aumento da absorção
de microondas para a faixa de freqüência analisada.
Pesquisa Naval Nº 16, Outubro de 2003
71
O aumento da dureza magnética para a amostra de La-NaBaHF, ilustrada pelo
valor mais elevado de Hc em relação à de Co-TiBaHF, pode ter ocasionado um
deslocamento da absorção de microondas para uma freqüência mais elevada em relação
à faixa analisada, de forma análoga ao observado para BaHF, que apresentou uma
dureza magnética ainda maior (ferrita dura). Desta forma, o melhor desempenho como
RAM foi observado para o compósito 80:20 de Co-TiBaHF:CR, para a faixa de freqüência
de 12,00 a 16,00 GHz.
4. Conclusões
De acordo com o tipo de dopante empregado, os compósitos 80:20 de CoTiBaHF:CR e La-NaBaHF:CR apresentaram uma maior absorção de microondas. O
compósito 80:20 de Co-TiBaHF:CR apresentou o melhor desempenho como RAM em
relação ao de La-NaBaHF:CR. Tal comportamento pode ser atribuído à presença da
segunda fase constituída por hematita, que não atuou como um RAM, em adição à
maior dureza magnética de La-NaBaHF.
5. Referências
1.JAFELICCI, M.; “Absorvedores de radiação eletromagnética”, II Encontro Técnico
de Materiais e Química, Rio de Janeiro, 33-37, 1997.
2. QUEFFLEC P. GELIN P. GIERALTOWSKI J. and LOAEC J. IEEE Transactions on
Magnetics 1994; 30 (2):224-230.
3. PINHO M. S.- Dsc. Tese- Instituto de Macromoléculas Prof. Eloisa Mano, UFRJ,
2002. “Materiais absorvedores de radiação eletromagnética em matrizes de
policloropreno”.
4. LIMA R. C. – Msc Tese- Programa de Materiais e Metalurgia da COPPE, UFRJ, 2002.
“ Efeito da substituição de bário por lântânio-sódio nas propriedades absorvedoras de
microondas da hexaferrita de bário do tipo M”.
5. NICOLSON A. M. and ROSS G. IEEE Trans. Instrum. Meas. 1970; IM-19:377-382.
6. BAKER-JARVIS J. NIST Techn. Note1993; 1355-R:40.
7. PINHO M. S. LIMA R.C. NUNES R. C. R. SOARES B. G. Polímeros, Ciência e
Tecnologia 1999, 4:23-26.
Agradecimentos
Os autores agradecem ao Centro de Tecnologia Mineral (CETEM) pelas
análises de SEM.
72
Pesquisa Naval Nº 16, Outubro de 2003
LANCHA DE AÇÃO RÁPIDA
Lancha de alta velocidade e calado reduzido projetada para missões rápidas de
patrulha em pontos distantes de até 200 milhas da sua Base. Possui um casco planador, em
alumínio naval, otimizado com os requisitos para eficiência hidrodinâmica. É excelente para
auxílio às operações militares de abicagem ribeirinhas e costeiras. É também apropriada para
emprego, de caráter civil, em apoio às instalações off-shore, em portos, na fiscalização da
pesca, no controle e combate à poluição das águas devido a acidentes ambientais, e como
ambulância marítima. Tem sistema de propulsão com motor Diesel de torque elevado para
aceleração rápida.
Comprimento total
Boca máxima
Pontal
Calado máximo
Deslocamento padrão
Deslocamento leve
Motor / rabeta
Tanque de óleo Diesel
Velocidade máxima
Velocidade cruzeiro c/carga
Tripulação
Passageiros
Raio de ação a 25 nós
Autonomia mínima
7,55 m
2,30 m
1,00 m
0,40 m, com a bolina 0,60 m
3,0 t
1,3 t
1 Volvo Penta KAD-43P/ DP - 230 HP
500 l
35 nós
25 nós
01
13
400 milhas
1 dia
VI
Capítulo
INFLUÊNCIA NAS MEDIDAS DE REFLETIVIDADE DO EFEITO DA
DISPERSÃO DE PARTÍCULAS FERRIMAGNÉTICAS EM
MATRIZES POLIMÉRICAS
Roberto da Costa Lima 1,2, Magali Silveira Pinho 1,3
Tsunerahu Ogasawara 2, Flávio Teixeira da Silva 2
1
2
3
Instituto de Pesquisas da Marinha (IPqM)
PEMM-COPPE da Universidade Federal do Rio de Janeiro (UFRJ)
Instituto de Macromoléculas da Universidade Federal do Rio de Janeiro (IMA-UFRJ)
Resumo
O presente trabalho teve por objetivo evidenciar a importância da dispersão de
partículas ferrimagnéticas em matrizes poliméricas. As partículas ferrimagnéticas
consistiram de hexaferritas de bário dopadas com cobalto e titânio (Co-TiBaHF)
dispersas em resinas ou em elastômeros para serem utilizados como materiais
absorvedores de radar (RAMs), para a faixa de freqüência compreendida entre 8 e
16 GHz.
Abstract
The aim of this work was to emphasize the importance of ferrimagnetic particles
dispersion in polimeric matrices. The ferrimagnetic particles employed were cobalt
and titanium doped barium hexaferrites (Co-TiBaHF) dispersed in resins or
elastomers, in order to be used as radar absorbing materials (RAMs), in the frequency
range of 8 to 16 GHz.
74
Pesquisa Naval Nº 16, Outubro de 2003
1. Introdução
O emprego de partículas ferrimagnéticas, tais como as hexaferritas de bário, tem
crescido nas últimas duas décadas em decorrência do enorme desenvolvimento de
sistemas eletrônicos, resultando no aumento da interferência eletromagnética (EMI,
“Electromagnetic Interference”) e/ou do emprego destes na redução da seção reta
radar (RCS, “Radar Cross Section”) de plataformas de navios. Entende-se como RCS,
a área fictícia que ao ser interceptada por uma onda eletromagnética produz um eco
radar igual ao observado no objeto. Desta forma, uma redução significativa da seção
reta radar pode ser obtida através da otimização da forma dos alvos ou através do
emprego dos materiais absorvedores de radar (RAMs, “Radar Absorbing Materials”)
[1].
Os RAMs são revestimentos que podem ser utilizados sob a forma de espumas,
borrachas ou resinas, cujas propriedades elétricas e magnéticas podem ser alteradas
por intermédio da mistura destes polímeros com cargas específicas, que possuam
propriedades elétricas e/ou magnéticas específicas, de forma a propiciar ao material
final características adequadas à absorção de radiação eletromagnética em determinadas
faixas de freqüência [1].
Hexaferritas de bário são materiais cerâmicos policristalinos com propriedades
magnéticas, que devido às possíveis combinações químicas e estruturais, podem ser
utilizadas em várias aplicações, como por exemplo meios de gravação para fitas e
discos magnéticos, filtros indutores e transformadores para áudio, televisão e
telecomunicações, como material absorvedor de microondas, dentre outras. Para cada
tipo de estrutura cristalina (espinélio, granada e hexagonal), o ajuste das propriedades
magnéticas possibilita a absorção de microondas em diferentes faixas de freqüências.
O tipo de dopante empregado no seu processamento, propicia variações na freqüência
de ressonância destes materiais, resultando na obtenção de RAMs do tipo banda
estreita [1,2].
A hexaferrita de bário não dopada (BaHF) tem sido empregada como magneto
permanente de baixo custo em motores de automóvel, apresentando como características
magnéticas um elevado campo coercitivo (Hc da ordem de 3,2 kOe), elevada
magnetização de saturação (Ms de aproximadamente 72 Am2/kg), além de um elevado
campo anisotrópico (Hk da ordem de 17 kOe), sendo desta forma classificada como um
material de elevada dureza magnética. A freqüência de absorção de microondas para
estes materiais ocorre em aproximadamente 45 GHz [1,2].
O emprego de dopantes (Co e Ti) em substituição ao Fe, promove a redução da
dureza magnética, resultando na absorção de microondas em freqüências mais baixas
na faixa de 8 a 16 GHz [1].
A dispersão de cargas ferrimagnéticas em matrizes poliméricas reportadas pela
literatura, tem sido investigada visando duas de suas principais aplicações, quais
sejam as fitas magnéticas e os RAMs [3,4]. A dispersão das partículas de hexaferritas
de bário dopadas com cobalto e titânio (Co-TiBaHF) em matrizes elastoméricas de
policloropreno (CR) e em resinas de poliuretano (PU), influencia as propriedades
Pesquisa Naval Nº 16, Outubro de 2003
75
absorvedoras de microondas desses compósitos. A dispersão em policloreto de vinila
(PVC) foi descartada, devido a baixa resistência à atmosfera marítima [5].
2. Procedimento Experimental
2.1. Dispersão das Partículas
A hexaferrita de bário (Trans-Tech) dopada com cobalto e titânio (Co-TiBaHF;
BaCo0,92Ti0,92Fe10,42O19,00) apresentou um diâmetro médio de partícula inferior a 5 µm
(Sedígrafo 5100 V307 da Micromeritics) e densidade de 5,26 g/cm3 (Picnômetro de
Hélio da Micromeritics, Mod. AccuPyc 1330).
O principal objetivo para se alcançar uma ótima dispersão dessas partículas, em
uma matriz polimérica, consiste na distribuição homogênea das mesmas,
preferencialmente com estreita distribuição de tamanhos de partículas,
contrabalanceando as forças magnéticas atrativas. Essas forças são significativamente
mais fortes do que as forças atrativas de Van der Waals. Sendo assim, uma má dispersão,
decorrente da aglomeração de partículas, resultará em possível redução da resistência
à intempéries, do tempo de prateleira, das propriedades mecânicas e do comportamento
reológico, dentre outros fatores. A dispersão de partículas magnéticas em polímeros
ocorre devido a adsorção do mesmo na superfície dessas partículas promovendo um
impedimento estérico. É importante salientar que para um mesmo material polimérico, o
de menor peso molecular se adsorve preferencialmente em relação ao de maior peso
molecular[6,7].
A etapa inicial do preparo de uma tinta tem por objetivo a incorporação do pigmento
em uma solução de resina produzindo uma dispersão de pequenas partículas. A solução
de resina utilizada, também chamada de veículo de moagem, consistiu da resina de
poliuretano (PU) em dimetilformamida (DMF), utilizando-se um moinho de areia, que
possui uma elevada eficiência na eliminação de aglomerados. É importante salientar
que no processamento de dispersões com elevadas concentrações de partículas
magnéticas, as características viscoelásticas da tinta têm uma importância decisiva
[8,9,10].
No que tange ao processamento de elastômeros, a íntima incorporação de CoTiBaHF no CR, contendo os demais agentes de cura, ocorreu em um misturador de
cilindros aberto (Berstoff), seguida pela etapa de vulcanização em prensa hidraúlica
Carver a 150 °C e 6,7 MPa. Esta íntima incorporação pode ser atribuída à presença de
forças de cizalhamento no misturador, em adição a formação de uma camada polimérica
adsorvida na superfície das partículas magnéticas.
2.2. Matrizes Políméricas
Um fator determinante na escolha da matriz polimérica para a aplicação como RAM
em plataformas militares é a resistência à atmosfera marítima, desta forma as matrizes
76
Pesquisa Naval Nº 16, Outubro de 2003
poliméricas escolhidas consistiram da resina de poliuretano (PU) e do elastômero de
policloropreno (CR). Um outro fator importante a ser considerado consistiu na tendência
destes materiais à aglomeração, devido a força magnética entre as partículas.
Segundo a literatura [10], o peso molecular numérico médio (Mn) da resina de
poliuretano (PU) deverá variar entre 8.000 a 52.000, uma vez que pesos moleculares
superiores poderão resultar em problemas no processamento, decorrentes do aumento
da viscosidade da tinta com a redução na solubilidade em DMF. O PU utilizado (Estane
5707-F1 da BFGoodrich) apresentou um Mn de 50.900 e polidispersão (Mn/Mw) de 2,1.
O emprego de espuma de PU foi descartado devido à grande absorção de umidade.
O policloropreno (CR) utilizado foi do tipo W da Du Pont com Mn de 93.000,
polidispersão de 4,76 e densidade de 1,21 g/cm3
2.3. Ensaio de Resistência à Intempéries em Câmara de Névoa Salina
Este ensaio é de suma importância para a avaliação da resistência à intempéries,
objetivando a aplicação como RAM em plataformas militares. Segundo a norma ASTM
B-117-97 [11], os corpos de prova foram expostos por 31 dias a uma atmosfera bastante
agressiva de cloreto de sódio (NaCl), com o objetivo de acelerar o tempo de resposta.
A microscopia eletrônica de varredura (SEM) foi utilizada para observar qualquer
mudança, tal como o aparecimento de microfissuras.
2.4. Microscopia Eletrônica de Varredura (SEM)
Pelo emprego desta técnica tornou-se possível a visualização da dispersão das
partículas ferrimagnéticas nas matrizes políméricas, bem como da morfologia do
compósito antes e após o ensaio de névoa salina.
2.5. Medidas de Refletividade em Câmara Anecóica
A avaliação do desempenho como RAMs foi realizada pelas medidas de refletividade
(dB) empregando-se o método de Transmissão/Reflexão (T/R) em câmara anecóica
para a faixa de freqüência de 8 a 16 GHz. Os corpos de prova à base de CR, utilizados
sob a forma de tapetes elastoméricos com dimensões de 10 x 10 x 0,15 cm. A tinta de
hexaferrita de bário com poliuretano (PU) foi aplicada com 1,0 mm de espessura sobre
uma placa de alumínio com as mesmas dimensões.
3. Resultados
A Tabela 1 ilustra um estudo comparativo entre as diferentes formas de aplicação
utilizadas.
Pesquisa Naval Nº 16, Outubro de 2003
77
Tabela 1- Vantagens e desvantagens das diferentes formas de aplicação
A individualização das partículas de hexaferrita de bário dopada com Co e Ti (CoTiBaHF) na matriz de CR para o compósito 80:20 de Co-TiBaHF:CR pode ser vista na
Figura 1.
Figura 1 – Microscopia eletrônica de varredura para a composição 80:20
de Co-TiBaHF:CR com aumento de 3500 vezes
Pela análise da Figura 1 pode-se observar a íntima incorporação das partículas de
Co-TiBaHF na matriz de CR, apesar do elevado carregamento empregado (80 % em
78
Pesquisa Naval Nº 16, Outubro de 2003
peso). Tal comportamento pode ser atribuído à adsorção do polímero na superfície das
partículas sólidas, que propicia uma maior dispersão das partículas magnéticas, devido
principalmente à repulsão por impedimento estérico.
A Figura 2 ilustra a dispersão das partículas de Co-TiBaHF na matriz de PU, tendo
sido observada uma maior tendência à floculação do tipo rede (network) em relação à
matriz elastomérica. Esta estrutura do tipo rede é característica de resinas poliuretânicas
de alto peso molecular (Mn) [10]. A tendência à aglomeração devido a força magnética
entre as partículas de Co-TiBaFH é amenizada pelas etapas de pré-dispersão e dipersão,
utilizando solventes polares tais como dimetilformamida (DMF)
Figura 2 - Microscopia eletrônica de varredura para a composição 80:20 de
Co-TiBaHF:PU
Pelo exposto, a dispersão desta carga ferrimagnética nas diferentes matrizes
poliméricas representa a principal variável de processamento, uma vez que ela pode vir
a alterar as propriedades finais do produto, devido principalmente à aglomeração das
partículas.
Pesquisa Naval Nº 16, Outubro de 2003
79
A Figura 3 ilustra as curvas de refletividade (dB) para as composições 80:20 de
(a) Co-TiBaHF:CR e (b) Co-TiBaHF:PU.
Figura 3– Curvas de refletividade para os compósitos 80:20 de (a) Co-TiBaHF:CR
e (b) Co-TiBaHF:PU em relação à (c) placa metálica.
Pelos resultados apresentados, observou-se uma maior absorção de microondas
para o compósito 80:20 de Co-TiBaHF:CR, que pode ser atribuída a maior dispersão
destas partículas no elastômero, uma vez que foi observada uma tendência à floculação
do tipo rede (“network”) para o compósito de Co-TiBaHF:PU. A formação desta rede
prejudica a absorção de microondas, em decorrência do aparecimento de regiões isentas
de partículas, responsáveis por uma maior heterogeneidade destes materiais.
Para o compósito Co-TiBaHF:CR foi observado um deslocamento do pico de
absorção de microondas para uma freqüência mais baixa, que pode ser atribuído a
maior espessura utilizada (1,5 mm) [1].
80
Pesquisa Naval Nº 16, Outubro de 2003
4. Conclusões
A melhor dispersão das partículas de Co-TiBaHF na matriz de CR, resultou na
obtenção de RAMs mais homogêneos, com conseqüente, maior absorção de
microondas para a freqüência de aproximadamente 14,3 GHz. Deste modo, é
recomendável a otimização do processo de dispersão da tinta podendo-se, por exemplo,
utilizar uma resina poliuretânica de mais baixo peso molecular (Mn), com o intuito de
minimizar a formação da estrutura do tipo rede.
Agradecimentos:
Os autores agradecem à equipe técnica da Indústria de Tintas Renner S.A.
5. Referências Bibliográficas
1. PINHO M. S.- Dsc. Tese- Instituto de Macromoléculas Prof. Eloisa Mano, UFRJ,
2002. “Materiais absorvedores de radiação eletromagnética em matrizes de
policloropreno” , pp 550.
2. LIMA R. C. – Msc Tese- Programa de Materiais e Metalurgia da COPPE, UFRJ, 2002.
“ Efeito da substituição de bário por lântânio-sódio nas propriedades absorvedoras de
microondas da hexaferrita de bário do tipo M”, pp100.
3. DEVEREUX, T. Defence Attaché 1986; 34.
4. TAKEDA K. FUJIKI K. - Patente Americana, 6,093,486, Japan, 2000 - “Magnetic
recording medium and magnetic paint therefor”: 39-44.
5. YAMAKAWA M. NAKAMURA E.- Patente Americana, 4,851,465, Japan, 1989 –
“Resin for magnetic paint”.
6. JEON K. S. LANE A. M. Journal of Magnetism and Magnetic Materials. 1999; 193:
300-302
7. INOUE H. FUKKE H. AKAGI M. KATSUMOTO M. Journal of Magnetism and
Magnetic Materials. 1993; 118: 263-270.
8. BISCARO R. S. BOTELHO E. C. TAKAHASHI M. F. K. FAEZ R. REZENDE M.
Polímeros: Ciência e Tecnologia 2002, 12: 318-327.
9. POTANIN A. A. SHRAUTI S. M. ARNOLD D. W. LANE A. M. J. Rheol. 1997;
41(6): 1337-1347.
10. PIAO M. LANE A. M. NIKLES D. E.
http://bama.ua.edu/~mint/Fall2001/Fall2001posters/33PiaoSony.pdf
11. American Society for Testing and Materials, vol. 03.02, Philadelphia, 2001- Método
ASTM B 117-97, “Standard test method of salt spray (fog) testing”.
VII
Capítulo
ESTUDO DA CINÉTICA DE SINTERIZAÇÃO DO SISTEMA UO2-Gd2O3
Thomaz Augusto Guisard Restivo, M.Sc.
CF(EN) Luciano Pagano Jr.
Centro Tecnológico da Marinha em São Paulo-Aramar
Estrada Sorocaba Iperó km 12,5, Iperó, SP 18560-000
[email protected], tel: 55-15-2298103
Resumo
A sinterização de pós UO2-7%Gd2O3 é investigada através de dilatometria
convencional e método SID (Stepwise Isothermal Dilatometry). Foram preparadas 4
tipos de amostras: (a) mistura simples, (b) mistura sob atmosfera controlada, (c)
aditivada com Al(OH)3 e (d) pó co-precipitado. A dilatometria convencional revela
uma barreira de sinterização que atrasa a densificação nas amostras a, b e c. A
adição de Gd como segunda fase favorece a sinterização até 1050°C. O aditivo
Al(OH)3 reduz a intensidade da barreira, deslocando-a para maiores temperaturas.
A taxa de retração do pó co-precipitado mostra um aumento lento, porém constante,
até 1510°C. Energias de ativação são calculadas pelo método SID na faixa 221-289
kJ/mol até 1100°C. O parâmetro n varia em ampla faixa e atinge valores baixos,
indicando que o mecanismo de sinterização é complexo. A barreira de sinterização
não está sempre relacionada com a elevação da energia de ativação ou com a
redução do parâmetro n.
Palavras-Chave: cinética, sinterização, UO2, dilatometria, SID
Abstract
The sintering of UO2-7w%Gd2O3 powders is investigated using conventional
dilatometry and stepwise isothermal dilatometry-SID. Four batches were prepared:
(a) dryly mixed, (b) under controlled air humidity, (c) with Al(OH)3 additive, and (d)
co-precipitated powder. Conventional dilatometry reveals a sintering barrier that
82
Pesquisa Naval Nº 16, Outubro de 2003
delays the densification for batches a, b and c. The Al(OH)3 addition reduces the
barrier intensity and shifts it towards higher temperatures. The addition of Gd, as a
second phase, enhances the sintering kinetics up to 1050°C. The co-precipitated
powder shows a low, but steadily increasing, shrinkage rate up to 1510°C. The
activation energies are calculated using the SID method and are found to be in
range of 221-289kJ/mol up to 1100°C. The kinetic parameter n varies over a wide
range and reaches low values, indicating that the sintering mechanism is complex.
The sintering barrier is not always related to the activation energy increase or to the
reduction of the parameter n.
Key-Words: sintering, kinetics, UO2, dilatometry, SID
Introdução
O gadolínio tem sido muito empregado na indústria de combustíveis nucleares
como veneno queimável, respondendo à demanda de maior período e altas taxas de
queima (Manzel e Dörr, 1980, Assmann et al., 1984, Une e Oguma, 1985, Yuda e Une,
1991). O processo industrial mais disseminado utiliza a mistura de pós componentes
onde a etapa de sinterização é determinante para a obtenção de altas densidades
requeridas pelas especificações. No presente trabalho, são sinterizadas pastilhas
obtidas a partir de pós submetidos a diferentes processos, empregando dilatometria
convencional e “stepwise isothermal dilatometry” (SID). Os parâmetros cinéticos
determinados pela segunda técnica conduzem a uma maior compreensão do
comportamento do sistema UO2.Gd2O3 durante a sinterização.
Metodologia
O pó de UO2 utilizado em todas as amostras foi obtido por redução do tricarbonato
de amônio e uranilo (TCAU) em leito fluidizado, resultando em teores de impurezas
menores que 150ppm, superfície específica (BET) de 5,8m2/g, tamanho médio de partícula
de 7,4µm (Sedigraph) e relação O/U de 2,12. O pó de Gd2O3 é de grau comercial (99,8%),
superfície específica (BET) de 4,6m2/g e tamanho médio de partículas de 3,3µm
(Sedigraph).
Quatro lotes de amostras foram preparados (% em massa): (a) mistura simples
UO2.7%Gd2O3; (b) mistura UO2.7%Gd2O3 sob umidade controlada; (c) mistura
UO2.7%Gd2O3 com adição de 580ppm de Al(OH)3; e (d) UO2.7%Gd2O3 co-precipitado.
As misturas foram compactadas em prensa com matriz flutuante em pressões entre 350
e 400MPa. As densidades a verde obtidas concentraram-se na faixa 51-53% da
densidade teórica. Todas as amostras foram sinterizadas em atmosfera de H2 com
pureza de 99,999%, vazão de 200mL/min, empregando um TMA/dilatômetro vertical
(Setaram Setsys 24) sob carga de 1g. Foram conduzidos dois grupos de experimentos:
dilatometria convencional com taxa de aquecimento de 10°C/min até 1700°C com patamar
de 3h e os testes SID para os lotes b, c e d.
Os lotes a e c foram preparados em homogeneizador Turbula com 32rpm por
12h. O lote b foi preparado em atmosfera controlada mantida em uma “glove box”, sob
Pesquisa Naval Nº 16, Outubro de 2003
83
ar com 30% de umidade relativa, enquanto que o valor médio no laboratório situava-se
em 65%. Neste caso, os pós de partida, UO2 e Gd2O3, foram secos em estufa antes do
manuseio. Após sofrer mistura prévia, o pó foi homogeneizado em moinho Turbula
sob N2 por 60min.
O material co-precipitado foi obtido pela dissolução de UO2 (ex-TCAU) e Gd2O3
em ácido nítrico 1N, adicionando hidróxido de amônio. O pó de diuranato de amônio
(DUA) resultante foi então calcinado ao ar a 900oC por 3h, reduzido sob H2 em leito fixo
a 600°C e passivado em N2/ar. Após o tratamento, o pó apresentou BET de 6,1m2/g e
tamanho médio de partícula de 4,9µm (difração a laser).
Resultados e discussão
A Figura 1 apresenta as curvas de densificação obtidas para todos os lotes,
evidenciando a taxa de retração (%/min), em função da temperatura. A curva de
densificação do UO2 puro foi incluída para comparação.
2
0
-2
% -4
ret -6
-8
raç -10
ão -12
-14
-16
-18
-20
0
%/
mi
n
0,2
0,1
0,0
-0,1
-0,2
-0,3
-0,4
-0,5
-0,6
-0,7
-0,8
200
400
600
800
1000 1200 1400
1210
lote a
lote b
lote c
lote d
UO2 puro
1385
1030
1100
1395
0
200
400
600
800
1000 1200 1400
T (°C)
Figura 1. Retração e taxa em função da temperatura
84
Pesquisa Naval Nº 16, Outubro de 2003
De acordo com a Figura 1, observa-se que as taxas de retração sofrem
diminuição, atribuída às barreiras de sinterização, cujas faixas de temperatura estão
assinaladas. A maior densificação foi atingida no lote d, que apresentou densidade de
10,02g/cm3. Enquanto que a barreira de sinterização ocorreu antecipadamente para o
lote c, i.e., em baixas temperaturas, um efeito contrário foi registrado para o lote d. Em
ambos os casos, a barreira de sinterização não reduziu a taxa em demasiado, em
comparação aos outros lotes. As barreiras para os lotes c and d também atuaram por
intervalos de tempo e temperatura menores. A taxa máxima de sinterização foi registrada
para o lote c (–0,7%/min) a 1500°C.
Objetivando estudar com maiores detalhes a cinética de sinterização,
experimentos SID foram conduzidos em pastilhas a verde dos lotes b, c e d (o lote a não
foi ensaiado devido à sua similaridade com o lote b).
Um experimento SID típico é mostrado na Figura 2. Desenvolvido por Sørensen
(1981, 1992), o método SID tem produzido bons resultados quanto à determinação de
parâmetros cinéticos: energia de ativação e parâmetro n, este último relacionado com
o mecanismo de transferência de massa. O método estabelece isotermas enquanto que
a taxa de retração é mantida em faixa estreita. Os dados adquiridos em cada isoterma
fornecem informações sobre o mecanismo de sinterização.
200
T
0
-200
-400
-600
∆ L (µm)
-800
-1000
-1200
-1400
-1600
-1800
-2000
-2200
-2400
0
10000
20000
30000
40000
tempo (s)
Figura 2. Curva de densificação do ensaio SID forçado para o lote b.
Pesquisa Naval Nº 16, Outubro de 2003
85
O parâmetro cinético n pode ser interpretado de forma análoga à ordem de
reação da teoria de cinética química, dependendo inversamente do padrão de difusão
ou da geometria de contatos de partículas, para o caso de sinterização.
O método SID “forçado” (Sørensen, 1992) é empregado nesse trabalho,
estabelecendo isotermas a cada 50°C, enquanto a taxa de retração não é controlada.
A equação cinética básica que relaciona a retração com o tempo é:
y = ∆L/Lo = [K(T).t]n
(A)
Onde K(T) é a constante de velocidade específica dependente da temperatura
e parâmetro n. A forma diferencial da equação (A) é:
ln(dy/dt)= ln[n.K(T)]-(1/n-1)lny
(B)
Em cada isoterma, o gráfico ln(dy/dt) versus lny tem inclinação n, enquanto que
os valores de K(T) são calculados pelo coeficiente linear, o qual obedece a relação de
Arrhenius:
K(T) = A.exp(-Q/RT) ⇒ ln[K(T)] = lnA - Q/RT,
(C)
A partir do gráfico ln[K(T)] × 1/T, pode-se determinar a energia de ativação Q.
Substituindo na equação (A) a retração linear relativa ∆L/Lo pela retração volumétrica
relativa (Vo-Vt)/(Vt-Vf), desenvolve-se uma equação normalizada (Wang et al., 1998):
dY/dt = nK(T)Y(1-Y)[(1-Y)/Y]1/n
(D)
Onde Y/(1-Y) = (Vo-Vt)/(Vt-Vf) = (Lo3-Lt3)/(Lo3-Lf3), assumindo o processo de
sinterização como isotrópico (os subscritos o, t e f representam os valores dimensionais
no início, no tempo t e no final da sinterização). O comportamento isotrópico é
especialmente válido em se utilizando um TMA/dilatômetro vertical, onde a carga
sobre a pastilha pode ser ajustada a níveis tão baixos quanto 1g. O gráfico ln{(dY/
dt)[1/Y(1-Y)]} versus ln[(1-Y)/Y] produz uma linha reta em cada isoterma, de onde K e
n podem ser calculados (Trummler e Thomma, 1967, Wang et al., 1998). Para cada lote
foram construídas as respectivas curvas de Ahrrenius, de acordo com as Figuras 3 a 5.
Os números incluídos em cada gráfico indicam as etapas isotérmicas, enquanto que as
cruzes são os pontos de temperatura das isotermas, referidos ao eixo direito.
86
Pesquisa Naval Nº 16, Outubro de 2003
Figura 3. Energias de ativação para a sinterização, lote b
0
14
-2
-4
-6
13
20
18
2119 16
12
11
17
ln K
-8
671 kJ/mol
15
10
9 8
-10
7
6
-12
289 kJ/mol
-14
5
4
-16
0,0005
0,0006
0,0007
0,0008
3
2
1
0,0009
-1
1/T (K )
Figura 4. Energias de ativação para a sinterização, lote c
Pesquisa Naval Nº 16, Outubro de 2003
-4
-6
20 1716
22 18
15
21
14
-8
19
12
13 659 kJ/mol
-10
ln K
87
11
-12
10
9 7 6
5
8
4
-14
-16
221 kJ/mol
-18
0,0005
0,0006
0,0007
3
0,0008
2
0,0
-1
1/T (K )
Figura 5. Energias de ativação para a sinterização, lote d
As energias de ativação para UO2 puro sinterizado sob atmosferas de H2 são
reportados na literatura (Bannister e Buykx, 1977, Sayed et al., 1982, Une, 1988, Restivo
e Sørensen, 2000, Dehauldt et al., 2001). Mesmo ocorrendo certa variação entre os
autores, o valor 348kJ/mol (Restivo e Sørensen, 2000) foi usado como referência para a
comparação com os lotes b, c e d. Esta referência foi obtida com o mesmo pó de UO2
empregado no presente trabalho, através do método SID. Está também em concordância com o valor 390kJ/mol obtido por Sayed (1982), utilizando a mesma técnica, e
próximo ao valor 377kJ/mol proposto por Une (1988).
Os parâmetros cinéticos n, estão listados na Tabela 1 para os lotes b, c, d e
para UO2 puro (Restivo e Sørensen, 2000).
88
Pesquisa Naval Nº 16, Outubro de 2003
Tabela 1 – Parâmetro cinético n, dependência na temp
T (°C)
lote b
lote c
lote d
T (°C)
800
0,531
0,490
0,754
850
0,388
0,394
0,432
900
0,375
0,334
0,367
950
0,312
0,288
0,354
1000
0,281
0,276
0,291
1050
0,247
0,283
0,255
1100
0,194
0,265
0,209
1084,5
1150
0,137
0,177
0,151
1141,0
1200
0,103
0,104
0,153
1197,5
1250
0,072
0,089
0,188
1251,5
1300
0,067
0,076
0,237
1276,7
1350
0,089
0,066
0,285
1359,5
1400
0,142
0,068
0,294
1450
0,290
0,418
0,297
1500
0,455
0,221
0,358
1550
0,616
0,847
0,587
1600
0,716
0,558
0,564
1438,5
No início da sinterização (800-1100°C), as energias de ativação para os 3
lotes ensaiados (240, 289 e 221kJ/mol para os lotes b, c e d) são menores que o valor de
referência para UO2 puro (348kJ/mol), sugerindo que a gadolínia favorece a sinterização
em baixas temperaturas. A adição de Al(OH)3 (lote c) parece aumentar a energia de
ativação nas faixas de baixa e alta temperatura, embora tenha retardado o início da
barreira de sinterização e reduzido sua duração, segundo a Figura 1. Possivelmente, a
mudança para menor inclinação entre as isotermas 7 a 9 (Figura 4) represente algum
processo favorável, suspendendo temporariamente a formação da barreira. A adição
de gadolínia co-precipitada (lote d) causa uma diminuição na taxa de retração, apesar
da menor energia de ativação determinada. Porém, o aumento da taxa é verificado até
altas temperaturas. Todos os lotes mostraram um forte aumento nas energias de ativação
em altas temperaturas, relacionado com o surgimento da barreira de sinterização, o que
tem sido reportado (Manzel e Dörr, 1980). Deve-se salientar que o modelo empregado
no tratamento dos dados tende a não representar o processo em temperaturas muito
elevadas, onde se nota uma dispersão dos pontos (Bellon, 1991).
Pesquisa Naval Nº 16, Outubro de 2003
89
O processo de sinterização pode ser examinado através do parâmetro n. A
Tabela 2 relaciona os mecanismos atuantes aos valores de n possíveis, referente ao
íon mais lento que difunde pelo caminho mais rápido (Trümmler e Thomma, 1967).
Quanto menor o valor deste parâmetro, mais complexa a geometria de contatos e, por
conseguinte, o esquema de difusão (Meng e Sørensen, 1989). A difusão através do
contorno de grão é o mecanismo predominante para os lotes contendo gadolínia,
enquanto que para UO2 puro, a difusão volumétrica governa o processo. Para os lotes
b e c, o parâmetro n sofre rápida queda a partir de 0,3-0,4 para valores muito baixos,
desde 1150°C, retornando a valores esperados a 1450°C. Tal fato sugere a ocorrência
de alguma reação paralela, como o coalescimento de partículas (Balakrishna et al.,
2001), coincidente com o decréscimo da taxa de sinterização.
Tabela 2. Parâmetro cinético n e mecanismos de transporte pr
Mecanismo de transferência de massa predominante
Parâm
Difusão superficial
Difusão em contorno de grão
Difusão volumétrica
Evaporação – condensação
Fluxo visco-plástico
(*) Trummler e Thomma, 1967
Os resultados demonstram que a sinterização do sistema UO2.Gd2O3 é complexa,
evidenciado pela grande variação do parâmetro n, contrastando com trabalhos
anteriores para cerâmicas a base de Al2O3 (Restivo e Sørensen, 2000). No presente
caso, os mecanismos de sinterização podem ser inferidos considerando todos os
parâmetros em conjunto: energias de ativação, parâmetro n e temperaturas de
dilatometria convencional. Na realidade, os parâmetros são interdependentes, atuando
no estabelecimento da taxa de sinterização. Um exemplo é o lote d, co-precipitado:
embora iniciando o processo com energia de ativação baixa (221kJ/mol), esta aumenta
em alta temperatura para o maior valor encontrado (660kJ/mol); no entanto, a taxa de
retração continua a aumentar lentamente, o que está possivelmente ligado à queda
pouco acentuada do parâmetro n (geometria menos complexa).
Conclusões
1.
O processo de sinterização do sistema UO2-7%Gd2O3 (em massa) é fortemente
afetado pela rota de preparação dos pós. A adição de gadolínia como segunda fase
(misturas) favorece a sinterização durante o primeiro estágio (até cerca de 1050°C),
evidenciado por maiores taxas de retração e menores energias de ativação, comparado
com UO2 puro. A taxa de retração é reduzida em maiores temperaturas, caracterizando
uma barreira de sinterização.
90
Pesquisa Naval Nº 16, Outubro de 2003
2.
A adição de Al(OH)3 (lote b) reduz os efeitos da barreira de sinterização.
3.
Pastilhas obtidas com pó co-precipitado (lote d) não apresentaram quaisquer
barreiras até 1450°C. Por outro lado, a taxa de retração mostra um aumento lento
progressivo, aproximando-se do comportamento do UO2 puro. A densidade máxima
foi obtida neste caso.
4.
O método cinético SID demonstrou um aumento agudo das energias de ativação
em torno de 1100°C, o que indica mudança no mecanismo controlador.
5.
O parâmetro cinético n sofreu grande variação com a temperatura, indicando o
caráter complexo do processo. A menor queda registrada para o lote d indica que o
processo de difusão é menos complexo, o que, em última análise, mantém uma taxa de
retração elevada em uma faixa mais ampla de temperaturas.
Agradecimentos
Os autores manifestam seus agredecimentos aos engenheiros Nestor Fogaça
Filho, Márcio Lima e ao Dr. O. T. Sørensen pelas valiosas discussões, reconhecendo
ainda o apoio da Agência IAEA pela concessão do Projeto de Pesquisa BRA/4/052.
Referências bibliográficas
MANZEL, R. e DÖRR, W. O. Am. Ceram. Soc. Bulletim 1980; 59 (6): 601.
ASSMANN, H., DÖRR, W. O. e PEEHS, M. J. J. Am. Ceram. Soc. 1984; 67 (9): 631.
UNE, K. e OGUMA, M. J. Nucl. Mater. 1985; 88:131.
YUDA, R. e UNE, K. J. Nucl. Mater. 1991; 178: 195.
S∅RENSEN, O. T. J. Thermal Analysis 1992; 38: 213.
S∅RENSEN, O. T. Thermochim. Acta 1981; 50: 163.
WANG, H., LIU, X., CHEN, F., MENG, G. e S∅RENSEN, O. T. J. Am. Ceram. Soc. 1998;
81 (3): 781.
TRÜMMLER, F. e THOMMA, W. Metal. Reviews 1967; 12 review 115: 69.
BANNISTER, M. J. e BUYKX, W. J. J. Nucl. Mater. 1977; 64: 57.
SAYED ALI, M. E., S∅RENSEN, O. T. e HALLDAHL, L. J. J. Thermal Analysis 1982;
25: 175.
UNE, K. J. Nucl. Mater. 1988; 158: 210.
RESTIVO, T. A. G. e S∅RENSEN, O. T. Estudo da Cinética de Sinterização por
Dilatometria Quasi-isotérmica. 2o Congresso Brasileiro de Análise Térmica e
Calorimetria., Poços de Caldas, SP, Brazil, 09-13 abril, 2000.
DEHAULDT, P., BOURGEOIS, L. e CHEVREL, H. J. Nucl. Mater. 2001; 299: 250.
BELLON, O. Technical Report, Riso National Laboratory - ENSCI, Denmark, 1991.
MENG, G. e S∅RENSEN, O. Technical Report I-455, Riso National Laboratory, Denmark,
1989.
BALAKRISHNA, P., MURTY, B. N., CHAKRABORTHY, K. P., JAYARAJ, R. N. e
GANGULY, C. J. Nucl. Mater. 2001; 297: 35.
VIII
Capítulo
USING MCDM METHODS IN AN APPLICATION FOR OUTRANKING THE
BALLAST WATER MANAGEMENT OPTIONS
Carlos Francisco Simões Gomes
CASNAV - Email: [email protected]; [email protected]
Abstract
The Multicriteria Analysis Methodology has been developed in order to
support and guide decision-makers in the evaluation and selection of alternatives/
solutions. In this case, it can be used to evaluate and select ballast water exchange
systems and treatment methods.
Key words: Ballast Water, Multicriteria, and Management.
Resumo
As Metodologias de Apoio Multicritério à Decisão vem apoiando os tomadores
de decisão na avaliação, seleção e/ou priorização das alternativas na busca da
solução não dominada para resolução dos problemas.
O presente trabalho mostra uma aplicação real de uma metodologia
multicritério na busca de uma solução para o problema de água de lastro.
1 - Introduction
Each individual is endowed with internal information processing and problemsolving capacity, which varies with time. The human hierarchy of values is depends of
the number of state variables, the human physiological and psychological conditions,
social situation, and self-suggested goals. When a set of Decision Makers (DM) and
a set of objectives exist, the multiobjective decision analysis problem needs to obey
three parameters (Bodily, 1978):
§
Multiperiod – the consequences of a decision are spread over N time periods,
with xt being the consequence x in time period t. For example, xt may be the cash
92
§
§
Pesquisa Naval Nº 16, Outubro de 2003
flow in year t from an investment opportunity. The Stability is a Multiperiod
interpretation.
Multiperson – the consequences are spread over N individuals. For example, xi
may be the investor i share of the partnership profit. EQUALITY is a Multiperson
interpretation. Decision Making problems that we encounter in the real world are
often associated with several individuals or groups whose interests and/or
preferences attitudes are different. In those situations, individual preferences
should be aggregated.
Multivariable – the consequences are spread over several parts of an organization,
over several economic activities, or over several categories of a problem. For
example, xn may be the market share of a product. BALANCE is a multivariable
interpretation.
2 - Decision Maker values
We can suggest some questions to help the DM identify his own values:
What are the feasible alternatives for the decision problem? Can we expand the
feasible set? ; What are the goal functions? ; What is the set of criteria? ; What are the
consequences of the alternatives? ; How do we reduce uncertantainty and the risk? (A
long-lasting consequence of the investment decision creates uncertainties. Ignoring
uncertainties results in a severe oversimplification. Uncertainties create an environment
in which risk attitudes play an important role); How can we ranking the preferences?;
Do we have contingence plans for the undesirable consequences?; Who are the
decision actors? ; Who are the people who may change the outcomes of the decision?;
What are the reliable external information sources?; How do we obtain accurate
information from them?; Are there conflicting interests?.
The individual goals are:
§
Self survival and security, physiological health (right blood pressure, body
temperature and balance of biochemical states), safety and freedom from dangers;
right level and quality of air, water, food, heat, clothes, shelter and mobility,
acquisition of money and other economic goods.
§
Perpetuation of the species: sexual activities, giving birth to the next generation,
family love, health and welfare.
§
Feeling of self-importance: self-respect ans. self-esteem, esteem and respect from
others, power and dominance, recognition, prestige, anchiviement, creativity,
superiority, giving and accepting sympathy and protectiveness.
§
Social approval; esteem and respect from others, affiliation, friendship, conformity
with a desired group, giving and accepting sympathy and protectiveness;
conformity with group ideology, beliefs, attitudes and behaviors.
§
Sensed gratification: sexual, visual, smell, taste, tactile etc.
Pesquisa Naval Nº 16, Outubro de 2003
93
§
Cognitive consistency and curiosity: consistency in thought and opinions,
exploring ans. acquinings knowledge, truth ans. Religion.
§ Self-actualization: the ability to accept and depend on the self, o relies on one’s
own standard, to cease identifying with others, to aspire to the “ego-ideal’.
Vind (2000) proved that pre-order on a set of functions can be represented by the
expect value of a utility function was an independence condition, and a similar result
assuming that preferences were defined on a space which could be interpreted as a set
of probability measures. Knoblauch (2000) prove the nonexistence of representation
via lexicographic orders for all preference relations.
3 - Group Values
In a group of DM we have the degree of importance of each individual member of
the group; the values for the attributes of the alternatives for each member of the
group; and the coefficient vector of the additive utility function of each individual.
The final goal for the group decision making process is to aggregate mutually
conflicting individual preferences into a group preferences and to decide an alternative
to be chosen by the group. The context of group discussion includes Negotiation,
which must take into account the following questions: Is the habitual domain of a one
group able to absorb the habitual domains from other group?; What are the common
interests and the conflicting interests? ; Can we emphasize the common goals to
encourage co-operation and reduce competition? ; Can we introduce news players, or
change the rules, or can we influence the players in order to change the situation
favorable to us? ; Can we form coalition?
Karni and Safra, (2000) propose by Harsanyi´s Theory (Harsanyi, 2000) that exist
two preference relations, one representing the individual choice behavior among socialalternatives lotteries and the second representing moral value judgment, being the
preference relation of an impartial observer on the set of extended lotteries. Harsanyi
(Harsanyi, 2000) assumes that the two preference relations satisfy the axioms of expected
utility theory. Karni and Safra (2000) proved that the impartial observer’s preference
relation may be viewed as a fair and reasonable procedure of aggregating individual
preferences into a social preference relationship.
4 - The Multicriteria Decision Making (MCDM) methodology
The literature about MCDM is vast and can be found in, for example, “ Vincke,
Philippe, 1992, Multicriteria Decision-Aid. Ed. John Wiley & Sons, Inc”, and “ Roy,
Bernard, Bouysson, Denis, 1993, Aide Multiple a la Decision: Methods et cas, Ed.
Econômica, France”. The Multicriteria methodology accepts the following basic
assumptions:
•
•
Complexity of the decision-making process, which involves many parties that
define the relevant aspects of such process;
Inherent subjectivity of each party’s opinion (value judgement);
94
•
•
Pesquisa Naval Nº 16, Outubro de 2003
Acknowledgement of the limits of objectivity and due consideration of the
subjectivity;
Inaccuracy due to the fact that the problem has not been clearly defined.
An understanding of the relationship between current decisions and future
outcomes is crucial for the analysis of economic growth, the role for saving and
investment, the properties of asset markets, and other important topics (Noussair,
2000). Considering, for example, the investment decision in a global economic world,
with many influences changing the environment, we can assume that: decisions are
nonrepetitive; the criteria for evaluating the investment alternative are subjective, and
they can be defined by the DM; and the alternatives can be evaluated by criteria,
using a scale; the DM must choice the best scale for each criteria/alternative.
Economic constraints often push us to make difficult choices within a limited
budget. This choice is rarely unique (Varlan, 1999). There is no one DM but several
decision actors, who can be affect or not by the decision. Multicriteria Analysis is
adapted for selection the optima strategy because:
•
The actors have a set of tools which permit modeling the decision process;
•
Models utilizing probabilities of success, risk, measurements of benefits or utility
are helpful to guide the manager, but they only work for a limited number of cases,
when the distributions are know; and
•
The high number of parameters and the different possibilities for the weights.
We can use many MCDM methods in economics or market, for example:
Outranking methods: that use concordance index to measures the intensity of the
agreement between that average opinions of the group of decision makers, and the
discordance index which measures the intensity of the disagreement between the
average opinions of the group of decision makers; and Utility Theory and Perspective
Theory: one incompleteness market cause price fluctuations in financial markets (Calvet,
2001); or Project finance or project financing involves performing a set of security
arrangements to reduce risk in large infra-structural investments (Ballestero, 2000).
Next, we are going to use the MCDM technique in a problem of the real world. The
following section will describe the use of the MCDM as a toll to choose the best
ballast water treatment system.
5 - Example application of the MCDM methodology
5.1 - Ballast water (BW) treatment options - the problem:
The introduction of invasive marine species into new environments by ships’
ballast water, attached to ships’ hulls and via other vectors has been identified as one
of the four greatest threats to the world’s oceans. The other three are land-based
sources of marine pollution, overexploitation of living marine resources and physical
Pesquisa Naval Nº 16, Outubro de 2003
95
alteration/destruction of marine habitat. Shipping moves over 80% of the world’s
commodities and transfers approximately 3 to 5 billion tonnes of ballast water
internationally each year. A similar volume may also be transferred domestically within
countries and regions each year. Ballast water is absolutely essential to the safe and
efficient operation of modern merchant ships, providing balance and stability to
unloaded ships. However, it may also pose a serious ecological, economic and health
threat.
Observation: Ballast is any material used to weight and/or balance an object. One
example is the sandbags carried on conventional hot-air balloons, which can be
discarded to lighten the balloon’s load, allowing it to ascend. Ballast water is therefore
water carried by ships to ensure stability, trim and structural integrity. Ships have
carried solid ballast, in the form of rocks, sand or metal, for thousands of years. In
modern times, ships use water as ballast.
(http: //globallast.imo.org/index.asp?page=problem.htm&menu=true). It is estimated
that at least 7,000 different species are being carried in ships’ ballast tanks around the
world. The vast majority of marine species carried in ballast water do not survive the
journey, as the ballasting and deballasting cycle and the environment inside ballast
tanks can be quite hostile to organism survival. Even for those that do survive a
voyage and are discharged, the chances of surviving in the new environmental
conditions, including perdition by and/or competition from native species, are further
reduced. However, when all factors are favourable, an introduced species by survive
to establish a reproductive population in the host environment, it may even become
invasive, out-competing native species and multiplying into pest proportions. (http: /
/globallast.imo.org/index.asp?page=problem.htm&menu=true). As the situation is
become more and more serious, the International Maritime Organization (IMO) has
sponsored international meetings to found out courses of action to meet this challenge,
where the subject is discussed by the IMO Member States.
5.2 - MCDM in the Ballast Water Problem
The system proposed by this paper to use on IMO is based on the algorithm
THOR, which has been the subject of a presentation given at the Symposium of the
International Federation of Operational Research Societies (IFORS), 2002, in Edinburgh.
This paper submits a methodology of outranking ballast water treatment options. A
result of the application of this methodology will be the indication, consensually, of
the best treatment system. When applied to group’s decisions, the MCDM allows
individual preferences (in this case represented by the proposals submitted by IMO
Member States) to be combined in such way that it results in a group decision. The
THOR system, which uses the MCDM, has a module that allows the group to reach a
96
Pesquisa Naval Nº 16, Outubro de 2003
decision through the exchange of views of the group members, from which the
negotiation around the acceptable proposals starts (i.e. around the preliminary accepted
BW treatment and exchange methods).
Figure 1 – Ballast water cycle
The Multicriteria aid helps the decision making process by incorporating the
value judgement of the IMO Member States taking into account their preferences and
interpreting the procedure as a learning process. Thus, it helps to select the best
ballast water exchange and treatment methods. In order to apply this methodology to
the case under consideration, relevant factors have been identified. They are
Practicability; Biological effectiveness (including pathogens); Cost/benefits; Time
frame within which the standards could be practically implemented; environmental
impact of the process’ sub-products.
Pesquisa Naval Nº 16, Outubro de 2003
97
5.2.1 - Criteria application
The detailed criteria, referring to the relevant factors identified, for quantitative
measuring in association with a nominal scale or description, are reproduced in
paragraph 5.2.2) Questions. They are numbered from 1 to 26. Each criteria presented
shall be analyzed and represented using quantitative measuring. It can be done by
assign a value in a nominal scale, by a value attributed to a yes or no answer, or by a
description. For this study the following was adopted:
(a) Restriction (veto criterion) – the system to be incorporated or selected shall not
present any restrictions unacceptable.
(b) All criteria have the same weight.
(c) Undesirable outcomes are taken with negative values as well as those that have a
negative impact with higher absolute values. According to that:
• In the items 3, 5, 20-24 and 25, negative values are assign for the lowest desirable
feature;
• In the items 8 to 13, 17, 18, 19 and 26, where the answers should be either “Yes” or
“No”, a value of 1 was assigned to a “Yes” answer (desirable) and a value of 0 to
a “No” answer (undesirable);
• In the items 6, 7 and 14, verbal (or nominal) scales associated to a numerical scale
have been created for test purposes.
5.2.2) Questions
a) Practicability
a.1) Quantitative Criteria
1 - at what ballast flow rate range is the system applicable? (m3/hour) (Specify
the minimum and maximum flow rate); 2 - what is the ship tonnage that the system can
be applied to? (DWT) (Specify the minimum and maximum tonnage) ; 3 - what is the
additional workload on board? (man/hours) ; 4 - what is the highest sea state (in the
Beaufort wind scale) on which the system can operate? ; 5 - what is the increase in
tank’s sediment caused by the system? (specify percentage)
a.2) Questions that need to be answered by a nominal scale, subject to
association to a numerical scale of intervals or by a yes/no answer
6 - does the system present any risks to the ship’s crew safety or to the crew? (−
3, high risk; −2, medium risk; −1, low risk; 0, no risk) ; 7 - does the system affect the
tanks’ corrosion rate? (−2, increases the rate; −1, does not increase the rate; 0,
reduces the rate) ; 8 - does the system dispense with the need to keep chemical
products on board? (Yes or No) ; 9 - can the system be used in short voyages (up to
12 h)? (Yes or No) ; 10 - can the system be operated without complete re-circulation
of the ballast water? (Yes or No) ; 11 - is the system unaffected by incrustation that
could lead to a drop in pressure and/or to a reduction in the flow rate? (Yes or No) ;
98
Pesquisa Naval Nº 16, Outubro de 2003
12 - is the system be applicable to existing ships? (Yes or No) ; 13 - are the ship’s
other functions independent from the system’s operation? (Yes or No)
a.3) Questions that require detailed answers
14 - does the system present any occupational hazard to the operator? Describe
and quantify. (−3, high; −2, medium; −1, low; 0, no hazard).
b) Biological effectiveness (including pathogens)
b.1) Quantitative Criteria
15 - how effective is the system in relation to the removal, elimination and
inactivation/neutralization of aquatic organisms, apart from pathogens
(according to the various taxonomic groups)? (quantify in terms of percentage,
size and/or concentration of organisms) ; 16 - same as 15 for pathogens.
b.2) Questions for which the answers should be either Yes or No
17 - does the system eliminate cysts? ; 18 - does the system allow the elimination
of organisms when the water enters the tank? ; 19 - is the system adequate for the
elimination of all species or life stages that may present a hazard to the environment?
c) Cost-benefits
c.1) Quantitative Criteria: 20 - what is the purchase cost? (US$) ; 21 - what is
the cost of installation? (US$) ; 22 - what is the operational cost? (US$/ton) ; 23 - what
is the cost variation per ship size? (US$/ton) ; 24 - what is the increase of fuel or oil
consumption that is introduced by the use of this system on board? (Percentage)
d) Time frame within which the standards could be practically implemented
d.1) Quantitative Criteria
25 - within which time frame could the standards be practically implemented?
(Months)
e) Impact of the system’s sub-products on the environment
e.1) Question for which the answer should be either Yes or No
26 - is the system free from generating sub-products that can have an impact on
the environment?
5.2.3) Example of the MCDM Application
Table I presents an example utilization of this method using three management
methods. It is difficult, in the following table, to find out the best management method.
This problem becomes even more complicated if we consider that there are several
ballast water treatment methods currently being discussed at IMO and not just the
three ones used as example.
Pesquisa Naval Nº 16, Outubro de 2003
99
Table I - Alternatives and Criteria
Criteria Management Method Management Method Mana
1
2
Maximum 14,000
Ma
Maximum 15,000
1
m3/hour
m3/hour
Minimum 100 m3/hour Minimum 200 m3/hour Minim
Maximum 450,000
Maximum 350,000
Max
2
DWT
DWT
DWT Minimum 350
Minimum 450 DWT
DWT
3
4
90 man/hours
7
80 man/hours
8
5
6
10%
12%
−1
−2
7
8
−2
1
−1
1
9
10
1
1
1
1
11
12
0
0
1
1
13
14
0
0
0
15
93 %
−1
92 %
16
17
90 %
1
88 %
0
18
19
1
0
0
1
20
21
US$ 200,000.00
US$ 10,000.00
US$ 210,000.00
US$ 21,000.00
9
US
U
100
Pesquisa Naval Nº 16, Outubro de 2003
Figure 2 – Criteria and Alternatives
Figure 3 – THOR results
It is possible to outrank the worst management methods and identify the best
ones applying the THOR methodology to the data from the Table I, as shown in the
Figure 2 and 3 further shown. Using the software THOR (Figure 2 and 3), it can be seen
that the management method 1 is the best method, slightly better than method 3.
Pesquisa Naval Nº 16, Outubro de 2003
101
6 - Conclusions and Recommendations
In order to apply this methodology to the problem of ballast water, the IMO
Member States should take the following steps:
a) Define which criteria will be used to evaluate the management methods. The
Committee will, then, decide on the value to be assigned to each criterion and will also
define the initial restriction (veto). (Brazilian Delegation suggests, as a starting point
for the discussions on the restriction, that the docking time should not exceed 10% of
the time allowed for before the introduction of the system. The same time limit should
be observed with regards to the increase in the time of ship’s construction. Please
note: any system presented for evaluation should have been tested on board, and
laboratory tests should not be accepted for this purpose);
b) Stipulate the deadlines for disputing the outcome of the evaluation of the management
methods (the outcome shall be disputed by means of a new evaluation carried out by
the disputing party);
c) Establish the relative value to be assigned to each evaluation criteria and apply the
data obtained through the evaluation of each treatment method to the THOR system
and outrank the worst methods.
Based in the above steps IMO could select the best course of actions based on
scientific methodology avoiding take decisions based on misleading individual
preferences expressed by voting.
§
Bibliography
[1] Ballestero, E., Project Finance: a multicriteria approach to arbitration, journal of the
operational research society, page 183-197, n 51, 2000.
[2] Bodily, Samuel e., “police sector design incorporating preferences of interest groups
for equality and efficiency, management science, vol. 24, no 12, 1978.
[3] Calvet, Laurent E., Inclopete Markets and Volatility, Journal of Economic Theory
98, 295-338, 2001.
[4] Gomes, Luiz Flavio Autran Monteiro, Carlos Francisco Simões Gomes & Adiel
Teixeira, Tomada de Decisão Gerencial o Enfoque Multicritério, Editora Atlas, 2002.
[5] Gomes, C. F. S., Gomes, L. F. A. M. Aplicação da Teoria dos Conjuntos Aproximativos
à Modelagem Analítica de Apoio à Negociação, VIII CLAIO - Latin-Iberian-American
Congress on Operations Research and Systems Engineering 1996. v.II. p.866 – 971.
[6] Gomes, C. F. S., Gomes, L. F. A. M., Moreira, A. M. M. Modelos Analíticos para a
Negociação In: XXIX Simpósio Brasileiro de Pesquisa Operacional, 1997, Salvador.
Anais do XXIX Simpósio Brasileiro de Pesquisa Operacional. , 1997. v.1. p.161 – 161
[7] Gomes, C. F. S., Gomes, L. F. A. M., Moreira, A. M. M, Modelos Analíticos para
Negociação. Pesquisa Naval. Rio de Janeiro, RJ: , v.11, p.151 - 157, 1998.
[8] Gomes, C. F. S., Gomes, L. F. A. M. Uma Aplicação de Conjuntos Aproximativos
ao Apoio Multicritério à Negociação. Pesquisa Naval. Rio de Janeiro, v.12, p.263 270, 1999
102
Pesquisa Naval Nº 16, Outubro de 2003
[9] Gomes, L. F. A. M. Conflito e Negociação no Planejamento Participativo: Uma
Formulação de Análise de Decisões com Múltiplos Critérios; Investigacion Operativa;
Vol. 2; No 2; Deciembre pgs 111-119; 1991.
[10] Haranyi, J.C., Rational Behaviour and Bargaining Equilibrium in Games and Social
Situations. Cambridge Uni. Press, Cambridge, 2000.
[11] Karni, Edi, Safra, Zvi, An extension of a theorem of von Neumann and Morgenstern
with an application to social choice theory, Jr of Mathematical Economics, 34, pag.
315-327, 2000.
[12] Knoblauch, Vicki, Lexicographic orders and preference representation, journal of
Mathematical Economics 34, 2000.
[13] Noussair, Charles, Matheny, Kenneth. An Experimental study of decisions in
dynamic optimisation problems, Economic Theory 15, page 389-419, 2000. Savage, l. j.,
The foundation of Statistics, Wiley.
[14] Varlan, E., Paillier, R. Le, Multicriteria Decision making for contract research
organisation choice in the pharmaceutical industry, journal of the operation research
society, 50, page 943-948, 1999.
[15] Vind, Karl, von Neumann Morgenstern preferences, Journal of Mathematical
Economics 33, page 109-122, 2000.
IIX
X
Capítulo
CONTROLE FUZZY DE ALGORITMOS ESTOCÁSTICOS DE
OTIMIZAÇÃO GLOBAL E VFSR
Hime Aguiar e Oliveira Junior
Engenheiro Eletrônico – [email protected]
Abstract
Finding the global minimum (or maximum) of an arbitrary multivariable and
multimodal function
f : R N → R is a problem that, even today, challenges
researchers in virtually every branch of applied Science.
But the real, great defiance is to devise algorithms that could minimize a nonsmooth (discontinuous, perhaps) multivariable function with constraints. In such a
setting, stochastic methodologies appear to be the most adequate approach.
Facing this problem, the author found ASA (Adaptive Simulated Annealing)
as a solution to the above problems. ASA can be described as a simulated annealing
optimization method that stochastically and ergodically searches a solution space
for the global minima of numerical functions.
The present paper describes the results achieved by applying fuzzy control
techniques to the ASA algorithm, considered as an open loop plant.
Resumo
O problema geral da otimização global de funções numéricas multimodais
(exibindo vários extremos locais) vem desafiando pesquisadores desde sua
concepção. No decorrer do tempo foram estabelecidos vários resultados particulares,
obedecendo a premissas algo restritivas para aplicação em alguns casos práticos.
Por outro lado, a demanda por soluções em inúmeras áreas do Conhecimento
á cada vez maior, envolvendo, em particular, minimização de funções de difícil
104
Pesquisa Naval Nº 16, Outubro de 2003
tratamento, apresentando pontos de descontinuidade, domínio com elevado número
de dimensões e complexas restrições funcionais (constraints).
No campo atualmente conhecido por Soft Computing as coisas não são
diferentes e, na verdade, motivaram a realização da pesquisa descrita neste artigo,
que demonstra os resultados obtidos pela aplicação de um controlador fuzzy a um
algoritmo estocástico de otimização global (ASA), cujo desempenho é eficaz, mas
em casos difíceis pode se mostrar não tão eficiente quanto necessário.
I – Introdução
O problema de otimização global de funções numéricas tem grande importância
em várias áreas do Conhecimento. Ele aparece em campos como Engenharia, Finanças,
Gerenciamento, Medicina, etc..
Em casos práticos, a função a ser minimizada aparece como um índice de
performance multivariável e está sujeita a certos vínculos, impostos por seu contexto.
Quando a função-objetivo é “bem comportada”, existem vários métodos para se obter
seus pontos de mínimo, satisfazendo aos referidos vínculos.
Os problemas começam quando a dada função apresenta vários mínimos
locais, cada um deles possuindo sua própria bacia de atração, fazendo tipicamente o
resultado final depender do ponto inicial, utilizado para “lançar” um dado algoritmo
particular. Infelizmente, a maioria dos problemas práticos dá origem a funções-objetivo
bastante complexas, sendo freqüentemente não-lineares, descontínuas, multi-modais,
etc..
Para resolver tal classe de problemas, métodos não-determinísticos parecem
ser uma boa alternativa, se não a única, em várias situações. Algoritmos genéticos e
Simulated Annealing (abreviadamente SA) aparecem como abordagens bastante
exploradas em otimização estocástica global. O problema neste caso está relacionado
à velocidade de convergência e, no caso genético, garantia do alcance do extremo
global, sob condições suficientemente gerais. Métodos puros de SA, por outro lado,
possuem resultados assegurando sua convergência a ótimos globais com probabilidade
1, mas seu desempenho em geral não é satisfatório. Apesar disso, alguns pesquisadores
conseguiram superar tais limitações, levando, por exemplo, a alternativas como VFSR
(Very Fast Simulated Reannealing), que é um método de otimização global estocástica
realmente eficaz.
VFSR é particularmente adequado a aplicações envolvendo sistemas neurofuzzy e treinamento de redes neurais artificiais, em virtude de seu excelente desempenho
e relativa simplicidade. ASA (Adaptive Simulated Annealing) é uma implementação do
método VFSR (na linguagem de programação C) que nos traz os benefícios de ser
pública, parametrizável e bem mantida. Além disso, ASA se mostra como uma alternativa
em relação aos algoritmos genéticos, levando-se em conta os testes de desempenho já
realizados, que demonstram sua boa qualidade. Infelizmente, todos os algoritmos
estocásticos de otimização global compartilham algumas características pouco
desejáveis como, por exemplo, longos períodos de estagnação. Em implementações de
Pesquisa Naval Nº 16, Outubro de 2003
105
de SA, isto é devido ao chamado processo de resfriamento, cuja velocidade é limitada
pelas características das funções de densidade de probabilidade (PDFs) usadas para a
geração de novos pontos candidatos. Desta maneira, se escolhermos empregar o
resfriamento de Boltzmann (BA), a “temperatura” é reduzida a uma taxa máxima
correspondente a T(k) = T(0) / ln(k). No caso do resfriamento rápido (FA), a evolução
da temperatura passa a T(k) = T(0) / k , se desejarmos assegurar convergência com
probabilidade 1, resultando numa evolução mais rápida do processo geral. ASA tem
um esquema ainda mais eficiente, dado por
1
D
Ti (k) = Ti (0) × exp(-Ci k )
( Ci = parâmetro definido pelo usuário)
graças à sua excelente PDF de geração de pontos. Note que os subscritos indicam
evolução independente de temperaturas para cada dimensão. O usuário também tem a
possibilidade de utilizar o processo de Simulated Quenching (SQ), resultando em
Ti (k) = Ti (0) × exp(-Ci k
Qi
D
)
( Qi = parâmetro de quenching )
Se usarmos parâmetros de quenching maiores do que 1, existirá ganho de
velocidade mas a convergência ao ótimo global não é mais assegurada [ Vide Ref. 2 ].
Tal procedimento poderia ser usado em casos de domínios com dimensões
elevadas (> 100, por exemplo) e recursos computacionais escassos. Apesar (ou por
causa) de toda esta flexibilidade, há muitos ajustes a realizar, do ponto de vista do
usuário (“Sistemas não-lineares são, tipicamente, atípicos.”, como diz Lester Ingber o criador do sistema ASA).
No que segue, descreveremos um método bem sucedido de aceleração aplicado
ao sistema ASA, que, pela utilização de um controlador fuzzy Mamdani, ajusta
dinamicamente parâmetros relacionados ao procedimento de quenching. Mostraremos
que, pelo aumento da percepção de situações de estagnação ou fraco desempenho, é
possível tomar ações corretivas e reduzir substancialmente (talvez eliminar) as tarefas
de ajuste paramétrico manual. Tudo é feito sem alterar o código do sistema ASA.
II – Estrutura Geral dos Algoritmos baseados em Simulated Annealing
Algoritmos baseados em SA utilizam princípios idealizados por N. Metropolis
e outros, sendo conhecidos genericamente pelo rótulo de métodos de Monte Carlo.
A abordagem usa três componentes fundamentais que têm grande impacto
na implementação final:
•
Uma densidade de probabilidade g(.), usada na geração de novos pontos
candidatos.
106
•
•
Pesquisa Naval Nº 16, Outubro de 2003
Uma densidade de probabilidade a(.), usada na aceitação/rejeição de novos
pontos.
Um esquema de redução de temperaturas T(.), que determina como as mesmas
variarão durante a execução do algoritmo, ou seja, seu perfil dinâmico.
A estratégia básica é gerar um ponto inicial, escolhido de acordo com critérios
convenientes, e ajustar a temperatura inicial de modo que o espaço de fase possa ser
suficientemente explorado. A seguir, novos pontos são gerados de acordo com a PDF
g(.) e probabilisticamente aceitos ou rejeitados, conforme determinar a PDF a(.).
Se ocorrer a aceitação, o ponto candidato é elevado à condição de ponto
básico vigente. Durante a execução do algoritmo as temperaturas são reduzidas,
provocando a redução da probabilidade de aceitação de novos pontos posteriormente
gerados apresentando valores da função-objetivo superiores àquele do ponto básico
corrente (no caso de minimização de funções). Entretanto, existe uma probabilidade
não nula de escolha de pontos situados acima deste último, tornando possível uma
eventual “fuga” de mínimos locais.
III – Principais aspectos da abordagem ASA/VFSR
Como citado anteriormente, ASA, que é uma realização prática de VFSR, é
baseado no conceito de simulated annealing, possuindo um grande número de aspectos
positivos. Dentre eles, podemos citar :
. Re-annealing – trata-se do re-escalonamento dinâmico das temperaturas paramétricas,
adaptando PDFs geradoras para cada dimensão de acordo com as sensibilidades
exibidas em cada direção de busca. Em poucas palavras, se a função objetivo não
apresenta variações significativas quando alteramos um dado parâmetro, pode ser
proveitoso estender a amplitude do intervalo de busca naquela dimensão em particular,
e vice-versa.
. Facilidades de Quenching – como dissemos anteriormente, a implementação do
sistema ASA apresenta a possibilidade de ajuste manual (por parte do usuário) de
vários parâmetros estruturais relacionados ao processo de quenching, o que poderá
resultar em maior velocidade de convergência. Assim, é possível moldar a evolução
das temperaturas paramétricas de modo amplo, fácil e limpo.
. Alto nível de parametrização – o sistema ASA foi codificado de tal modo que possamos
alterar virtualmente qualquer subsistema sem esforço significativo. Sendo assim, é
possível mudar o comportamento dos processos de geração/aceitação, critérios de
conclusão, geração de pontos iniciais, nível de detalhe do arquivo de log, etc..
Pesquisa Naval Nº 16, Outubro de 2003
107
ASA foi projetado para encontrar minimos globais pertencentes a um dado
subconjunto compacto do espaço Euclidiano n-dimensional. Ele gera pontos
componente a componente, de acordo com
xi +1 = xi + ∆xi ,
com ∆xi = yi (Bi - Ai ) ,
[Ai , Bi ] = faixa de variação da i - ésima dimensão ,
yi ∈ [-1,1] é dado por
yi = sgn(ui − 1/2)Ti [(1 + 1/Ti )
2ui -1
- 1] onde
ui ∈ [0,1] é gerado por meio da distribuição uniforme,
Ti = temperatura atual relativa à dimensão i .
A compacidade do espaço de busca não é uma severa limitação na prática, e
na falta de prévia informação sobre a possível localização de mínimos globais, basta
escolher domínios hiper-retangulares suficientemente abrangentes.
IV – Controle fuzzy aplicado ao sistema ASA
Conforme citação anterior, o uso do mecanismo de quenching pode melhorar
substancialmente a eficiência do processo de convergência, com a assunção do risco
de alcance prematuro de mínimos não globais. Em certos casos, contudo, podemos
simplesmente não ter alternativa, como é o caso de funções com domínios de elevado
número de dimensões. Para resolver o problema, um controlador fuzzy foi projetado. A
abordagem é simples: consideramos ASA como um sistema dinâmico MISO (Multiple
Input Single Output) e ”fechamos a malha”, pela amostragem da saída de ASA (valor
corrente da função objetivo) e atuação em suas entradas (um subconjunto de parâmetros
ajustáveis em run-time, relacionados ao processo de quenching) de acordo com uma
lei fuzzy (algoritmo de controle), que nada mais faz do que emular o raciocínio humano
sobre o processo subjacente. Assim, pelo uso de um controlador inteligente podemos
acelerar e retardar a evolução das temperaturas, além de sermos capazes de tomar
ações evasivas em caso de convergência prematura.
Enfrentamos dois principais obstáculos para alcançar tal objetivo :
1 – Como as saídas amostradas (valores da função objetivo) podem informar o estado
atual do processo de minimização em andamento ?
2 – Como podemos alterar dinamicamente as entradas do sistema ASA de modo au
eliminar situações indesejáveis, como permanência junto a mínimos não globais ou
progresso insatisfatório ?
A primeira questão foi resolvida graças ao conceito de função de sub-energia,
usada no método TRUST [vide Barhen – Ref. 1].
108
Pesquisa Naval Nº 16, Outubro de 2003
A função de sub-energia é dada por:
SE(x, x0 ) = log(1/[1 + exp(-(f(x) - f(x0 )) - a)])
onde a é uma constante real , e x0 é o " ponto básico"
O ponto básico é o melhor ponto de mínimo encontrado até então. Logo, a
função SE comporta-se qualitativamente como a original f(.) quando o processo de
busca “visita” pontos melhores do que o mínimo corrente e tende a se achatar em
pontos piores. Assim, é possível avaliar quando a busca está concentrada acima, nas
imediações ou abaixo do ponto mínimo atual pela inspeção dos valores assumidos
pela função de sub-energia. Tal processo de detecção resulta em conclusões
aproximadas como
A busca está PRÓXIMA do mínimo vigente.
ou
A busca está MUITO DISTANTE do mínimo vigente.
o que leva naturalmente a uma oportunidade de modelagem fuzzy.
A segunda questão acima está relacionada às partes conseqüentes da base
de regras fuzzy, na qual temos que inserir ações corretivas para eventuais desvios em
relação às diretrizes preestabelecidas para o processo de minimização. Isto foi feito
pela variação dos graus de quenching para PDFs de geração e aceitação. A
implementação usou fatores de quenching individuais para cada dimensão.
A base de regras do controlador fuzzy contém asserções como
-
SE AveSub está PRÓXIMA a zero ENTÃO
aumente o nível de Quenching.
SE AveSub está PRÖXIMA ao mínimo corrente ENTÃO
aumente o nível de Quenching
SE StdDevSub é ZERO ENTÃO
decresça o nível de Quenching
onde :
- AveSub é uma variável lingüistica correspondente à média abrupta (crisp) dos 100
últimos valores de sub-energia
- StdDevSub é uma variável lingüistica correspondente ao desvio-padrão abrupto
(crisp) dos 100 últimos valores de sub-energia
Tendo descrito a estrutura geral da abordagem adotada, é hora de mostrar
alguns resultados práticos, obtidos através da otimização de algumas funções de
difícil tratamento.
Pesquisa Naval Nº 16, Outubro de 2003
109
V – Resultados
Apresentaremos quatro testes nos quais funções multi-modais foram
submetidas a três métodos: ASA, Fuzzy ASA (descrito neste artigo) e um algoritmo
genético de ponto flutuante eficiente e bastante conhecido, cujo nome não será citado
por motivos éticos. ASA e Fuzzy ASA mantiveram exatamente os mesmos parâmetros
em cada caso; a única diferença entre as execuções sendo a ativação do controlador
inteligente em Fuzzy ASA, localizado em módulo externo e ativado de dentro da função
de custo. O controlador ficou inalterado em todos os testes, evidenciando sua
independência em relação às características da função objetivo e/ou dimensão de seu
domínio.
O algoritmo genético foi utilizado com as seguintes características :
-
Tamanho da população – 75
Elitismo – Operante
População inicial idêntica à semente de ASA
3 operadores de reprodução (crossover)
5 operadores de mutação
As funções de teste são :
Função 1 :
Domínio : { x ∈ R 3 : xi ∈ [ - 10000 , 10000 ] }
f(x) = x12 (2 + sin(120x2 )) + x22 (2 + sin(220x1 )) +
x32 (2 + sin(50x1 ))
Mínimo global em (0,0,0) .
Valor mínimo = 0.
Função 2 :
Domínio : { x ∈ R 4 : xi ∈ -[ 10 , 10 ] }
f(x) = 100(x 2 - x1 )2 + (1 - x1 )2 + 90(x 1 - x32 )2 +
(1 - x3 )2 + 10.1((x 2 - 1) 2 + (x4 - 1) 2 ) +
19.8(x 2 - 1)(x 4 - 1)
Mínimo global em (1,1,1,1).
Valor mínimo = 0.
110
Pesquisa Naval Nº 16, Outubro de 2003
Função 3 :
Domínio : { x ∈ R 50 : xi ∈ [ - 10 , 10 ] }
f(x) = f 1 (x) + f 2 (x) + f 3 (x)
f 1 (x) =
f 2 (x) =
f 3 (x) =
50
∑ ( ix
i =1
2
i
50
∑ (x
i =1
i -1
50
∑ ln
i =1
2
)
+ 5sinx i + xi2+ 1 )2
( 1 + isin 2 xi - 1 + 2x i + 3x i + 1 )
com x0 = x 50 e x 51 = x1
Mínimo global em 0 ∈ R 50 .
Valor mínimo = 0 .
Função 4 :
Domínio : Mesmo da função 3 .
f(x) = f 1(x) + f 2 (x) + f 3 (x)
50
f1 (x) = ∑ ( ixi2 )
i =1
50
f 2 (x) = ∑ isin 2 (xi -1 sinxi - xi + sinxi + 1 )
i =1
50
f 3 (x) = ∑ iln(1 + i(xi2-1 - 2xi + 3xi + 1 - cosxi + 1)2 )
i =1
com x0 = x50 e x51 = x1
No apêndice mostramos a evolução dos processos de minimização.
No eixo das abscissas temos o número de avaliações da função-objetivo e no
das ordenadas o melhor valor encontrado até então. Como se pode constatar pelos
gráficos, o algoritmo proposto apresenta desempenho sempre superior ao sem realimentação, superando ainda, nos casos de altas dimensões, o FPGA (Floating Point
Genetic Algorithm).
Isto o coloca entre as soluções viáveis para problemas práticos.
Pesquisa Naval Nº 16, Outubro de 2003
111
VI - Conclusão
Mostramos que o desempenho da abordagem ASA/VFSR pode ser melhorado pela aplicação de técnicas de controle fuzzy. Os resultados apresentados evidenciaram que o algoritmo ASA dotado de mecanismos de controle inteligente pode ser
mais eficiente do que algoritmos genéticos de excelente desempenho em complexos
problemas de otimização global. Ressaltamos que os pontos iniciais usados em cada
um dos testes foram os mesmos para os três métodos aplicados, sendo seu
posicionamento escolhido de modo a dificultar ao extremo o acesso às bacias de
atração dos respectivos mínimos globais.
Referências :
BARHEN,J. / PROTOPOPESCU,V. / REISTER.D. TRUST: A Deterministic
Algorithm for Global Optimization - Science,Vol. 276.
INGBER, L. - ASA : Lessons learned Disponível em www. ingber. com.
PINTÉR, J. - Global Optimization in Action , Kluwer Academic Publishers.
ROSEN-, B. - Function Optimization based on Advanced Simulated Annealing Disponível em www. ingber. com.
112
Pesquisa Naval Nº 16, Outubro de 2003
APÊNDICE
Pesquisa Naval Nº 16, Outubro de 2003
113
114
Pesquisa Naval Nº 16, Outubro de 2003
CANHÃO DE SALVA DE 47mm
O Canhão de Salva 47 mm é uma arma destinada exclusivamente a saudações
militares, de fácil transporte e manuseio. Possui bloco de culatra inteiriça, fabricada em açoliga especial, e tubo alma liso. A cunha vertical é operada manualmente por alavanca. A
operação é simples e rápida. O mecanismo de disparo é do tipo percussão. A manutenção do
canhão é extremamente simples e de baixo custo. A munição utilizada é a Carga de Salva 47
mm, também comercializada pela EMGEPRON. Trata-se de uma munição com estojo de
latão 70/30, carga de pólvora negra, estopilha de percussão com cápsula M61 e que produz
um nível de ruído superior a 100 dB.
CARACTERÍSTICAS PRINCIPAIS
Peso Total:
Dimensões: - Comprimento:
- Altura:
- Largura:
Pintura:
128 kg.
1.100 mm.
670 mm.
660 mm.
Cor Preta (ou Conforme Solicitação)
X
Capítulo
SISTEMAS CRIPTOGRÁFICOS BASEADOS EM IDENTIDADES
CT Waldyr Dias Benits Júnior
Aluno de Mestrado da Universidade de São Paulo
[email protected]
Prof. Dr. Routo Terada, PhD
Prof. titular do Instituto de Matemática e Estatística da Universidade de São Paulo
[email protected]
Resumo
O emprego de curvas elípticas em criptografia permitiu o aparecimento de
uma criptografia assimétrica em que a chave pública de um usuário não é uma
seqüência aleatória de bits e sim um identificador que caracteriza este usuário de
forma única, como por exemplo seu número de CPF ou seu endereço eletrônico. Tal
fato possibilitou que se estabeleça uma comunicação segura sem troca de segredos,
sem troca de certificados digitais e sem a necessidade de se manter um diretório
público de chaves. Este esquema de criptografia assimétrica, que será apresentado
neste artigo, é hoje conhecido como criptografia baseada em identidades pessoais
(ID-based cryptosystems).
Abstract
The use of elliptic curves in cryptography allowed the development of an
asymmetric cryptography in that the public key of a user is not a random string, but
an identity that characterizes him in a unique way, as for example, his e-mail address.
Based on this property, we can establish a secure communication without changing
secrets, without changing certificates and without keeping a public key directory.
This asymmetric criptography scheme, that will be presented in this paper, is nowadays
known as ID-based cryptosystems.
Palavras chaves: Sistemas baseados em identidades, Emparelhamento, Bilinearidade, Criptografia
em curvas elípticas.
Key words : Identity-based cryptosystems, Pairing, Bilinearity, Elliptic curves cryptography .
116
Pesquisa Naval Nº 16, Outubro de 2003
1. Introdução
O conceito de criptografia baseada em identidades pessoais surgiu em 1984,
com SHAMIR, A. Neste artigo, o autor propôs um novo modelo de esquema
criptográfico, que permitiria a qualquer par de usuários se comunicar de forma segura,
sem que fosse necessária a troca de chaves secretas, como ocorre na criptografia
simétrica, e sem que fosse preciso utilizar certificados digitais para autenticar chaves
públicas, que é o caso da criptografia assimétrica tradicional.
Neste novo esquema, segundo Shamir, existe um Gerador de Chaves
Particulares (PKG - Private Key Generator), cuja única função é gerar uma chave
particular para um usuário solicitante e transmiti-la ao mesmo por um canal seguro.
Naturalmente, antes de gerar e distribuir esta chave, o PKG fará uma cuidadosa
investigação com o objetivo de autenticar o solicitante, da mesma forma que ocorre em
uma verificação de identidade para emissão de certificados na criptografia assimétrica
tradicional.
Como “canal seguro”, poderíamos imaginar que o solicitante compareça
pessoalmente ao PKG, onde receberá sua chave particular gravada, por exemplo, em
um cartão inteligente (smart card). Neste caso, antes de receber sua chave particular,
este usuário deverá provar sua identidade. Diferentemente da criptografia assimétrica
tradicional, após gerar e distribuir as chaves particulares, o PKG não precisa mais
participar da comunicação, permitindo que a rede funcione de forma totalmente
descentralizada. Além disso, neste novo esquema não é preciso que os centros
coordenem suas atividades e nem mantenham lista de seus usuários, como na infraestrutura de chaves públicas (PKI). Ainda de acordo com Shamir, o esquema proposto
é ideal para grupos fechados, como por exemplo em uma cadeia de lojas ou de bancos,
onde a matriz pode fazer o papel de PKG.
O modelo proposto por Shamir baseia-se no esquema de criptografia assimétrica
tradicional, sendo que, em vez de termos um par de chaves representadas por uma
seqüência de bits, sendo uma aleatória, e a outra calculada em função da primeira,
como no caso do RSA, teremos como chave pública um identificador, ou seja, uma
característica que identifique o usuário de forma única, de modo que ele não tenha
como negar que esta informação diz respeito a ele. Como exemplos de identificador,
poderíamos citar o número do CPF ou o endereço eletrônico (e-mail). A grande vantagem
deste esquema é que, ao contrário da criptografia assimétrica tradicional, não há
necessidade de se fazer um mapeamento entre uma chave pública e seu dono, haja
vista que, nesse caso, a chave pública identifica o dono.
Uma outra vantagem é que, por não ser mais um número aleatório, um usuário
Beto não precisa reservar espaço adicional para guardar as chaves públicas das pessoas
com quem deseja se comunicar, pois pode usar sua própria lista de endereços
eletrônicos. Estas características fazem com que a criptografia assimétrica baseada em
identidades se assemelhe ao correio físico, ou seja, se você conhece o endereço de
uma pessoa, você pode enviar-lhe uma mensagem, de modo que somente ela poderá
ler. Com base no mesmo conceito, se Alice deseja enviar uma mensagem sigilosa para
Pesquisa Naval Nº 16, Outubro de 2003
117
Beto, ela necessita apenas do endereço eletrônico de Beto, ou seja, não é preciso nem
mesmo ter algum conhecimento sobre chaves ou protocolos de comunicação.
Desde que Shamir apresentou o modelo de sistema criptográfico baseado em
identidade, vários pesquisadores tentaram, sem sucesso, desenvolver um esquema,
obedecendo a propriedade de não expor a chave particular do PKG. Algumas soluções
propostas requeriam que os usuários não entrassem em conluio, em outras o PKG
gastaria um tempo muito grande na geração de cada chave particular solicitada e em
outras havia a necessidade de que o hardware fosse resistente a fraudes. Somente
com o esquema proposto por BONEH & FRANKLIN, baseado em propriedades de
curvas elípticas, conseguiu-se uma solução satisfatória para criptografia com chaves
baseadas em identidades.
Este artigo está organizado da seguinte forma: na seção 2 veremos as notações
que serão utilizadas ao longo deste trabalho e os conceitos principais de criptografia
com curvas elípticas; na seções 3 e 4, os conceitos de criptografia e assinatura baseados
em identidades, respectivamente; na seção 5 comentaremos as principais vantagens e
desvantagens de um esquema baseado em identidades, e finalmente, na seção 6
concluiremos este artigo e apresentaremos algumas referências de trabalhos
relacionados, para os leitores que queiram ampliar seus conhecimentos sobre o assunto.
2. Definições e notações inicias
Um sistema de criptografia baseado em identidade envolve uma série de
notações e conceitos matemáticos, que nesta seção serão elucidados, para possibilitar
um melhor entendimento do leitor.
2.1 Problema do Logaritmo Discreto (PLD)
Muitos sistemas criptográficos baseiam-se na dificuldade computacional do
Problema do Logaritmo Discreto, que TERADA, R. define como:
“Dados um número primo p e números inteiros g, t, tais que 0<g,t<p,
calcular um inteiro s tal que t = g s mod p.”
Para números pequenos, conseguimos calcular s atribuindo valores, até que o
resultado desejado seja encontrado. Veja no exemplo ilustrativo a seguir:
Exemplo 1: Para p = 13, g = 2 e t = 12, calcular s tal que 12 = 2s mod 13.
s
0
1
2
3
4
5
6
Resposta: O valor de s é 6.
2s mod 13.
1
2
4
8
3
6
12
118
Pesquisa Naval Nº 16, Outubro de 2003
Entretanto, à medida que o valor de p aumenta, este método, conhecido como
“força bruta” se torna inviável. Ainda não se conhece nenhum algoritmo de tempo
polinomial, pelo menos até o momento em que foi escrito este trabalho, que resolva o
problema do logaritmo discreto. Portanto, o PLD se enquadra na classe de problemas
computacionalmente difíceis e devido a isto, é muito usado em sistemas criptográficos.
2.1.1 PLD em Curvas Elípticas (PLD - CE)
O PLD com aplicação em Curvas Elípticas é chamado de “Problema do
Logaritmo Discreto em Curvas Elípticas”, e é enunciado por TERADA, R. da seguinte
forma:
“Dados dois pontos R, P de uma curva elíptica definida sobre um
corpo finito, achar um inteiro s tal que R = sP”
Em SILVERMAN, J. e BARRETO, P. et al. o leitor encontrará as principais
operações utilizadas em curvas elípticas. Para prosseguir com o entendimento deste
artigo, porém, basta apenas ter em mente que, da equação acima, o valor s está protegido
pelo PLD-CE, ou seja, “é computacionalmente inviável se calcular s, dado que
conhecemos os pontos R e P”.
2.2 Bilinearidade
Quando trabalhamos com curvas elípticas em criptografia, uma propriedade que
utilizaremos muito é a bilinearidade. Dizemos que um emparelhamento1 de pontos de
uma curva elíptica (denominado e(P,Q)) é bilinear quando podemos mover livremente
os expoentes e multiplicadores sem alterar o resultado do emparelhamento, conforme
podemos ver abaixo (P,Q são pontos da curva e a,b,c Î Z*):
e(aP, bQ)c
=
=
=
=
e(aP, cQ)b = e(bP, cQ)a = e(bP, aQ)c
e(abP, Q)c = e(P, abQ)c = e(cP, abQ)
...
e(abcP, Q)
= e(P, abcQ) = e(P, Q)abc
Resumindo a propriedade acima, temos:
e(aP, bQ)c = e(P, Q)abc
Além disso, as seguintes propriedades também se aplicam a uma função bilinear:
e(P1 + P2, Q) = e(P1,Q)e(P2,Q)
e(P,Q1)e(P,Q2) = e(P, Q1 + Q2)
É importante ressaltar que, em termos computacionais, o cálculo de um
emparelhamento tem ordem de grandeza maior do que uma exponenciação em Fq,
segundo CHA,J.C. e CHEON, J.H., sendo portanto, a operação de maior custo
computacional em sistemas criptográficos baseados em identidades, segundo
BARRETO, P., LYNN, B. e SCOTT, M. .
Pesquisa Naval Nº 16, Outubro de 2003
119
2.3 Nomenclatura básica
Tendo entendido as propriedades principais do PLD-CE e da bilinearidade,
podemos prosseguir com as notações utilizadas. Considere que para os grupos G1 e
G2 o problema do logaritmo discreto é assumidamente difícil e existe um mapeamento
bilinear computável:
Sejam:
q:
número primo longo2
G1, G2:grupos de ordem prima q
Fq:
corpo finito de ordem q
t: G1 X G1 → G2 emparelhamento de Tate
Se escrevermos G1 em notação aditiva e G2 em notação multiplicativa, podemos,
na prática, considerar:
G1: subgrupo de um grupo aditivo de pontos de uma curva elíptica sobre Fq
G2: subgrupo de um grupo multiplicativo de um corpo finito Fqk para algum k ∈ Z*
2.3.1 Funções de Espalhamento
TERADA, R. define uma função de espalhamento (hash) da seguinte forma:
“Dado um valor x, de tamanho qualquer, uma função de
espalhamento calcula um valor y de tamanho fixo, relativamente menor
do que o tamanho de x. Por exemplo, x pode ser um texto da ordem de
centenas de bytes e |y| é da ordem de 128 bits. O valor y é chamado de
resumo de x”.
Uma importante característica das funções de espalhamento é que elas são
não-inversíveis, i.e., se H é uma função de espalhamento, é computacionalmente fácil
calcular y tal que H(x) = y. Porém, é computacionalmente inviável, dado y,recuperar o
valor de x.
Serão utilizadas as seguintes funções de espalhamento:
H1 : {0,1}* → G1
H2 : {0,1}* → Fq
H3 : G2
→ {0,1}*
Em outras palavras, H1 mapeia uma seqüência de bits de tamanho aleatório em
um ponto da curva elíptica; H2 mapeia uma seqüência de bits de tamanho aleatório em
um corpo finito de ordem q e H3 mapeia o resultado de um emparelhamento entre dois
pontos da curva em uma seqüência de bits de tamanho aleatório.
1
No artigo de BONEH, D. e FRANKLIN, M., o leitor poderá ver uma definição formal
de emparelhamento, embora não seja necessária para o entendimento do restante
deste trabalho.
2
Em termos práticos, q é da ordem de 2160.
120
Pesquisa Naval Nº 16, Outubro de 2003
2.4 Chaves utilizadas
Antes de darmos início ao esquema de criptografia baseada em identidade,
vamos definir os tipos de chaves que serão utilizadas.
• Par de chaves pública/ particular padrão (R,s)
Sejam R ∈ G1, s ∈ Fq e P um ponto fixo pertencente a G1 e de conhecimento público.
Temos que:
R = sP
(1)
• Par de chaves baseadas em identidade (QID, SID)
Definimos Autoridade de confiança como sendo qualquer entidade idônea que possua
um par de chaves padrão.
Sejam QID, SID ∈ G1 e existe uma Autoridade de Confiança com um par de chaves
padrão ((RTA, s) de modo que valem as seguintes relações:
SID = sQID
QID = H1 (ID)
(2)
(3)
Onde ID é o identificador (p. ex. um endereço eletrônico:[email protected]).
Note pela equação (2) que, mesmo se Beto possui um par de chaves válido
(Qbeto,Sbeto), ele não consegue recuperar a chave particular s da Autoridade de confiança,
pois esta chave está protegida pelo PLD-CE. O leitor mais atento deverá ter notado
que neste tipo de sistema, diferentemente da criptografia assimétrica tradicional, a
Autoridade de confiança tem conhecimento da chave particular de todos os seus
usuários. Tal fato é chamado de custódia de chaves (key escrow) e será discutido mais
adiante.
3. Criptografia em sistemas baseados em identidade
Vamos entrar agora, nos sistemas criptográficos baseados em identidade
propriamente ditos, iniciando com a criptografia baseada em identidades (IBE - IdentityBased Encryption). Sejam (Qbeto,Sbeto), o par de chaves baseadas em identidade de um
usuário Beto; RTA a chave pública padrão da Autoridade de confiança que gerou a
chave particular de Beto; e m a mensagem que Alice deseja enviar para Beto.
Veremos a seguir o modelo proposto por BONEH, D. & FRANKLIN, M. de
criptografia baseada em identidade.
Criptografia
Alice escolhe um elemento aleatório r, tal que r∈ Fq e calcula 3
U = rP
V= m ⊕ H3(t(RTA, rQbeto))
E envia o texto criptografado (U,V) para Beto.
3
A operação Å representa o ou-exclusivo bit a bit.
(4)
(5)
Pesquisa Naval Nº 16, Outubro de 2003
121
BONEH, D. e FRANKLIN, M., em seu artigo, não destacam a importância na
escolha de r. É importante que o elemento aleatório r escolhido por Alice seja diferente
para cada mensagem a ser criptografada (números com esta característica são
conhecidos na literatura como “NONCE”: (Number used ONCE.); caso contrário, haverá
uma falha de segurança que veremos mais adiante.
Note que Alice utiliza a chave pública baseada em identidade de Beto para
criptografar m. Para isto, basta que ela conheça o identificador de Beto (p. ex.
[email protected]).
Decriptografia
Beto, recebendo (U,V) de Alice, faz o seguinte cálculo para recuperar o legível m:
m = V ⊕ H3(t(U, Sbeto))
(6)
Vemos que Beto utiliza sua chave particular baseada em identidade para
recuperar m.
Demonstração
Queremos demonstrar que Beto, através do cálculo efetuado na equação(6) consegue,
de fato, recuperar m
V ⊕ H3(t(U, Sbeto))
= V ⊕ H3(t(rP, Sbeto)) pois U = rP , de (4)
pois Sbeto = sQBeto, de (2)
= V⊕ H3(t(rP, sQbeto))
=V⊕ H3(t(P, Qbeto))rs, por bilinearidade
=V⊕ H3(t(sP, rQbeto)) por bilinearidade
pois RTA = sP , de (1)
=V⊕ H3(t(RTA, rQbeto))
= m,
pois pela equação (6)
V = m ⊕ H3(t(U, Sbeto))
BONEH, D. e FRANKLIN, M. definem este modelo de criptografia baseado
em identidade através de quatro algoritmos, chamados de configuração (setup),
extração (extract), criptografia (encrypt) e decriptografia (decrypt), que resumiremos
a seguir:
Configuração
- Seleção dos parâmetros q, G1, G2, P e t ;
- Escolha da chave particular s, tal que s ∈ Zq* e cálculo da chave pública RTA,
conforme equação (1);
- Escolha das funções de espalhamento H1 e H3.
Os parâmetros do sistema são os valores públicos (q, G1, G2,, P, t, RTA, H1, H3).
A chave particular s é também chamada de chave mestra.
Extração
-
Cálculo de QID, para um dado ID, conforme equação (3);
Cálculo da chave particular SID baseada em identidade, conforme
equação (2).
122
Pesquisa Naval Nº 16, Outubro de 2003
Criptografia
Decriptografia
-
Cálculo de (U,V), conforme equações (4) e (5).
Recuperação do legível m, conforme equação (6).
Os algoritmos configuração e extração são executados pela Autoridade de
confiança (TA) e os algoritmos criptografia e decriptografia pelos participantes da
comunicação.
3.1 Importância da escolha do elemento aleatório r
Vimos nas equações (4) e (5) que Alice deve escolher um r diferente para cada
mensagem que deseja criptografar. O que aconteceria se ela escolhesse sempre o
mesmo r ?
Suponha que Alice enviou as mensagens m1 e m2 para Beto e não teve a
preocupação de selecionar dois r distintos. Pelas equações (4) e (5), vemos que o valor
de U será o mesmo, tanto para m1 quanto para m2 , apenas os valores de V serão
diferentes para cada mensagem. Sejam então V1 e V2 os valores calculados por Alice,
sobre m1 e m2, respectivamente. Da mesma forma, como r é o mesmo para m1 e m2, o
valor de H3(t(RTA, rQBeto)) permanece constante. Vamos chamar este valor de x. Desta
forma, podemos reescrever a equação de (5) como:
V1 = m1 ⊕ x
V2 = m 2 ⊕ x
Se um intruso Carlos interceptar os valores V1 e V2, ele pode calcular:
V = V1 ⊕ V2
= (m1 ⊕ x) ⊕ (m2 ⊕ x)
= m1 ⊕ m2
Conhecendo o valor de V se o intruso conseguir ter acesso a m1 (s.p.g.)4, pode realizar
um ataque de “texto legível conhecido” e recuperar m2.
4. Assinatura em sistemas baseados em identidade
Existem diversos sistemas de assinatura baseados em identidade, como CHA,
J.C. e CHEON, J.H., HESS, F. e outros. Vamos apresentar aqui o esquema de Hess, que
é mais eficiente que os demais, segundo CHEN,L. et al..
Assinatura
Alice, querendo assinar uma mensagem m primeiramente escolhe um valor k ∈ e um
ponto aleatório P1 ∈ G1* e calcula5:
4
5
r = t(P1,P)k
(7)
h = H2(m || r)
(8)
Sem perda de generalidade.
O termo | | na equação (8) significa “concatenar”.
Pesquisa Naval Nº 16, Outubro de 2003
U = hSalice + kP1
123
(9)
Onde a assinatura de m é (U,h).
Note em (9) que Alice usa sua chave particular Salice para gerar a assinatura de
m. Observe também que a “soma” na equação (9) representa uma soma de pontos, pois
hSalice e kP1 são pontos de uma curva elíptica.
Verificação
Se Beto deseja verificar se a assinatura é realmente de Alice, faz o seguinte cálculo:
r = t(U,P). t(Qalice, -RTA)h
(10)
Onde - RTA é o ponto simétrico de RTA em relação ao eixo das abscissas.
Após calcular r, Beto aceita a assinatura de Alice como válida se, e somente se:
h = H2(m || r)
(11)
Note que somente valores públicos são utilizados na verificação de uma
assinatura.
Demonstração
Vamos demonstrar que a equação (10) é satisfeita para uma assinatura válida.
Observe que são empregadas as propriedades de bilinearidade, vistas anteriormente
t(U,P). t(Qalice, -RTA)h = t(hSalice + kP1,P). t(Qalice, -RTA)h
= t(hSalice + kP1,P). t(Qalice, -sP)h
= t(hSalice + kP1,P). t(Qalice, -P)sh
= t(hSalice + kP1,P). t(sQalice, P)-h
= t(hSalice + kP1,P). t(Salice, P)-h
= t(hSalice + kP1,P). t(-hSalice, P)
= t(hSalice -hSalic + kP1,P)
= t( kP1,P)
= t(P1,P)k
= r
pela equação (7)
Note que, como h é parte da assinatura de m, mesmo que ele tenha sido
alterado por um ataque de modificação, a equação (10) será satisfeita.
Para que Beto possa garantir que (U,h) é a assinatura da mensagem m, após
calcular o valor de r, ele ainda deve verificar a condição da equação (11). Caso o h
encontrado por Beto, com base no valor de r que ele acabou de calcular seja diferente
do valor de h que ele recebeu na assinatura de Alice, Beto rejeita a assinatura.
5. Resultados obtidos
Relacionaremos, a seguir, as principais vantagens e desvantagens dos sistemas
criptográficos baseados em identidades.
124
Pesquisa Naval Nº 16, Outubro de 2003
§
Vantagens
-
Não é necessário um diretório de chaves públicas - Como vimos, a
chave pública baseada em identidades é (função de) alguma característica
que identifique o usuário de forma única, chamada de identificador. Desta
forma, se pensarmos que o identificador é o endereço eletrônico de um
usuário, uma vez conhecendo este endereço eletrônico (e, obviamente,
precisamos conhecer, se quisermos enviar-lhe uma mensagem via web),
podemos enviar-lhe mensagens sigilosas, sem que seja necessário
recorrermos a um diretório de chaves públicas.
-
Qualquer entidade que possua um par de chaves padrão pode fazer
o papel de autoridade de confiança - Vimos que a Autoridade de confiança
tem conhecimento de todas as chaves particulares de seus usuários.
Este fato, nem sempre, é desejável. Considere, por exemplo, uma empresa
que trata de assuntos sensíveis. Se a Autoridade de confiança fosse
uma entidade externa à empresa, ela teria acesso a todas as mensagens
tramitadas na empresa, o que pode vir a se tornar um problema (suponha
que esta autoridade de “confiança” foi subornada pela empresa
concorrente). Com sistemas baseados em identidade, basta que uma
entidade possua um par de chaves padrão, como vimos na seção 2.4,
para que possa gerar as chaves baseadas em identidade. Portanto, o
Presidente da empresa pode fazer o papel de Autoridade de confiança.
-
A autoridade de confiança tem conhecimento de todas as chaves
particulares de seus usuários - Este fato é conhecido como custódia de
chaves e embora nem sempre seja desejável (e por esta razão, também o
incluímos nas desvantagens), em algumas situações, pode ser
conveniente a possibilidade de recuperação de chaves particulares.
Vamos aproveitar a situação descrita na vantagem anterior, onde o Presidente da
empresa age como Autoridade de confiança. Neste caso, o conhecimento das chaves
particulares é desejável. Imagine que um diretor da empresa sofreu um grave acidente
e não tem condições de acessar seus arquivos nem confiar sua chave para uma terceira
pessoa. Como o presidente gerou a chave particular deste diretor, ele conhece esta
chave e, portanto, pode recuperar os arquivos de interesse da empresa que tenham
sido criptografados com a chave pública baseada em identidade deste diretor.
-
Alice pode enviar mensagens criptografadas para Beto mesmo se
ele ainda não obteve seu par de chaves do gerador de chaves particulares
(PKG) - Diferentemente dos sistemas de chave pública tradicionais, em
que a chave pública é uma seqüência aleatória de bits, e portanto deve
ser previamente calculada, juntamente com seu par (chave particular),
Pesquisa Naval Nº 16, Outubro de 2003
125
para que uma mensagem possa ser enviada, nos sistemas baseados
em identidade Alice pode enviar uma mensagem sigilosa para Beto
antes mesmo de ele ter obtido seu par de chaves baseadas em
identidade de uma Autoridade de confiança. Alice precisa apenas da
chave pública padrão da Autoridade de confiança que irá gerar o par
de chaves de Beto.
Caso Alice tenha conhecimento desta Autoridade de confiança (por exemplo,
digamos que a autoridade em questão é o presidente da empresa em que Alice trabalha
e que Beto acabou de ser admitido nesta empresa, mas ainda não obteve seu par de
chaves baseadas em identidade), ela envia uma mensagem criptografada, utilizando
como identificador o endereço eletrônico de Beto. Beto, por sua vez, ao receber a
mensagem criptografada, precisará apenas solicitar um par de chaves à Autoridade de
confiança usando seu e-mail como identificador e então, decriptografar a mensagem.
-
Não é necessário Alice obter o certificado da chave pública de Beto
- Diferentemente da criptografia assimétrica tradicional, onde não há
nenhuma relação entre o usuário e sua chave pública, nos sistemas
baseados em identidade a chave pública é uma característica que identifica
o usuário de forma única e que ele não tem como negar que esta
característica diz respeito a ele. Portanto, não há a necessidade de
certificados digitais para autenticar chaves públicas e,
conseqüentemente, não há necessidade de se estabelecer uma infraestrutura de chaves públicas.
§ Desvantagens
-
A autoridade de confiança tem conhecimento de todas as chaves
particulares de seus usuários - Resolvemos repetir este item, agora como
desvantagem, pois dependendo da situação, o conhecimento de chaves
particulares (custódia de chaves) por uma entidade externa pode causar
sérios problemas de segurança (p. ex. como no caso de suborno da
Autoridade, comentado anteriormente).
-
Dificuldade de implementação do emparelhamento de Tate - Vimos
que, em termos computacionais, o cálculo do emparelhamento em curvas
elípticas é a operação de maior custo. Dependendo da forma como é
implementado, um sistema baseado em identidade pode se tornar inviável
de ser utilizado em termos práticos, pois pode se tornar muito lento.
Alguns pesquisadores como GALBRAITH, S. et al., BARRETO, P. et al
e BARRETO, P., LYNN, B. e SCOTT, M. já conseguiram uma
implementação mais eficiente do emparelhamento de Tate, porém este
ainda possui ordem de grandeza superior ao cálculo de exponenciação
em um corpo finito.
126
Pesquisa Naval Nº 16, Outubro de 2003
6. Conclusão e trabalhos relacionados
Procuramos mostrar neste artigo o conceito de sistemas criptográficos
baseados em identidades, onde a chave pública de um usuário é alguma característica
que o identifique de forma única, não havendo, portanto, a necessidade de se manter
um diretório público de chaves e nem de se garantir a autenticidade de uma chave
pública por meio de certificados digitais, como na criptografia assimétrica tradicional.
Uma das principais vantagens dos sistemas criptográficos baseados em identidade é
que as chaves podem ser geradas por exemplo, pelo Presidente de uma empresa ou até
mesmo pelo próprio usuário, permitindo com isso uma série de aplicações, que podem
ser vistas em CHEN, L. et al. Neste mesmo artigo, o leitor poderá ver também como
conseguir uma hierarquia de certificação em sistemas baseados em identidades de
forma escalável.
Um outro conceito importante que usa a propriedade de bilinearidade chamase “assinatura curta” (short signatures) e pode ser visto no artigo de BONEH,D.,
LYNN,B. e SHACHAM, H. Outra importante aplicação de sistemas criptográficos
baseados em identidades é o conceito de assinatura & criptografia em um único passo,
conhecido na literatura como signcryption, que possibilita a autenticação da origem e
do destino em uma comunicação e que pode ser estudado em MALONE-LEE, J. e em
NALLA, D. e REDDY, K.C. .
7. Referências Bibliográficas
BARRETO, P., et al., Efficient Algorithms for Pairing-Based Cryptosystems. Advances
in Cryptology - Crypto’2002, Lecture Notes in Computer Science 2442, SpringerVerlag (2002), pp. 354—368.
BARRETO, P., LYNN, B. e SCOTT, M., On the selection of Pairing-Friendly Groups.
Disponível em <http://eprint.iacr.org/2003/086>. Acesso em 04/05/2003.
BARRETO, P., Curvas Elípticas e Criptografia: Conceitos e Algoritmos. Disponível
em <http://planeta.terra.com.br/informatica/paulobarreto>. 1999. Acesso em 25/
03/2003.
BONEH, D. e FRANKLIN, M., Identity Based Encryption from the Weil Pairing.
Advances in Cryptology - CRYOTO’2001, Springer-Verlag, LNCS 2139, pp. 213229, 2001.
BONEH, D., LYNN, B. e SHACHAM, H., Short Signature from the Weil Pairing.
Advances in Cryptology - ASIACRYPT’2001, Springer-Verlag, LNCS 2248, pp.
514-532, 2001.
CHA, J.C. e CHEON, J.H., An Identity-based Signature from gap Diffie-Hellman groups.
LNCS 2567, p. 18-30. Springer-Verlag 2002.
Pesquisa Naval Nº 16, Outubro de 2003
127
CHEN,L., et al., Certification of Public Keys within an Identity-Based System. 5th
International Security Conference, ISC 2002, LNCS 2433, pp. 322-333, 2002.
GALBRAITH, S., HARRISON, K. e SOLDERA, D., Implementing the Tate Pairing.
LNCS 23 69, pp.324-337. Springer-Verlag 2002.
HESS, F., Efficient Identity Based Signature Schemes Based on Pairings. LNCS 2595.
p. 310-324. Springer-Verlag 2002.
MALONE-LEE, J., Signcryption with non-Repudiation. Tecnichal Report CSTR 02004, Department of Computer Science, University of Bristol, June 2002.
NALLA, D. e REDDY, K.C., Signcryption scheme for Identity-based Cryptosystems.
Disponível em <http://eprint.iacr.org/2003/066/>. 2003. Acesso em 22/04/2003.
SHAMIR, A., Identity Based Cryptosystems and Signature Schemes. Advances in
Cryptology - CRYPTO’84, Springer-Verlag, LNCS 196, pp. 47-53, 1985.
SILVERMAN, J., The Arithmetic of Elliptic Curves. 1ª ed. Springer Verlag. New York
1986.
TERADA, R., Segurança de Dados- Criptografia em Redes de Computador. 1ª ed.
Edgard Blücher, São Paulo 2000.
128
Pesquisa Naval Nº 16, Outubro de 2003
Centro Tecnológico da Marinha
em São Paulo - CTMSP
CTMSP – TECNOLOGIA PRÓPRIA É INDEPENDÊNCIA
O Programa Nuclear da Marinha (PNM), iniciado em 1979, foi concebido
com o propósito de gerar capacitação tecnológica no País, para projetar e construir
um submarino nacional de propulsão nuclear, no início do século XXI. É importante
ressaltar que esse programa faz parte de um contexto mais amplo do Programa
Autônomo de Tecnologia Nuclear, o chamado Programa Nuclear Brasileiro, que foi
impulsionado, tendo como metas o domínio completo do ciclo do combustível
nuclear e a utilização pacífica da energia nuclear, de modo a suprir as necessidades
do País na área nuclear não atendidas pelo Acordo Brasil-Alemanha.
O Centro Tecnológico da Marinha em São Paulo (CTMSP) foi criado pelo
decreto nº 93.439, de 17 de outubro de 1986, sob o nome de Coordenadoria para
Projetos Especiais (COPESP), tendo sua denominação alterada para CTMSP em
1995. É uma Organização Militar que trabalha em pesquisa e desenvolvimento, com
o propósito de promover sistemas nucleares e energéticos para propulsão naval.
As atividades realizadas pelo CTMSP visam contribuir para o projeto e a construção
de um submarino de propulsão nuclear nacional, necessário à preservação dos
interesses marítimos do País.
INSTALAÇÕES
A sede do CTMSP está instalada no campus da Universidade de São Paulo
(USP), onde se encontram outros importantes centros de pesquisas nacionais. Em
Iperó, na região de Sorocaba, está o Centro Experimental Aramar (CEA), que abriga
instalações de testes, laboratórios de validação experimental e diversas oficinas
especializadas.
Centro Tecnológico da Marinha em São Paulo
Av. Professor Lineu Prestes, 2468 - Cidade Universitária - Butantã
CEP: 05508-000 - São Paulo, SP, Brasil
Tel: (011) 3817-7233 - Fax: (011) 3814-4695
XI
Capítulo
ESTRATÉGIAS DE IMPLEMENTAÇÃO E EFEITOS DE ARRASTE DOS
GRANDES PROGRAMAS DE DESENVOLVIMENTO TECNOLÓGICO
NACIONAIS: EXPERIÊNCIAS DO PROGRAMA NUCLEAR DA MARINHA DO
BRASIL
CF (EN) Leonam dos Santos Guimarães
Coordenador do Programa de Propulsão Nuclear
Centro Tecnológico da Marinha em São Paulo
[email protected] / tel: (011) 3817-7148
Resumo
O desenvolvimento da ciência e tecnologia, para o qual a criatividade e a
inovação têm que estar necessariamente presentes, suporta-se em três premissas
fundamentais: a primeira delas se deve à existência do cérebro humano e ao incentivo
à sua potencialidade; a segunda pode ser localizada na mobilização das pessoas e
instituições em torno de objetivos, de bandeiras, de metas geradoras de algum
benefício estratégico ou social; a terceira refere-se ao esforço nacional, canalizando
recursos adequados para a área científica e tecnológica. A Marinha do Brasil,
através de seu Centro Tecnológico em São Paulo desenvolveu uma abordagem
particular para viabilizar estas três premissas básicas de forma a efetivar um salto
tecnológico que permitisse ao Poder Naval Brasileiro, através da aplicação da
propulsão nuclear para submarinos, aceder a um patamar de credibilidade
compatível com a sua importância no cenário mundial. Este programa vem, desde o
início dos anos 80, apresentando resultados altamente significativos não só no
sentido vertical da efetiva consecução de suas metas, como também no sentido
horizontal de disseminação das técnicas desenvolvidas através dos efeitos de arraste,
ou seja aplicação dos resultados da Pesquisa e Desenvolvimento (P&D) nuclear em
outros setores, e de diversificação, que se refere a uma deliberada abertura do
programa a outras atividades não estritamente nucleares.
130
Pesquisa Naval Nº 16, Outubro de 2003
PALAVRAS-CHAVE: Transferência de Tecnologia; Programas Mobilizadores; Arraste
Tecnológico; Energia Nuclear; Indústria Naval
Abstract
The science and technology development, for which creativity and innovation
must be always present, are supported by three fundamental principles: the first is
related to existence of human brains and good conditions for its realizations; the
second could be located in people and institution mobilization for accomplishment
of objectives and goals which generate strategic or social benefits; the third are
relates to a national effort, making sufficient resources reach the scientific and
technological areas. Brazilian Navy, trough its Technological Center in São Paulo,
developed a particular approach to follow these principles in order to get a
technological “jump” which will give Brazilian Naval Power, through submarine
nuclear propulsion, the capabilities required by the nation´s importance in the
international scene. This Program, started in the early 80´s, has presented very
impressive results, not only in the vertical sense pointing to its goal, but also in the
horizontal sense of diversification, referring to a deliberate change of activities
away from purely nuclear, and spin-offs, referring to application of results of nuclear
R&D outside nuclear sector.
KEYWORDS: TECHNOLOGICAL CHANGE; COOPERATIVE RESEARCH; SPIN-OFF EFFECTS; NUCLEAR
ENERGY; NAVAL INDUSTRY
“The development of naval nuclear propulsion plants is a good
example of how one goes about getting a job done. It is a good subject
to study for methods... It has involved the establishment of procedures
and ways of doing government business for which there was no
precedent, and which I believe will be necessary in the future for similar
large projects.”
Hyman George Rickover
Admiral, US NAVY
1. INTRODUÇÃO
Os saltos tecnológicos alcançados pela indústria brasileira através de grandes
programas de desenvolvimento tecnológico tais como, sem pretender ser exaustivo, o
Programa de Satélites conduzido pelo INPE, o Programa de Águas Profundas conduzido
pela PETROBRÁS e o Programa de Propulsão Nuclear conduzido pela Marinha do
Brasil, indicam de maneira inequívoca o caminho a ser seguido para o efetivo
desenvolvimento e disseminação de tecnologias avançadas no País.
Com efeito, esta constatação nada possui de original, pois a estratégia de
desenvolvimento científico e tecnológico através da implementação de grandes projetos
nacionais vem sendo intensivamente praticada desde a Segunda Guerra Mundial pelas
nações desenvolvidas. Os maiores e mais significativos exemplos desta estratégia
podem ser identificados no nosso sempiterno paradigma que são os EUA. Lá
encontraremos o que talvez tenha sido o pioneiro destes programas, o Projeto
Pesquisa Naval Nº 16, Outubro de 2003
131
Manhattan (desenvolvimento de artefatos nucleares), que apesar de seus objetivos
eticamente criticáveis, inquestionavelmente alterou para sempre os destinos da
humanidade. Os efeitos de arraste tecnológico do Programa Espacial americano, em
especial das missões Apollo, são amplamente conhecidos. Talvez menos divulgado,
mas também altamente relevante, foram os efeitos do Programa de Propulsão Nuclear
da U.S. Navy, que está na origem de 70% do parque eletro-nuclear mundial, baseado
em reatores do tipo PWR, que foram concebidos dentro de seu escopo, e que lançou
as bases para disseminação das práticas de Garantia da Qualidade na indústria.
2. CARACTERÍSTICAS DOS PROGRAMAS DE ARRASTE TECNOLÓGICO
A principal característica de um programa de arraste tecnológico é sua motivação,
provocada por um forte vontade política, capaz de criar um verdadeira bandeira junto
a qual uma significativa parcela da sociedade civil estaria pronta a cerrar fileiras.
Evidentemente, para que esta motivação exista, torna-se indispensável uma definição
clara e uma divulgação objetiva dos reais benefícios estratégicos ou sociais que o
programa propõe-se a efetivar.
Destes benefícios provem uma segunda e fundamental característica destes
programas: eles não podem ser analisados dentro da estrita racionalidade econômicofinanceira, pois uma significativa parte de seus resultados são contabilmente
intangíveis. Uma rápida revisão dos acontecimentos deste século pode-nos mostrar
de maneira clara que os verdadeiros saltos científicos e tecnológicos alcançados neste
período não foram, e nem poderiam ser, motivados pela (ir)racionalidade dos mercados.
Tal afirmativa não deve entretanto ser interpretada como uma crítica ao ideário liberal:
a mesma revisão dos acontecimentos deste século nos mostra também que as forças
de mercado são as únicas capazes de efetivamente viabilizar a disseminação no seio da
sociedade dos benefícios materiais decorrentes dos saltos tecnológicos, constituindo
a derrocada da URSS o exemplo mais evidente deste fato.
Das razões da inadequação das forças de mercado em produzir reais saltos
tecnológicos podemos depreender duas outras características dos programas de arraste
tecnológico: seu longo prazo de maturação, associado à perenidade dos seus efeitos
induzidos, e a impossibilidade de contabilização financeira da globalidade destes efeitos.
Estas duas características estão à raiz das dificuldades da abordagem econômicofinanceira destes programas e a incapacidade dos mercados a executá-los (“a longo
prazo estaremos todos mortos ...”).
A dinâmica de execução dos programas de arraste apresenta também as
características peculiares de multi-disciplinaridade, acarretando o envolvimento de
diversas instituições, cada uma com sua cultura, idiossincrasias e modos de operação
específicos. Um projeto de arraste envolve então, simultaneamente e em diversas
áreas, atividades de pesquisa básica, apoiadas por universidades, atividades de
pesquisa aplicada, apoiada por institutos especializados, atividades de desenvolvimento
de materiais, componentes e instalações-protótipo, apoiadas por centros tecnológicos,
e atividades de produção, apoiadas por indústrias. Evidentemente, para transformar
este conjunto de instituições, a princípio desconexas e não comunicantes, em um
132
Pesquisa Naval Nº 16, Outubro de 2003
sistema harmônico e organizado, no qual a partir da entrada de recursos suficientes
(input) possam sair os produtos físicos (output) estabelecidos pelas metas do programa,
torna-se necessária a implementação de uma estratégia gerencial particular.
A concepção, o desenvolvimento e a operacionalização desta estratégia,
específica a cada programa de arraste tecnológico, constituem outra característica
particular. Esta estratégia depende evidentemente dos objetivos e metas do programa
e de seus fatores condicionantes, de ordem científica, tecnológica, política, econômica
e financeira. Entretanto, pode-se distinguir uma aspecto comum: em nenhum caso eles
podem ser conduzidos de forma convencional e burocrática. As dimensões dos desafios
a que estes programas se propõe a superar exigem criatividade, inovação, audácia,
profissionalismo e, principalmente, uma inabalável fé na importância de seus objetivos
e na essencialidade de suas metas, numa escala sem paralelo.
Resumidamente, podemos considerar que um projeto de arraste tecnológico
requer:
desenvolvimento
suas potencialidade;
• o pleno
uma “massa
crítica” de de
cérebros
humanos, reunidos num ambiente que estimule
•
a motivação, gerada por um objetivo colimador de esforços e sobre o qual não
pairem dúvidas sobre os benefícios estratégicos e sociais que dele virão a ser
derivados;
•
um planejamento de metas intermediárias coerente e consistente com este
objetivo, que seja de conhecimento de todos os envolvidos e sobre qual haja um
convencimento geral sobre sua adequação;
•
uma abordagem gerencial que otimize a alocação de recursos (que serão sempre
insuficientes ...), de forma a aproveitar da melhor forma possível o esforço a ser
3. DESENVOLVIMENTO DA ENERGIA NUCLEAR E O CONTEXTO DE P&D
dispendido.
As aplicações da energia nuclear para geração de potência tem sido
desenvolvidas em muitos países industrializados desde os anos 40. Os primeiros
resultados iniciaram com a construção de reatores de pesquisa ou demonstração de
baixa potência, principalmente para a compreensão dos fenômenos básicos, geração
de dados, teste de combustíveis nucleares e componentes de reatores e para produção
de rádio-isótopos. A fase seguinte consistiu na produção em larga escala de
combustíveis nucleares e a construção dos primeiros reatores nucleares de baixa
potência. Ao mesmo tempo, vários organismos reguladores foram criados em muitos
estabelecimento
deste
novo de
setor
industrial e suase numerosas
países, tr:O
produzindo
um grande
volume
regulamentações
normas de ramificações
projeto.
em vários outros setores exigiu o suporte de um enorme esforço de P&D. Esta P&D
cresceu em paralelo com a expansão da geração de potência pela energia nuclear, que
partiu de zero em 1950 para atingir cerca de 400 GW elétricos em 2000.
áreas, como
exemplo:
Para por
atingir
a situação atual, foi requerido P&D em uma grande variedade de
•
pesquisa básica sobre o fenômeno de fissão nuclear e os meios de controlá-la;
Pesquisa Naval Nº 16, Outubro de 2003
•
•
133
materiais estruturais e equipamentos para contenção de materiais nucleares;
projeto e construção de reatores, de acordo com vários princípios, tornando
sua operação segura;
•
técnicas de análise probabilística;
•
enriquecimento isotópico de materiais físseis;
•
projeto e fabricação de combustível;
•
reprocessamento do combustível usado e reciclagem do plutônio recuperado;
•
manuseio de rejeitos garantindo seu gerenciamento seguro e, finalmente, sua
disposição final;
•
modelagem matemática da operação do núcleo de reatores sob condições
especiais e avaliação da segurança e/ou riscos residuais;
•
desenvolvimento em eletrônica e instrumentação; e
•
desenvolvimento de equipamentos eletro-mecânicos de grande porte, tais como
bombas, trocadores de calor, turbinas e alternadores.
Esta P&D foi principalmente suportada pelos governos: as contribuições do
setor privado restringiram-se, na maior parte dos casos à construção e operação de
instalações de demonstração industrial. A P&D financiada pelos governos introduziu
muitas novas áreas de “excelência” científica e tecnológica, tanto no setor público
quanto no privado.
Logo após os programas de P&D em energia nuclear apresentarem resultados,
desenvolveu-se uma consciência em diversas organizações industriais que as novas
técnicas desenvolvidas para o uso da energia nuclear poderiam também ser exploradas
em outros setores da ciência, tecnologia e indústria. Esta foi a origem das idéias sobre
“diversificação” em outras atividades. Quando o setor nuclear atingiu sua maturidade
técnica e competitividade, alguns centros de P&D e indústrias começaram a converter
parte de suas atividades e serviços em direção a outros objetivos.
Enquanto “diversificação” se refere a uma mudança deliberada de missão para
além das atividades inseridas no contexto inicial, a aplicação dos resultados da P&D
nuclear em outros setores científicos, tecnológicos e industriais é denominada “efeito
de arraste”(“spin-off”). O efeito de arraste, não exclusivo do setor nuclear, constitui
um mecanismo largamente difundido através do qual vários setores da ciência e
tecnologia se influenciam mutuamente. O efeito de arraste, mesmo sendo reconhecido
como altamente relevante é, quase que por definição, tratado com uma prioridade
secundária. Constitui entretanto uma realidade indiscutível: o volumoso investimento
humano, intelectual e material no setor nuclear servem a diversos outros propósitos,
ainda que nem todos possam ser quantificados nem tenham um valor monetário direto,
possibilitando inúmeros benefícios nos demais setores científicos, tecnológicos e
industriais. O desenvolvimento da energia nuclear introduziu muitas novas áreas de
excelência científica ou técnica, muito além de seu domínio.
Atualmente, considerando-se a hipótese de uma expansão da capacidade nuclear
instalada, ou mesmo que esta capacidade permaneça estabilizada, mais P&D é requerida
em áreas tais como:
•
controle de reatores, interação homem-máquina e robótica;
134
Pesquisa Naval Nº 16, Outubro de 2003
•
•
•
•
uso mais econômico dos recursos energéticos contidos no combustível;
otimização da operação de reatores e extensão de sua vida útil;
desenvolvimento de tipos mais econômicos de reatores;
descomissionamento seguro de instalações nucleares, incluindo reatores e
instalações ligadas ao ciclo do combustível;
•
armazenamento seguro de combustíveis usados e rejeitos; e
•
mais recentemente, absorção pelo setor civil dos estoques de materiais nucleares
militares desativados.
A P&D em andamento tem introduzido muitas novas áreas de “excelência”
científica e tecnológica, financiada tanto pelo setor público como pelo privado.
4. MOTIVAÇÃO DO PROGRAMA DA MARINHA
Em 1978 amadureceu na Marinha a idéia de que seria conveniente para o Brasil
dispor de submarino com propulsão nuclear, para que pudéssemos ser, ao início do
século XXI, uma potência naval compatível com as dimensões dos interesses brasileiros
no mar e com nossa vulnerabilidade marítima. E por que, especificamente, é importante
contar com a propulsão nuclear?
•
Queiramos ou não, somos um País debruçado sobre o Oceano Atlântico, com
7408 km de extensão de costa oceânica;
•
De nossa população, de aproximadamente 145 milhões de habitantes, cerca de
105 milhões de pessoas, ou seja, 72,4%, vivem numa faixa litorânea até 100 km da
costa;
•
Mais de 90% de nosso comércio exterior se faz por via marítima; e
•
Consideradas apenas as 200 milhas para nossa zona costeira de influência
econômica, temos uma superfície de 2.750.000 km2, que equivalem a 32,3% da área
continental. Na realidade, segundo o consenso internacional, essa zona de influência
econômica compreende toda a plataforma continental, que em nosso caso é superior
a 200 milhas em alguns trechos. Dessa plataforma extraímos hoje dois terços de
nossa produção petrolífera, e a mesma é sabidamente muito rica também em outros
minerais.
Para preservarmos tantos interesses marítimos, é essencial que estejamos
preparados para, caso necessário, controlar áreas marítimas estratégicas ou negar o
seu controle por potências estrangeiras e impedir a exploração econômica por um
outro país sem nossa concordância, de áreas marítimas dentro da zona de exploração
econômica exclusiva de nosso país.
Precisamos, portanto, possuir uma Marinha eficaz e eficiente, i.e. ao menor
custo possível para nossa sociedade. Como é previsível que por muito tempo não
poderemos contar com uma esquadra poderosa o suficiente para garantir a defesa de
nossos interesses, a efetividade da defesa marítima tem, necessariamente, que privilegiar
o fator surpresa, que atualmente só pode ser proporcionado pelo submarino.
O advento dos satélites e dos modernos sistemas de sensoreamento remoto
praticamente eliminam a possibilidade de os navios de superfície escaparem à deteção.
Pesquisa Naval Nº 16, Outubro de 2003
135
Isto se aplica também, em escala algo mais limitada, aos submarinos convencionais.
Com efeito, esses têm que periodicamente operar próximo à superfície, na condição de
“snorkel”, para recarregar suas baterias. Devido à exposição de mastros e ao elevado
nível de ruído irradiado pelos motores diesel, sua deteção por sensores convencionais,
eletromagnéticos e acústicos, empregados por navios de superfície, aeronaves e
submarinos inimigos é extremamente facilitada por esta condição de operação. Além
disto, a descarga de gases de exaustão dos motores diesel próximo a superfície do mar
gera um contraste térmico passível de deteção pelos sensores infra-vermelhos instalados
em satélites para sensoreamento remoto.
A inexistência da necessidade imperativa de operar periodicamente próximo à
superfície, podendo permanecer longos períodos submerso, aliada a um projeto
criterioso visando a minimização do nível de ruído irradiado, adotando-se certas soluções
técnicas tais como a utilização da circulação natural para o resfriamento do reator,
tornam a deteção de um submarino nuclear extremamente difícil.
O submarino de propulsão nuclear constitui-se na alternativa mais eficiente e
econômica de que a Marinha pode dispor para atuar de maneira crível na defesa dos
interesses nacionais: seu custo é da mesma ordem de grandeza de duas fragatas similares
às disponíveis atualmente e sua eficácia é muito maior.
Uma evidência da importância da propulsão nuclear é a existência atual de
cerca de 500 navios militares com propulsão nuclear (dos quais cerca de 480 são
submarinos) construídos ou em construção: em média um navio nuclear entrou em
operação a cada mês nesta última década.
Atualmente cinco países operam navios nucleares: China Popular, Estados
Unidos, França, Grã-Bretanha e Rússia. Todos esses países projetaram e construíram
seus próprios navios de maneira autônoma. Apenas a Grã-Bretanha recebeu apoio
técnico norte-americano no início de seu programa de desenvolvimento.
O elenco limitado de países que possuem navios nucleares (a imensa maioria
destes constituída por submarinos) pode sugerir que esses navios se constituem em
uma arma cara, privilégio de nações ricas, com interesses estratégicos globais. Tratase, porém de um oligopólio essencialmente tecnológico, de imenso potencial econômico,
zelosamente protegido pelos países que detêm a tecnologia.
Resulta, portanto, que é indispensável à nossa Marinha possuir a propulsão
nuclear para poder exercer sua missão ao menor custo para a sociedade.
Por outro lado, considerando os aspectos extra-Marinha, simultaneamente
temos certeza de que a energia nuclear é forte candidata a complementar as necessidades
de nossa matriz energética em futuro não muito distante, face ao esgotamento de
nosso potencial hidroelétrico e ao custo e problemas técnicos associados às outras
alternativas. Assim sendo, é fundamental que nos capacitemos para exercer a opção
136
Pesquisa Naval Nº 16, Outubro de 2003
nuclear, quando ela se fizer necessária, sem dependência e tutela externas no tocante
à tecnologia e aos fornecimentos.
5. ANTECEDENTES DO PROGRAMA DA MARINHA
No final da década de 70, a situação da pesquisa nuclear no Brasil não era nada
animadora, pois desde meados do decênio anterior tinha havido um arrefecimento dos
esforços autóctones de viabilização do ciclo do combustível.
Para compensar o atraso no qual o país se encontrava nessa área, foi celebrado
em 1975 o Acordo Brasil-Alemanha, no qual os segmentos sociais que então detinham
o poder de decisão depositaram grandes esperanças. Esse acordo chegou a causar
inicialmente alguma apreensão na comunidade internacional; os contratos e as medidas
políticas e administrativas tomadas como decorrência, entretanto, acalmaram essa
comunidade e marcaram uma época de grandes gastos e poucos resultados.
Em 1978, todos os institutos de pesquisa nuclear antes subordinados à Comissão
Nacional de Energia Nuclear (CNEN) haviam sido transferidos para a então
NUCLEBRÁS. Todos os diretores técnicos das subsidiárias desta eram, por contrato,
necessariamente alemães. Era razoável, portanto, que houvesse um esvaziamento da
pesquisa nos institutos nacionais, se não por razões comerciais, pelo menos pela
natural identificação desses diretores com os centros de pesquisa estrangeiros a que
pertenciam.
O único instituto que não fora assimilado pela NUCLEBRÁS tinha sido o
Instituto de Pesquisas Energéticas e Nucleares (IPEN) de São Paulo. Como entretanto
esse havia sido transferido pelo Governo Federal ao Governo do Estado de São Paulo
no início da década de 70, contrariando uma tendência mundial de manutenção da
pesquisa nuclear na esfera federal, não contava o IPEN com o apoio nem da
NUCLEBRÁS nem da CNEN. Embora tivesse seu custeio assumido pelo Estado de São
Paulo, não dispunha esse Instituto de nenhum grande programa para catalisar e
direcionar seus esforços e sua capacidade.
Tínhamos um paradoxo: o maior instituto de pesquisas nucleares do país, o
IPEN, estava praticamente à margem e sem incentivo - uma prova cabal desse estado
de coisas foi a mudança, a 16 de março de 1979, da razão social do Instituto, com a troca
do nome Instituto de Energia Atômica (IEA) para Instituto de Pesquisas Energéticas e
Nucleares (IPEN). Essa mudança indicava o desalento, e este levava à busca de novos
caminhos, com a atividade nuclear se transformando em atividade complementar.
Resumindo, em 1978 e no início de 1979, a CNEN se encontrava atrofiada,
apenas com atividades regulamentadoras e fiscalizadoras, sem o lastro técnico
proporcionado pela pesquisa, e com atribuições de coordenar o Programa Pró-Nuclear
de formação de recursos humanos. A NUCLEBRÁS apostava tudo na transferência de
tecnologia alemã, muito embora propagandeasse alguma pesquisa. O IPEN estava
totalmente à margem dos acontecimentos.
Em virtude das pressões sobre os signatários do Acordo Brasil-Alemanha,
este era extremamente restritivo no que diz respeito à aplicação de qualquer tecnologia,
produto ou informação técnica dele decorrentes, na defesa de nosso País. Além disso,
Pesquisa Naval Nº 16, Outubro de 2003
137
a transferência de tecnologia prevista no acordo restringia-se essencialmente ao
detalhamento de projetos concebidos no estrangeiro. Pode-se afirmar com segurança
que os dispêndios decorrentes do dito Acordo pouquíssimo contribuíram para nos
capacitar a executar as fases mais nobres da técnica de projeto - a concepção e o
projeto básico - que são aquelas que efetivamente têm um efeito multiplicador
significativo no domínio das tecnologias de ponta.
Valeria recordar que a principal razão que motivou o Brasil a assinar aquele
Acordo foi o desejo de dominar o ciclo do combustível nuclear. Naquela época, a usina
de Angra-I já estava em construção e o volume de informações que dispúnhamos e
que iríamos dispor em decorrência daquela usina não seria em muito ampliado com a
implantação das demais centrais núcleo-elétricas previstas no Acordo. Além do mais,
o acesso à importação de usinas nucleares não nos era então bloqueado - e continua
a não sê-lo - todas as restrições e bloqueios de cunho político estavam, e continuam a
estar, concentrados na tecnologia do ciclo do combustível. Caberia também acrescentar
ainda que a aquisição paulatina de centrais núcleo-elétricas, na medida das reais
necessidades energéticas do País, permitiria a incorporação dos avanços tecnológicos,
o que não seria possível pela compra em pacote de um grande número dessas usinas,
conforme preconizado pelo dito Acordo.
Quando da assinatura do Acordo, o País já dominava a etapa inicial do ciclo do
combustível - da mineração do urânio até a produção do “yellow cake” - nas instalações
de Poços de Caldas e o Centro de Engenharia Química do IPEN já dominava, em escala
laboratorial, as etapas de purificação e produção de hexafluoreto de urânio. Ainda no
IPEN, já havia incursões às etapas de reconversão e produção de pastilhas. Em suma,
a competência de uma equipe reduzida daquele instituto tinha feito com que as etapas
do ciclo do combustível que dependiam fundamentalmente da Química apresentassem
um bom grau de adiantamento.
Sem dúvida, a etapa do ciclo do combustível nuclear que representa o maior
desafio tecnológico e que por esta razão motivara o Acordo Brasil-Alemanha é o
enriquecimento isotópico de urânio. O Acordo nada mais era que um grande pacote de
compra de centrais nucleares para motivar a venda da tecnologia de enriquecimento.
A tecnologia de enriquecimento que os alemães haviam desenvolvido e que
inicialmente se dispunham a transferir era a da ultra-centrifugação. Tivemos então, na
assinatura dos contratos comerciais em que se desdobrou o Acordo, um fato insólito:
alegando bloqueio da Holanda, um de seus parceiros no consórcio URENCO, bloqueio
este que teria sido motivado por pressão dos EUA durante a negociação dos contratos,
a Alemanha retirou a possibilidade de venda da tecnologia de ultra-centrifugação.
Ofereceu, como sucedânea, a tecnologia de enriquecimento por jato centrífugo
(“jet nozzle”), que se encontrava e ainda se encontra em desenvolvimento - nós
brasileiros participaríamos deste desenvolvimento, financiando-o. Infelizmente nossos
negociadores de contratos aceitaram essa modificação, o que significa que concordaram
que nossos cofres públicos pagassem um alto preço por um grande pacote de compra
de centrais que trazia em seu bojo o desenvolvimento de uma tecnologia de
138
Pesquisa Naval Nº 16, Outubro de 2003
enriquecimento isotópico de urânio - o ponto principal do Acordo - que por sinal não
era, e continua não sendo, nada promissora sob os aspectos técnicos e econômicos.
6. ESCOPO DO PROGRAMA DA MARINHA
Apesar do panorama desanimador ao fim dos anos 70, a Marinha vislumbrou a
possibilidade de reverter as perspectivas futuras, através do lançamento de um
programa integrado de pesquisa e desenvolvimento. Desde 1978 ficou claro que um
programa de capacitação para a propulsão nuclear teria que partir de um esforço
autônomo genuinamente nacional e teria que compreender a viabilização do ciclo do
combustível nuclear com tecnologia nacional, independente do Acordo BrasilAlemanha, e a capacitação em projeto de pequenos reatores de potência do tipo PWR,
com vistas à aplicação na propulsão de submarinos.
A importância do domínio do ciclo do combustível nuclear decorre do fato de
que as restrições e o bloqueio internacionais, conforme anteriormente citado, estão
concentrados na respectiva tecnologia. Aliás, como também já foi citado, a principal
motivação brasileira para a assinatura do Acordo Brasil-Alemanha foi a necessidade
de se dominar essa tecnologia, já que a importação de centrais nucleares, principal
objeto comercial do acordo, não era bloqueada naquela época, e continua não sendo.
A etapa do ciclo do combustível que representa o maior desafio tecnológico é
o enriquecimento isotópico de urânio, que por isso sempre mereceu a maior
concentração de esforços daquela vertente do programa voltada para o ciclo do
combustível.
A tecnologia escolhida foi a de enriquecimento por ultracentrifugação,
considerada a mais promissora para um desenvolvimento independente.
Em 1981, um ano após ter sido completado seu projeto, concluiu-se a fabricação
do primeiro protótipo de ultracentrífuga, e em setembro de 1982 realizou-se com sucesso
a primeira operação de enriquecimento isotópico de urânio com equipamento
completamente projetado e construído no Brasil.
Em 1983 o programa foi revisto e ampliado, passando-se do desenvolvimento
de ultracentrífugas para o de usinas de enriquecimento isotópico. Ou seja, teve início
um esforço de nacionalização e industrialização de todos os equipamentos periféricos
das usinas de enriquecimento.
ÿ:
Em abril de 1988 foi inaugurado o Laboratório de Enriquecimento Isotópico
(LEI), que constitui a primeira etapa da Usina de Demonstração de Enriquecimento
Isotópico de Urânio. A conclusão dessa usina constitui a principal meta do programa,
no que diz respeito ao ciclo do combustível nuclear. Por outro lado as demais usinas de
demonstração do ciclo já foram projetadas, e o início das respectivas construções
depende exclusivamente do aporte de recursos.
No tocante ao desenvolvimento da capacidade de projeto e construção de
centrais nucleares, optou-se pelo estabelecimento de metas intermediárias, para
capacitação nas áreas de projeto do núcleo de reatores, termohidráulica de alta pressão
e equipamentos a vapor, convergindo-se, então, para o projeto e construção de um
reator de potência de pequeno porte.
Pesquisa Naval Nº 16, Outubro de 2003
139
As metas intermediárias estão se concretizando na forma de grandes
experimentos de validação dos cálculos teóricos. Assim é que, em novembro de 1988,
entrou em operação o reator nuclear de potência zero IPEN/MB-01. Para que isso fosse
possível, foram realizadas todas as etapas necessárias à produção de seu combustível,
foi desenvolvida toda a instrumentação necessária, e todos os seus equipamentos e
sistemas foram projetados e construídos em nosso país.
Também em novembro de 1988 entrou em funcionamento o circuito
termohidráulico experimental de 150 bar, também totalmente projetado e construído no
Brasil, e que possui os mesmos recursos dos circuitos utilizados nos centros de países
mais avançados, onde foram desenvolvidos reatores de água pressurizada.
Encontra-se ainda em fase de operação o Laboratório de Testes de Equipamentos
de Propulsão, para desenvolvimento de equipamentos a vapor.
Uma parte significativa dos componentes do primeiro reator nacional de água
pressurizada está em fabricação em nossa indústria, e está também em andamento a
construção civil dos prédios que abrigam e dão apoio ao reator. Ou seja, o primeiro
reator de potência genuinamente nacional está em gestação, e seguramente entrará em
operação ainda na atual década.
Já temos potenciais condições de dar o próximo passo em direção a um segundo
protótipo de reator nacional de água pressurizada. E já estamos habilitados a projetar
uma mini central núcleo-elétrica com capacidade entre 60 e 100 Mw, utilizando os
modernos conceitos e técnicas que foram empregados no projeto do primeiro protótipo,
que o tornam um reator intrinsecamente seguro, como deverão ser os reatores de
potência da nova geração.
7. ESTRATÉGIA GERENCIAL DO PROGRAMA
Ao engajar-se no programa de capacitação nuclear, teve a Marinha como
preocupação constante institucionalizar sua participação. Assim sendo, foi obtida a
autorização presidencial para o desencadeamento do programa em dezembro de 1978 e
foi assinado um convênio com a CNEN, o qual estabeleceu as bases para a cooperação
entre os dois organismos.
O desenvolvimento isolado da capacitação nuclear pela Marinha seria inviável
e, ainda que não o fosse, constituir-se-ia em duplicação de recursos altamente ineficaz.
Optou-se, por conseguinte, por uma abordagem cooperativa, engajando-se a capacidade
técnico-científico-industrial já instalada no País.
Desde a Segunda Guerra Mundial havia uma convivência muito próxima da
Marinha com a comunidade científica e universitária de São Paulo, que se iniciara com
os trabalhos no Instituto de Física da Universidade de São Paulo (USP) na área de
desenvolvimento de sonares, mas que se ampliara com o convênio com o Instituto de
Pesquisas Tecnológicas (IPT), e com a decisão de formar a maior parte dos oficiais
engenheiros na Escola Politécnica da USP. Ocorreu, assim, naturalmente uma
aproximação entre a Marinha e o IPEN, que se tornaram parceiros no empreendimento.
A cooperação foi institucionalizada através de um convênio entre a Diretoria Geral do
Material da Marinha (DGMM) e o IPEN.
140
Pesquisa Naval Nº 16, Outubro de 2003
Esse engajamento do IPEN apresentava vantagens de três naturezas distintas:
em primeiro lugar, como não envolvia nenhuma entidade brasileira ligada ao Acordo
Brasil-Alemanha, não prejudicava o andamento deste, objeto de grandes esperanças
do governo àquela época; em segundo, proporcionava àquele Instituto um projeto de
vulto capaz de colimar os esforços até então dispersos por várias atividades científicas
nem sempre coordenadas; e finalmente, constituía-se num veículo civil para
disseminação do conhecimento acumulado visando colaborar na solução futura dos
problemas associados à composição da matriz energética do País.
O IPEN voltou, em outubro de 1982, à esfera federal, e é atualmente subordinado
à CNEN. A Marinha, por sua vez, criou a Coordenadoria para Projetos Especiais COPESP
(que teve sua denominação alterada em 1995 para Centro Tecnológico da Marinha em
São Paulo CTMSP), sediada junto ao IPEN, para executar o programa. Esse modelo de
íntima cooperação entre a Marinha e a agência nacional de energia nuclear para o
desenvolvimento da propulsão nuclear e da tecnologia de centrais nucleares foi
utilizado com sucesso pelos Estados Unidos e pela França e o mesmo vem ocorrendo
na China Popular. A colaboração com o IPEN evolui ao longo do tempo, envolvendo
os demais institutos de pesquisa da CNEN, como o CDTN.
As participações relativas da Marinha e dos institutos de pesquisa levam em
conta as capacidades e características respectivas das instituições. Em linhas gerais,
a Marinha gerencia os esforços de projeto, construção e operação das instalações,
desempenhando as tarefas de engenharia. O pessoal técnico dos institutos de pesquisa
participa ativamente daquelas atividades que lhe são típicas, quais sejam, atividades
científicas, concepção de sistemas e operação a nível laboratorial.
A preocupação inicial foi a de viabilizar o ciclo do combustível nuclear, pois era
patente que seria inútil desenvolvermos uma capacitação em projeto e construção de
uma instalação propulsora nuclear para submarinos (e paralelamente de pequenas
centrais núcleo-elétricas) se não dispuséssemos do combustível nuclear. Quando se
fala em viabilizar o ciclo do combustível, a primeira preocupação é, necessariamente,
com a etapa do enriquecimento isotópico do urânio, que é a mais complexa
tecnologicamente e a mais sujeita a bloqueios externos.
No que diz respeito aos sistemas e instalações, a abordagem global dos diversos
desenvolvimentos do programa no campo do ciclo do combustível, compreende as
fases de concepção, comprovação laboratorial e construção de usinas-piloto de
demonstração industrial, para avaliação e eventuais ajustes no processo, além de
levantamento de parâmetros econômicos. Paralelamente, estas usinas-piloto são
dimensionadas de tal forma que possam vir a atender futuramente à demanda da Marinha
por combustível nuclear. O programa não inclui a construção de unidades de porte
industrial com finalidades comerciais, que deverá ser feita por outros organismos
públicos ou privados.
A boa prática de engenharia aconselha que a ordem mencionada no
parágrafo anterior seja seguida em novos desenvolvimentos de sistemas e
instalações. Muitas vezes o açodamento ou o amadorismo fazem com que se tente
Pesquisa Naval Nº 16, Outubro de 2003
141
“queimar” etapas, reduzindo ou eliminando as fases intermediárias de comprovação
experimental e de construção de unidades-piloto. O resultado dessa omissão é,
freqüentemente, uma instalação industrial com defeitos de nascença que comprometem
seu funcionamento comercial.
A materialização dos objetivos do programa através de usinas de demonstração
proporciona, assim, economias a curto e a longo prazo. Isto porque, a par de permitirem
a demonstração da viabilidade e eficiência dos processos desenvolvidos e a correção
de eventuais defeitos antes da construção de unidades em escala industrial, elas têm
porte suficiente para atender às demandas dos reatores navais, que são de pequeno
porte, bem como dos reatores de pesquisa que dão suporte experimental ao
desenvolvimento destes. Evita-se assim que as futuras unidades em escala industrial
tenham que operar fora de seu padrão normal de funcionamento para atender a demanda
particularizada daquelas classes especiais de reatores.
O programa sempre privilegiou, portanto, um conteúdo de forte experimentação
para comprovação de cálculos teóricos, tanto mais necessário pela notória insuficiência
de recursos experimentais e laboratoriais de nossas universidades e pela conseqüente
falta de uma cultura experimental no País.
No que diz respeito às atividades de projeto, adotou-se como norma geral a
execução interna da concepção dos diversos sistemas, envolvendo técnicos e cientistas
do CTMSP e de diversas instituições de pesquisa e universidades nacionais. Contratase, então, junto às principais firmas projetistas genuinamente nacionais, os projetos
básico e executivo, cujos desenvolvimentos são acompanhados de perto e fiscalizados
pela mesma equipe que concebeu os sistemas.
Essa abordagem permitiu o engajamento das principais firmas de engenharia de
projeto brasileiras, além de inúmeras firmas menores, mas de alta qualificação. A
diversificação de contratadas possibilitou a saudável competição, com reflexos
positivos nos custos dos empreendimentos e o sucesso pode ser medido pela
capacidade adquirida de projetar sistemas complexos de vapor, de vácuo e de processos
químicos, até então inexistentes no País.
No que concerne ao parque industrial fabricante de equipamentos, montouse um sistema de nacionalização e industrialização de componentes e equipamentos,
que integra o pessoal técnico do CTMSP e um grande número de indústrias
nacionais de grande porte. O CTMSP gerencia o processo, vinculando a aquisição
dos equipamentos desenvolvidos à prática de preços e qualidade compatíveis
com o mercado internacional.
As atividades a nível laboratorial são conduzidas principalmente em São
Paulo, nas instalações do CTMSP e do IPEN. No Centro Experimental Aramar, em
implantação em Iperó, próximo a Sorocaba, estão sendo construídos os protótipos
e usinas de demonstração.
142
Pesquisa Naval Nº 16, Outubro de 2003
8. GANHOS CIENTÍFICOS E TECNOLÓGICOS DECORRENTES DO
PROGRAMA
Os ganhos científicos e tecnológicos advindos do domínio do ciclo do
combustível nuclear e da capacitação em projeto, construção e operação de instalações
propulsoras nucleares têm profundo impacto no desenvolvimento do País, pois sua
inerente complexidade torna necessária a capacitação numa ampla gama de áreas
tecnológicas correlatas.
Emprendimentos de porte como as usinas de demonstração dos processos do
ciclo do combustível e o protótipo em terra de uma instalação propulsora nuclear para
submarinos, entre outros, trazem imensos ganhos qualitativos para o setor científico e
tecnológico do País.
Nacionalização
Desde o início das atividades do programa em 1979, sua equipe defrontou-se
com óbices e oportunidades ímpares para um processo sistemático de absorção,
aprimoramento e ampla disseminação de tecnologias de ponta até então indisponíveis
no País.
Com efeito, já nos primeiros anos previa-se um crescente bloqueio às
exportações de equipamentos e componentes mais sofisticados pelos países detentores
das respectivas tecnologias, aos quais não interessava o ingresso do Brasil no seu
exclusivo clube, a disputar o rendoso mercado. Tal suspeita não tardou a se confirmar,
em nome de uma pretensa restrição à proliferação nuclear.
Por outro lado, o enriquecimento de urânio por ultra-centrifugação caracterizase pela utilização de um grande número de máquinas idênticas ligadas em cascatas, e
conseqüentemente repetição das válvulas, medidores, sensores e demais equipamentos
periféricos. Essas características possibilitam a produção seriada dos componentes, o
que favorece, ou mesmo viabiliza o engajamento da indústria privada nacional no
desenvolvimento, face às economias de escala obtidas. As demais etapas do ciclo do
combustível também apresentam características análogas.
Considerados esses aspectos, constitui-se, logo ao início do programa, uma
pequena equipe de gerenciamento, encarregada de coordenar um processo sistemático
de nacionalização de matéria-prima, componentes e sistemas. Por nacionalização
entende-se aqui o completo domínio dos princípios de funcionamento, dos materiais e
das técnicas de fabricação, de modo a permitir a adaptação às nossas condições,
aprimoramento, descaracterização dos equipamentos originais e diversidade de
aplicações.
O processo sistemático de nacionalização de um componente ou equipamento
envolve sempre a participação conjunta ou seqüencial de técnicos de instituições de
pesquisa e de indústrias nacionais, em geral altamente capacitadas e motivadas, mas
de pequeno ou médio porte. É condição essencial para seleção das indústrias
participantes, a par da indispensável qualificação técnica, o compromisso assumido
pelas mesmas de fornecimento assegurado ao programa a preços não superiores aos
vigentes no mercado internacional.
Pesquisa Naval Nº 16, Outubro de 2003
143
O sucesso do programa de nacionalização e seu efeito multiplicador podem ser
medidos pela extensa gama de materiais, componentes e equipamentos avançados
que até menos de 10 anos atrás não eram fabricados nem muito menos projetados no
País e que atualmente já o são, sendo também utilizados por um grande número de
empresas em diversos campos de atividades.
O crescente bloqueio às importações a que foi submetido o programa em
decorrência de suas realizações e das respectivas divulgações veio a demonstrar que
a nacionalização tornou-se sinônimo de viabilização.
Integração com a Comunidade Científica e a Indústria
Os programas de desenvolvimento que integrem o esforço criativo das
universidades, a desejável objetividade das instituições de pesquisa e o pragmatismo
da indústria constituem-se em poderosa alavancagem para o desenvolvimento técnicocientífico do País.
Desde o início o CTMSP tem procurado, na medida de suas possibilidades,
realizar e ampliar tal integração e acreditamos que as realizações existentes são em
grande parte resultantes da procura constante dessa integração.
A título de ilustração, cita-se apenas dois exemplos importantes de
desenvolvimentos: o dos aços “maraging” e o do motor de comutação eletrônica de
ímãs permanentes, em que a integração com a comunidade científica e com a indústria
foi e tem sido fundamental para o seu sucesso.
As ligas do tipo “Maraging” foram desenvolvidas na década de 60, tendo
como grande impulsionadora a NASA, em função de seu uso na exploração lunar. A
alta resistência e outras características tornaram a liga particularmente favorável para
aplicação em cilindros rotativos de ultra-centrífugas, podendo-se mesmo dizer que
estas se tornaram economicamente viáveis depois do desenvolvimento das ligas
maraging. O “maraging” utilizado em ultra-centrífugas tem sua exportação no mercado
internacional controlada, sendo extremamente caro.
Nossas primeiras gerações de ultra-centrífugas utilizam maraging desenvolvido
no País. Para o desenvolvimento desta liga foi necessária a combinação de esforços da
Eletrometal, dos técnicos do CTMSP, IPEN, IPT e de pesquisadores da COPPE/UFRJ e
da USP. Este esforço integrado e concentrado permitiu viabilizar em dois anos o projeto
da primeira geração de ultra-centrífugas.
Ligas de aços maraging menos resistentes que as utilizadas nos cilindros
rotativos de ultra-centrífugas, mas também viabilizadas por este esforço conjunto, são
utilizadas na fabricação de células de carga, molas especiais, peças estruturais do
foguete SONDA, nos mísseis solo-solo anti-tanques MSS 1.2 desenvolvidas pela
empresa Orbita, em trens de pouso de aeronaves, etc. As ligas tipo MAR250 já foram
exportadas para outros países, entre eles a Argentina.
As mais modernas gerações de ultra-centrífugas nacionais já estão sendo feitas
em material composto, desenvolvido segundo a mesma abordagem.
O motor de comutação eletrônica é a mais moderna versão de máquina elétrica,
na qual o motor e a eletrônica de potência deixam de ser componentes isolados do
144
Pesquisa Naval Nº 16, Outubro de 2003
acionamento, passando a se integrarem num único componente. Estamos
desenvolvendo para uma segunda geração de submarinos, um sistema de propulsão
com motor de comutação eletrônica excitado por ímãs de terras raras (samário-cobalto),
alimentado por um conversor do tipo “largura de pulso controlada - PWM” e
supervisionado por micro-computador.
Para tanto foi assinado um contrato com a Escola Politécnica da USP, através
da Fundação para o Desenvolvimento Tecnológico da Engenharia (FDTE), e
estabelecido um programa de trabalho em três etapas:
•
Concepção e modelagem do motor em elementos finitos (através de programa
de computador desenvolvido pela Universidade Federal de Santa Catarina - UFSC, por
encomenda do CTMSP), concepção e modelagem do sistema e validação em um
protótipo em escala reduzida.
•
Construção de um protótipo de 75 kW, 900 rpm, para demonstração dos
processos de fabricação, validação experimental de modelos matemáticos e testes
do sistema de controle.
•
Construção de um protótipo de 1200 kW, 400 rpm, para demonstração da
viabilidade de compactar o sistema, tornando-o passível de instalação à bordo de
submarinos e outros veículos.
As duas primeiras já foram concluídas, encontrando-se o protótipo de 75kW
completamente testado e aprovado. A execução da terceira etapa depende da
disponibilidade futura de recursos. Vislumbra-se um potencial de larga aplicação do
motor na propulsão de submarinos, ônibus elétricos e trens, bem como em usos
industriais onde seja requerida velocidade variável.
Cultura Experimental
Ao longo do desenvolvimento de todos os empreendimentos componentes do
Programa, o CTMSP tem considerado como indispensável a validação experimental
dos projetos. Esta diretriz tem implicado na implantação de um importante número de
bancadas experimentais e laboratórios.
Ao longo de sua existência, o CTMSP vem desenvolvendo uma mentalidade
experimental no seu corpo técnico. Como resultados objetivos, possui hoje uma equipe
treinada em instrumentação e num grande número de técnicas experimentais, que são
amplamente aplicáveis a diversas áreas tecnológicas de interesse da Marinha em
particular e do País como um todo.
É preocupação constante e diuturna o fomento à criação, fixação e
desenvolvimento da “cultura experimental”, não só no âmbito do corpo técnico do
CTMSP, como também em todas as instituições que participam do programa, tais como
as universidades, institutos de pesquisa, centros tecnológicos, empresas de engenharia
e indústria em geral. É notória a deficiência de instalações experimentais e laboratórios
no País, tanto para formação de recursos humanos como para desenvolvimento de
projetos, bem como identifica-se uma falta de afinidade dos técnicos, engenheiros e
pesquisadores brasileiros pelo trabalho experimental, sem dúvida, devido àquela
Pesquisa Naval Nº 16, Outubro de 2003
145
deficiência. A CTMSP, dentro de suas possibilidades, tem contribuído
significativamente para amenizar este quadro desfavorável.
Capacitação Tecnológica
Constitui-se em tarefa difícil de ser executada, identificar, dentro dos inúmeros
campos da engenharia do País, projetos de grande porte que possam ser classificados
como genuinamente nacionais, ou seja, cujo nascedouro tenha sido uma folha em
branco sobre uma prancheta localizada dentro de nossas fronteiras.
No ramo dos grandes projetos de engenharia, como usinas para geração de
energia, indústrias de base e de transformação, navios e plataformas oceânicas, lavra
e beneficiamento de minérios, portos, sistemas de comunicação e processamento de
dados, etc., a regra tem sido a importação dos projetos de concepção e básico, sendo
apenas alguns aspectos do projeto de detalhamento e construção executados pelas
firmas de engenharia do País.
A engenharia nacional tem sido sistematicamente alijada das atividades de
concepção e projeto básico que se constituem nas etapas mais nobres, criativas e
dotadas de efeito multiplicador de conhecimentos do processo de obtenção dos grandes
empreendimentos.
Tem sido diretriz fundamental do programa trabalhar dentro de uma regra
diametralmente oposta, qual seja, a concepção ser executada internamente, o projeto
básico ser executado por firma de engenharia genuinamente nacional, em conjunto
com o CTMSP, e o detalhamento ser feito nestas projetistas, com o devido
acompanhamento. Esta diretriz não poderia ser outra, devido às restrições impostas
pelo oligopólio internacional exercido pelas nações detentoras do conhecimento
tecnológico na área nuclear.
Acredita-se que este procedimento de projeto, juntamente com a constante
preocupação com a validação experimental, tenha o efeito extremamente salutar de
fecundar a engenharia nacional, capacitando o pessoal técnico, disseminando
conhecimentos de ampla aplicação e gerando “know-how” de uma maneira muito mais
efetiva que qualquer pacote de transferência de tecnologia poderia oferecer.
9. CONCLUSÕES
O desenvolvimento da ciência e tecnologia, para o qual a criatividade e a
inovação têm que estar necessariamente presentes, suportam-se em três premissas
fundamentais: a primeira delas se deve à existência do cérebro humano e ao incentivo
à sua potencialidade; a segunda pode ser localizada na mobilização das pessoas e
instituições em torno de objetivos, de bandeiras, de metas geradoras de algum benefício
estratégico ou social; a terceira refere-se ao esforço nacional, canalizando recursos
adequados para a área científica e tecnológica. A Marinha do Brasil, através de seu
Centro Tecnológico em São Paulo desenvolveu uma abordagem particular para viabilizar
estas três premissa básicas de forma a efetivar um salto tecnológico que permitisse ao
Poder Naval Brasileiro, através da aplicação da propulsão nuclear para submarinos,
146
Pesquisa Naval Nº 16, Outubro de 2003
ascender a um patamar de credibilidade compatível com a sua importância no cenário
mundial. Este programa vem , desde o início dos anos 80, apresentando resultados
altamente significativos não só no sentido vertical da efetiva consecução de suas
metas, como também no sentido horizontal de disseminação das técnicas
desenvolvidas através dos efeitos de arraste, ou seja, aplicação dos resultados da
P&D nuclear em outros setores, e de diversificação, que se refere a uma deliberada
abertura do programa a outras atividades não estritamente nucleares.
BIBLIOGRAFIA
Flores, M.C., Submarino de Propulsão Nuclear: o que o justifica? como chegar até
ele? o que quer a Marinha com ele? e para quê?, Revista Marítima Brasileira, Serviço
Geral de Documentação da Marinha, Rio de Janeiro, maio de 1988.
Guimarães, L., Should We Fear Nuclear Submarines in Third World ?, in Symposium
on Latin America´s Nuclear Energy at the New Millenium´s Threshold Proceedings,
Latin American Section of the American Nuclear Society, Rio de Janeiro, Brasil, 26-29
junho 2000.
Guimarães, L., Prospectivas e Estratégias para o Desenvolvimento da Energia Nuclear
no Brasil: Contribuição a um Necessário Debate Nacionalma:, in Revista Marítima
Brasileira v120 nos 10/12 (out/dez 99), Serviço de Documentação da Marinha, Rio de
Janeiro, 1999.
Guimarães, L., Logística de Produção de Combustível Nuclear para um Esquadrão de
Submarinos Nucleares de Ataque, in Revista Brasileira de Pesquisa e Desenvolvimento,
vol2 – no 2 (ago-99), Comissão Nacional de Energia Nuclear, Rio de janeiro, 1999.
Guimarães, L., Protótipos em Terra de Instalações Propulsoras Nucleares, in Anais
do VI Congresso Geral de Energia Nuclear, Rio de Janeiro, 1996.
Guimarães, L., Introdução às Instalações Propulsoras Nucleares Navais, in Anais do
VI Congresso Geral de Energia Nuclear, Rio de Janeiro, 1996.
Marinha do Brasil, Poder Naval, Action Editora, Rio de Janeiro, 1997.
Marinha do Brasil, A Arma Submarina, Serviço de Relações Públicas da Marinha,
Brasília, 1996.
Marinha do Brasil, O Preparo da Marinha nos Anos 90, Serviço de Relações Públicas
da Marinha, Brasília, 1990.
Organization for Economic Co-operation and Development (OCDE), Spin-off
Technologies Developed Through Nuclear Activities, Nuclear Energy Agency (NEA),
Paris, França, 1993.
XII
Capítulo
ANÁLISE DA CONFIABILIDADE DO SISTEMA DE SUPRIMENTO DE
ENERGIA ELÉTRICA DE EMERGÊNCIA DE UM
REATOR NUCLEAR DE PEQUENO PORTE
RELIABILITY ANALYSIS OF THE EMERGENCY ELECTRICAL
SUPPLY SYSTEM OF A SMALL SIZE NUCLEAR POWER REACTOR
Bonfietti, G. e Oliveira Neto, J. M.
Instituto de Pesquisas Energética e Nucleares – IPEN – CNEN/SP
Av. Prof. Lineu Prestes, 2242 – Cidade Universitária – 05508-000
São Paulo – SP – BRASIL
Email: [email protected]
Abstract
This work presents an analysis of the reliability of the emergency power
supply system of a small size nuclear power reactor. Two different configurations are
investigated and their reliability analyzed.
The fault tree method is used as the main tool of analysis.
The work includes a brief discussion of the requirements applicable to
emergency electrical systems.
The influence of common cause failure is considered using the beta factor
model and operator actions is considered using human failure probabilities.
The results show the strong dependence between the reactor safety and the
loss of offsite electric power supply.
It is also shown that common cause failures can be a major contributor to the
system reliability.
Key words: emergency electrical supply, reliability, emergency diesel generator,
common mode failure
148
Pesquisa Naval Nº 16, Outubro de 2003
Resumo
O presente trabalho analisa o sistema de suprimento de energia elétrica de
emergência de um reator nuclear de pequeno porte. São consideradas duas
configurações típicas e analisadas as suas confiabilidades.
O método utilizado na avaliação da confiabilidade usa a árvore de falhas
como ferramenta principal de análise.
É feita uma breve discussão sobre a posição regulatória aplicável ao
desenvolvimento de sistemas elétricos.
A influência de falhas de modo comum na confiabilidade é analisada
utilizando-se o método do fator beta.
São consideradas as influências de ações do operador atribuindo-se
probabilidades de falha humana.
Através de uma análise paramétrica é mostrada a forte dependência da
segurança do reator a eventos de perda do suprimento externo de energia, bem
como a sensível alteração da confiabilidade do sistema quando se passa a considerar
a contribuição de falhas de modo comum.
Palavras chave: energia elétrica de emergência, confiabilidade, diesel gerador
de emergência, falha de modo comum
1 - INTRODUÇÃO
A eletricidade desempenha um papel de destaque nas centrais nucleares, não
só porque é quase sempre o seu produto principal mas, sobretudo, devido às suas
implicações no funcionamento dos sistemas de segurança em condições normais de
operação e durante ou após a ocorrência de um acidente. Em outras palavras, ao
mesmo tempo em que uma central é produtora de eletricidade, dela necessita para
iniciar a operação, operar, desligar-se e manter-se desligada com segurança.
Até o final da década de 60, o foco principal da segurança de reatores nucleares
era predominantemente voltado para o núcleo do reator. Após a publicação do estudo
efetuado por Rasmunssen e seus colaboradores, em 1975, “Reactor Safety Study - An
Assessment Of Accident Risks In U.S. Commercial Nuclear Power Plants” /1/, as
atenções sobre os problemas de segurança deslocaram-se para os sistemas periféricos
das centrais nucleares. Nesse estudo é mostrado que o tipo mais sério de acidente,
num reator nuclear tipo “PWR – Reator a Água Pressurizada”, ocorreria se num
determinado momento e por um período de tempo de vários minutos, houvesse falha
total do suprimento de energia elétrica à central.
Em geral, o sistema elétrico de uma central nuclear é similar ao de uma central
térmica convencional, exceto pela maior preocupação com o suprimento de energia
elétrica das cargas necessárias para a operação segura do reator.
O calor de decaimento radioativo, gerado logo após o desligamento do reator,
deve ser removido de modo a evitar que o mesmo eleve a temperatura no interior do
reator a níveis não permitidos, comprometendo a integridade das varetas de
Pesquisa Naval Nº 16, Outubro de 2003
149
combustível. Acidentes, como a perda de refrigerante ou a falha das bombas de
refrigeração do circuito primário, criam a necessidade de fornecimento de refrigeração
de emergência, provido por bombas e válvulas acionadas por motores que dependem
da disponibilidade de eletricidade para a sua operação.
A falta de suprimentos de energia adequados, com a conseqüente incapacidade
dos sistemas de executar as funções de segurança necessárias, pode levar a planta a
um cenário de acidente, podendo resultar em liberações inaceitáveis de radioatividade.
A autoridade regulatória nuclear exige que seja estudado o comportamento
previsto de uma central nuclear em situações normais, transitórias e de acidentes
postulados, de modo a se determinar as margens de segurança previstas e a adequação
de itens e sistemas para prevenir acidentes e atenuar as conseqüências dos acidentes
que possam ocorrer.
O presente estudo avalia a confiabilidade de duas configurações possíveis
para o sistema elétrico de emergência em corrente alternada de uma central nuclear de
pequeno porte, na ocorrência de um colapso do suprimento de energia elétrica.
O resultado, expresso em freqüência de ocorrência da falha do suprimento de
energia elétrica, permite quantificar o acréscimo de confiabilidade conseguido com a
adoção redundâncias para as fontes locais de energia elétrica de emergência em corrente
alternada.
2 - O SISTEMA ELÉTRICO
A configuração dos circuitos de distribuição de energia elétrica de uma central
nuclear pode variar, sendo dependente das características do sistema da concessionária
no local da usina. Em virtude de sua importância para o funcionamento dos sistemas
de segurança, esses circuitos devem atender a requisitos mínimos fixados pelos órgãos
reguladores.
A norma brasileira NBR 8671 /2/, descreve as exigências mínimas a serem
atendidas pelo sistema elétrico de uma central nuclear estabelecendo quatro “possíveis
projetos de circuitos” para instalações nucleares. As exigências mínimas, comuns a
cada um deles, relativamente às fontes de suprimento, são:
• suprimento pelo gerador principal da usina;
• duas possibilidades de suprimento externo;
• sistema de emergência com geração independente de energia elétrica.
Os requisitos da NBR 8671, aplicáveis ao suprimento de energia elétrica dos
sistemas de segurança, igualam-se aos requisitos do Critério Geral de Projeto 17 do
10CFR50 /3/, para as centrais nucleares americanas.
As centrais nucleares comerciais operam conectadas ao sistema da
concessionária de uma região fornecendo-lhe eletricidade. Porém, antes de iniciarem a
produção, elas precisam de eletricidade para criticalizar o reator e fazer com que os
sistemas de geração de vapor entrem em regime; só então será possível acionar o
gerador principal.
150
Pesquisa Naval Nº 16, Outubro de 2003
Uma vez que a tensão elétrica gerada na usina esteja em sincronismo com a
tensão da concessionária, fecha-se a conexão com a rede externa podendo a central
suprir, tanto a demanda da rede externa, quanto a demanda dos seus próprios serviços
auxiliares. A Figura 1 apresenta o diagrama unifilar simplificado da configuração típica
do sistema elétrico de uma central nuclear /4/.
er:Em geral as centrais comercias fornecem energia à concessionária por meio
de uma linha em extra-alta tensão (500 kV, em Angra I e Angra II). Na perda do gerador
principal, a concessionária passa a alimentar os sistemas da central, sem interrupção
no suprimento aos serviços auxiliares.
Devido à possibilidade de ocorrência de falhas que desabilitem
simultaneamente a geração da central e a fonte externa as centrais comerciais,
quase sempre, dispõem de outra fonte externa para alimentação elétrica. Essa
segunda fonte, em tensão mais baixa, tipicamente 138 kV, é independente da rede
de 500 kV e tem por objetivo suprir os sistemas necessários ao desligamento do
reator e manter a usina desligada em segurança.
Sistema de
transmissão “A”
Sistema de
transmissão “B”
Transformador
Principal
G
Transformador
de Partida
Transformador
Auxiliar
Gerador Principal
Barramentos de segurança
DG
DG
Di esel Geradores
Figura 1 - Configuração típica do sistema elétrico de uma central nuclear /4/.
Na ocorrência de acidentes, coincidentes com a perda das linhas de transmissão,
um sistema de emergência local, em geral composto por diesel geradores, tem a função
de prover a energia elétrica necessária aos sistemas de segurança e equipamentos
necessários para manter o reator numa condição segura.
Pesquisa Naval Nº 16, Outubro de 2003
151
A perda simultânea da rede externa e das fontes de emergência produz a
conseqüente indisponibilidade dos sistemas de resfriamento que dependem de
eletricidade em CA para operar.
O acumulo da experiência operacional, em particular das centrais nucleares
americanas, e o número razoável de falhas ocorridas nos diesel geradores de emergência
levantou a questão de que a confiabilidade dos mesmos podia ser menor da
originalmente esperada. Isto deu origem a uma série de estudos visando estabelecer
metas de confiabilidade para os diesel geradores de emergência e determinar a resposta
e os riscos associados das centrais em operação, no caso de perda do suprimento de
energia elétrica /10/.
O histograma da Figura 2 mostra as falhas por demanda ocorridas em diesel
geradores de centrais americanas.
3 – ANÁLISE DAS CONFIGURAÇÕES
A central estudada possui algumas características de projeto, relacionadas a uma
situação de perda do suprimento de energia elétrica, que a diferenciam de centrais
comerciais.
Po rc entagem das p lanta s
25
20
15
10
5
.0 05
.0 1
.0 15
.0 2
.0 25
.03
.03 5
.04
.0 45
.05
>
Falhas por dem anda
Figura 2 - Falhas por demanda ocorridas em diesel geradores americanos (1981 a
1983) /15/
A principal diferença é que a energia elétrica gerada por seus geradores não é
entregue à rede da concessionária, destinando-se exclusivamente ao suprimento de
energia elétrica dos seus sistemas auxiliares, sendo importante ressaltar que os
geradores não operam em paralelo com a concessionária.
152
Pesquisa Naval Nº 16, Outubro de 2003
Esta particularidade traz-lhe a vantagem de não estar submetida às falhas de
causa comum que podem afetar o sistema da concessionária como distúrbios de tensão
provocados por variações de carga ou por descargas atmosféricas.
Admite-se que a central estudada não fornecerá energia elétrica ao sistema
interligado e que seu gerador principal não operará interligado à rede externa. Dessa
forma a central terá uma única fonte externa.
Uma das alternativas de configuração do sistema elétrico contempla o uso de
dois grupos diesel geradores de emergência, cada um dedicado a um barramento de
segurança. A configuração alternativa, representada na Figura 3 com linhas pontilhadas,
adiciona uma redundância a cada diesel gerador, compondo um arranjo de dois diesel
geradores de emergência para cada barramento de segurança.
O sistema elétrico externo é a fonte normal de energia elétrica para todas as
cargas da planta, sendo constituído por uma linha de transmissão em 88 kV; que
alimenta a central.
A linha de transmissão comporta os dois circuitos em uma única torre, um de
cada lado, na mesma faixa de servidão, sendo que um dos circuitos esta normalmente
em serviço enquanto o outro é reserva.
Os transformadores TRAFO 1 e TRAFO 2 abaixam a tensão para 13,8 kV e
alimentam os painéis BP1 e BP2.
Os painéis BP1 e BP2 possuem disjuntores de interligação, normalmente abertos,
que possibilitam que um único transformador alimente os dois painéis. A partir dos
painéis BP1 e BP2 saem dois circuitos, física e eletricamente separados, que alimentam
os painéis MT1 e MT2. Em condição normal de operação, os painéis MT1 e MT2 são
alimentados por circuitos independentes. Havendo a indisponibilidade de qualquer de
seus alimentadores, poderão ser fechados seus disjuntores de interligação,
restabelecendo o suprimento de energia elétrica do painel desenergizado.
Os circuitos que partem do MT1 e do MT2 alimentam os painéis BT1-A e BT2B formando, a partir daí, os trens redundantes A e B, cujos circuitos e equipamentos
são física e eletricamente separados.
Os painéis BT1-A e BT2-B são responsáveis pela alimentação das cargas de
segurança em corrente alternada, através dos transformadores abaixadores TRF1-A,
TRF2-B, TRF3-A e TRF4-B.
Em condição normal de operação, o BT1-A e o BT2-B são alimentados pelos
transformadores TRF1-A e TRF4-B, respectivamente, enquanto os transformadores
TRF2-B e TRF3-A, denominados reserva, estão permanentemente prontos para operar.
Em caso de ocorrência de defeito, reparo ou manutenção do transformador
principal de um trem, abre-se o seu disjuntor e fecha-se o disjuntor do transformador
reserva, possibilitando o restabelecimento imediato do suprimento de energia elétrica
do trem afetado.
No caso da indisponibilidade do suprimento de energia elétrica para os
transformadores TRF1-A, TRF2-B, TRF3-A e TRF4-B, os painéis de baixa tensão BT1-
Pesquisa Naval Nº 16, Outubro de 2003
153
A e BT2-B serão alimentados pelos grupos diesel geradores de emergência de modo a
prover energia elétrica de emergência para as cargas que desempenham função de
segurança nuclear.
A cada barramento de segurança BT1-A e BT2-B estão associados grupos
diesel geradores, com seus respectivos painéis de comando e controle, painéis de
sincronismo e sistemas auxiliares.
Os diesel geradores estão sempre prontos para entrar em operação em caso de
indisponibilidade do sistema da concessionária ou no caso de receber um sinal do
Sistema de Proteção da Planta (sinal de injeção de segurança para mitigar acidente de
perda de refrigerante).
C onc es s io nária
13 8 k V, tr i fás ic o, 60 H z
T R AF O 1
BP 1
TRA FO2
13,8 k V , trifás ic o, 60 H z
BP 2
MT 1
MT 2
TR F1 -A
G1
TR F2 -B
TR F3 -A
TR F4 -B
G3
G4
B T1 - A
C ar ga s 1 E em
C A do tre m A
G2
B T 2- B
Ca rg as 1 E e m
CA d o tr e m B
Figura 3 - Diagrama unifilar simplificado da central
No caso de indisponibilidade do sistema da concessionária, os diesel geradores
partem automaticamente. Após atingirem tensão e freqüência nominal, os diesel
154
Pesquisa Naval Nº 16, Outubro de 2003
geradores são carregados seqüencialmente, com as cargas de segurança de seus
respectivos barramentos, enquanto os diesel geradores reserva, representados com
linha pontilhada na Figura 3 no caso da configuração com quatro diesel geradores,
retornam ao estado de prontidão.
Caso os grupos partam em decorrência de um sinal proveniente do sistema de
proteção do reator, somente serão conectados ao BT1-A e BT2-B se houver
indisponibilidade simultânea da concessionária.
4 – AVALIAÇÃO DA CONFIABILIDADE
A confiabilidade de um sistema, item ou componente pode ser definida como
sendo a probabilidade de que o mesmo execute a função para a qual foi projetado, por
um período de tempo determinado. A análise de confiabilidade de um sistema consiste,
basicamente, na investigação do potencial de falha do sistema e na avaliação das
conseqüências dessas falhas.
O método utilizado neste trabalho, para a análise da confiabilidade, é a técnica
da árvore de falhas. Seu emprego tem sido essencial em estudos de análise probabilística
de segurança de instalações nucleares e tem apresentado grande aplicabilidade em
estudos de análise de risco realizados para as indústrias de processos químicos /1/.
Esta técnica permite que sejam identificadas, através de uma investigação lógica
e sistemática, as falhas de um sistema que possam desencadear um evento indesejável
ou evento catastrófico, além de permitir que seja calculada a probabilidade de ocorrência
de tal evento.
Na construção de uma árvore de falhas parte-se da definição de um evento de
falha indesejável e, através da análise de relações causais, procura-se descobrir as
combinações de eventos que levam à ocorrência do evento indesejável. Esses eventos
podem estar relacionados com falhas intrínsecas do sistema, também denominadas
falhas independentes ou de “hardware”, erros humanos ou quaisquer outros eventos
pertinentes, que possam conduzir ao evento indesejável ou evento topo.
Não é objetivo deste trabalho desenvolver em detalhes os aspectos teóricos
ligados à construção e solução de árvores de falhas. O leitor interessado poderá obter
essas informações em textos clássicos como Kumamoto /5/ e McCornick /6/. Na área
nuclear, a NUREG 0492 – Fault Tree Handbook /7/ é uma das referências mais
importantes para a construção e análise de árvores de falhas.
4.1 – Falhas dependentes
Falha dependente é um modo de falha cuja ocorrência está condicionada à
ocorrência de falhas de outras entidades de um sistema, caracterizando as correlações
e a propagação entre falhas de múltiplos componentes.
Na avaliação de confiabilidade e disponibilidade de sistemas altamente
confiáveis, tais como sistemas de segurança de instalações nucleares, é necessário
considerar as falhas de modo comum, principalmente em itens redundantes, uma vez
que elas podem representar uma porção significativa das falhas, podendo ser
dominantes no que diz respeito à probabilidade de falha do sistema.
Pesquisa Naval Nº 16, Outubro de 2003
155
te
rn
o
an
ut
en
çã
o
O
ut
ro
Pr
s
oc
ed
im
en
to
M
In
an
o
Hu
m
bi
m
A
Pr
o
je
to
/F
ab
r
ic
a
çã
o
en
te
Núm ero de Eventos
Algumas definições de falha de modo comum podem ser encontradas na literatura
e, de forma simplificada, pode-se defini-la como sendo uma falha dependente na qual
dois ou mais componentes em estado de falha existem simultaneamente, ou num pequeno
intervalo de tempo, como resultado direto de uma causa comum aos mesmos /8/.
Do ponto de vista probabilístico, a importância das falhas de modo comum se
deve a que sua existência implica que a falha de dois componentes, simbolicamente
representados por A e B, não são probabilisticamente independentes e, dessa forma,
P(A e B) > P(A).P(B), onde P(A) e P(B) são as probabilidades de falha intrínsecas dos
componentes A e B, respectivamente.
A Figura 4 apresenta a distribuição das falhas de modo comum, agrupadas por
causa raiz, ocorridas em diesel geradores de emergência em estudo feito pela OECD –
Organization for Economic Co-operation and Development /9/.
Falha para rodar
Figura 4 -
Falha para partir
Falhas de modo comum em diesel geradores de emergência /9/
Na determinação dos valores numéricos para os eventos básicos de falha de
modo comum, pode-se utilizar diferentes modelos probabilísticos.
Os modelos de múltiplos parâmetros são empregados em sistemas com alto
grau de redundância e fornecem uma análise mais precisa. Esses modelos envolvem
vários parâmetros de forma a quantificar a contribuição específica de vários eventos
156
Pesquisa Naval Nº 16, Outubro de 2003
básicos. Os mais conhecidos são o modelo das múltiplas letras gregas, o modelo do
fator-alfa e o modelo de taxa de falha binomial.
Os modelos mais simples usam um único parâmetro para calcular a probabilidade
de falha devido a modo comum sendo o modelo do fator-beta um dos mais conhecidos.
Para uma avaliação preliminar, como é o caso deste trabalho, a utilização do
modelo do fator-beta é justificada e fornecerá uma aproximação conservativa da
freqüência do evento de modo comum.
O fator-beta (ß) é definido como sendo uma fração da taxa de falhas total de uma
unidade, atribuída a causa de modo comum, ou seja,
β=
λc
λ + λc
onde: » taxa de falha intrínseca da unidade
»c taxa de falha devido a falha de modo comum.
Dessa forma, dadas duas unidades A e B, a probabilidade de ocorrência do
evento de modo comum CAB, definido como sendo a falha concorrente das unidades
A e B devido a uma causa comum, é dada por P(CAB) = ß.P(A) onde P(A) é a
freqüência total de falha randômica a ser utilizada na ausência de qualquer consideração
de modo comum.
4.2 – Confiabilidade humana
Para avaliação da contribuição das falhas humanas foram utilizadas as
informações da NUREG/CR-2989 /10/ e da NUREG/CR-2815 /11/.
Ao se fazer considerações sobre intervenções do operador, deve-se ter em
mente que toda operação tem um tempo para ser completada. Esse tempo é função da
complexidade da própria operação e também do tempo máximo que os sistemas suportam
uma interrupção no fornecimento de energia.
As únicas intervenções humanas consideradas neste trabalho são as afetas à
manutenção e testes dos diesel geradores de emergência.
A Figura 5 mostra a evolução da probabilidade de ocorrência de erro humano
em função do tempo necessário para efetuar uma operação, extraído da NUREG/CR2815 /11/.
Pesquisa Naval Nº 16, Outubro de 2003
157
Probabilidade
1
10-1
Limite Superior
10-2
Valor Nominal
10-3
10-4
Limite Inferior
10-5
1
10
100
1000
Minutos
Figura 5 - Probabilidade de falha humana x tempo para completar a tarefa
4.3 – Base de dados
Para avaliar a contribuição do sistema da concessionária adotou-se um conjunto
de informações que retrata as interrupções de energia elétrica sofridas por uma linha
de transmissão genérica, cobrindo um período entre 1978 a 1991. A Tabela 1 apresenta
um resumo dos dados obtidos.
Para os equipamentos e componentes do sistema elétrico, os valores das
taxas de falha e dos tempos de reparo foram retirados da IEEE Std-500 – “IEEE
Guide to the Collection and Presentation of Electrical, Electronic, Sensing
Component, and Mechanical Equipment Reliability Data for Nuclear-Power
Generating Stations” /12/.
Para tal foi generalizado, de forma conservativa, o uso do modo de falha “all
modes”, que engloba todos os modos de falha possíveis para um determinado
equipamento ou componente.
Tabela 1 - Expectativa média anual da perda de alimentação elétrica externa
158
Pesquisa Naval Nº 16, Outubro de 2003
Para os diesel geradores de emergência e seus sistemas auxiliares, as taxas de
falha e os tempos de reparo foram retirados da NUREG/CR 2989 /10/.
Os valores considerados para as taxas de falha e tempos de reparo são
apresentados na Tabela 2.
No caso particular das falhas de modo comum dos diesel geradores de
emergência, foram utilizadas as recomendações da NUREG/CR-4780 /8/, utilizando-se
o valor de 0,05 para o fator-beta.
Quanto às falhas humanas, foi considerado neste trabalho que o tempo para
colocar o diesel gerador em operação manualmente pode ser no máximo quatro horas,
visto que esse é o tempo da autonomia de um banco de baterias comum.
Usando a Figura 4 encontraremos uma probabilidade de falha humana que
varia, de modo aproximado, entre 2,0E-02 e 6,0E-04.
Como pode ser observado, a probabilidade de erro humano é tanto maior quanto
menor for o tempo para a realização da tarefa. Os limites, inferior e superior, caracterizam
o fator de erro a considerar.
A probabilidade de erro humano, utilizada para as duas configurações estudadas
é 6,0 E -04.
Tabela 2 - Dados de falha dos principais componentes do sistema elétrico
Componente
BT
MT
BP
Operação DG
Partida DG
Trafo AT
Trafo BT
Alimentadores
Painel entrada
Concessionária
Falha modo comum DG
Taxa Fal
(Falha/Ho
1,19 E-0
4,8 E-0
4,8 E-0
2,4 E-0
2,5 E-0
1,24 E-0
1,65 E-0
1,75 E-0
4,8 E-0
1,87 E-0
1,2 E-0
4.4 – Desenvolvimento da árvore de falhas
A Figura 6 representa, de forma resumida, a árvore de falhas para a avaliação de
confiabilidade das duas alternativas de configuração do sistema elétrico. As linhas
pontilhadas representam as considerações adicionais a serem feitas para contemplar a
alternativa com quatro diesel geradores de emergência.
Pesquisa Naval Nº 16, Outubro de 2003
159
Ca rgas 1E em CA
não rece bem
energia
CBT1-A não
fornece energia
CB T2-B não
forne ce energia
Desenvolvim ento
análogo ao CBT1-A
Falha do
CBT1-A
TRF1-A não
fornece energia
CBT1-A não
recebe energia
DG1 não fornec e
energia
TRF2-B não
fornece energia
DG2 não fornece
energia
Desenvolvimento
análogo ao DG1
DG1 em
m anutenção
Falha do DG1
DG1 falha
para partir
Falha dos sistem as
de suporte do DG1
DG1 falha
em operar
Falha hum ana
Falha de m odo
com um dos DG
Falha intrínseca do
DG1
Figura 6 - Representação esquemática da árvore de falhas
Para as duas alternativas, a falha do sistema elétrico é caracterizada pela perda
da alimentação elétrica em corrente alternada das cargas 1E, ficando definido o evento
topo “Cargas 1E em CA não recebem energia”.
5 – DESEMPENHO DO SISTEMA ELÉTRICO
O desempenho do sistema elétrico foi verificado através da utilização do
programa SAPHIRE – Systems Analysis Programs for Hands-On Integrated Reliability
Evaluations, por ser um programa amplamente utilizado na área nuclear /13/.
O SAPHIRE é um programa voltado para avaliação probabilística de risco
auxiliando na identificação, caracterização, quantificação e avaliação de perigos. Ele
permite ao usuário criar e analisar árvores de falhas utilizando um computador pessoal.
160
Pesquisa Naval Nº 16, Outubro de 2003
De forma a melhor avaliar a confiabilidade das configurações apresentadas,
vários casos foram estudados. A confiabilidade de cada uma das configurações foi
estudada considerando 0, 10 e 30 horas como tempo de missão dos diesel geradores /
10/. A Tabela 3 mostra os principais cortes mínimos obtidos em cada uma das situações.
Pela observação dos resultados obtidos constata-se que o corte Falha
concessionária aparece em todas as alternativas estudadas. O fato de a alimentação
externa aparecer como corte de grande importância se justifica por se considerar apenas
uma linha de transmissão como fonte externa de energia elétrica
Tabela 3 - Principais cortes mínimos
Alter- Tempo
nativaFreqüência
Cortes
DG1/DG2 falha na partida; Falha concession
0h
Falha modo comum DG; Falha concessionári
9,53E-07
DG1/DG2 falha na partida; Falha intrínseca D
Falha modo comum DG; Falha concessionári
10 h
DG1/DG2 falha na partida; Falha intrínseca D
2 DG 2,91E-06
DG1/DG2 falha na partida;Falha concessioná
Falha modo comum DG; Falha concessionári
30 h
DG1/DG2 falha na partida; Falha intrínseca D
6,81E-06
DG1/DG2 falha na partida;Falha concessioná
Falha modo comum DG; Falha concessionári
0h
Falha painel entrada; Falha concessionária
1,75E-07
Falha humana; Falha concessionária
4 DG
Falha modo comum DG; Falha concessionári
10 h
Falha painel entrada; Falha concessionária
6,05E-07
Falha humana; Falha concessionária
Falha modo comum DG; Falha concessionári
30 h
Falha painel entrada; Falha concessionária
1,23E-06
Falha humana; Falha concessionária
Nota-se, também, que a freqüência mais elevada ocorre sempre para o tempo
de missão dos diesel geradores de emergência de 30 horas. Nessa condição, ao se
comparar as duas alternativas, nota-se que o corte mínimo Falha modo comum
DG; Falha concessionária é o corte dominante e a sua importância aumenta de
Pesquisa Naval Nº 16, Outubro de 2003
161
15,3% para 84,9% à medida que aumenta o número de redundâncias dos diesel
geradores de dois para quatro.
É visível que a inclusão de redundâncias, para os diesel geradores de emergência,
proporciona um aumento considerável na confiabilidade do sistema elétrico.
Comparando-se os valores de freqüência apresentados na Tabela 3, pode-se
verificar que existe uma melhora de mais de 5 vezes quando se passa a utilizar a
configuração com quatro diesel geradores ao invés de dois.
O corte Falha modo comum DG também aparece em todas as alternativas,
aumentando sua importância à medida que se aumentam as redundâncias dos diesel
geradores.
Para avaliar a contribuição da consideração das falhas de modo comum, foi
realizada uma análise paramétrica, utilizando-se diferentes valores para o fator-beta /
10/.
Os resultados obtidos são mostrados na Tabela 4..
Tabela 4 - Freqüências de perda se suprimento elétrico para diferentes valores do
fator-beta
Alternativa
β =0
β = 0,0
2 DG
4 DG
5,65 E -06
6,97 E -08
6,81 E -0
1,23 E -0
Pode ser visto que o fato de se considerar a contribuição das falhas de modo
comum afeta consideravelmente os resultados obtidos. Tal fato demonstra a importância
contabilizá-las, mesmo em um estudo preliminar.
6 - CONCLUSÕES
O objetivo deste trabalho foi estudar o sistema diesel elétrico de emergência de
um reator nuclear de pequeno porte, tendo sido consideradas duas alternativas
possíveis para a configuração do sistema elétrico.
A confiabilidade foi estudada segundo o método da árvore de falhas e a
quantificação feita com o código SAPHIRE, permitindo a identificação da melhor
configuração em termos de confiabilidade.
Os resultados obtidos indicam que a linha de transmissão é o item de maior
peso, estando sempre entre os cortes mínimos de maior importância.
É importante ressaltar que o uso de quatro diesel geradores de emergência
compensou a falta de uma segunda linha de transmissão, levando o nível de
confiabilidade do suprimento de energia elétrica em corrente alternada a níveis aceitáveis.
De todo modo, a possibilidade de melhoria no desempenho da geração de
emergência, como medida compensatória à maior vulnerabilidade do suprimento externo,
não chega a ser novidade. Borst, da KWU, escreveu a esse respeito, dizendo que na
162
Pesquisa Naval Nº 16, Outubro de 2003
Alemanha “há muito se concluiu que é impossível, ou economicamente inexeqüível,
na maior parte das localidades do país, aonde grandes usinas venham a ser
licenciadas, prover duas linhas de sistemas elétricos verdadeiramente
independentes”, e que é “mais importante assegurar a máxima confiabilidade às
fontes locais de emergência do que depender da duvidosa confiabilidade de uma
segunda linha de suprimento externo (Borst, 1976)”.
Fica evidenciado que as falhas de modo comum são uma porção significativa
das falhas do sistema, sendo recomendado a sua consideração, mesmo em estudos
preliminares.
7 - REFERÊNCIAS
/1/ United States Nuclear Regulatory Commission - Reactor Safety Study - An
Assessment Of Accident Risks In U.S. Commercial Nuclear Power Plants. October,
1975 (WASH – 1400/ NUREG – 75/014)
/2/ ABNT-NBR-8671 – Requisitos Gerais de Suprimento de Energia Elétrica para os
Sistemas de Segurança de Usinas Nucleolétricas – Novembro 1984
/3/ 10-CFR-50 – U S Regulatory Commission, “Code of Federal Regulations, Title 10
– energy, Part 50 – Domestic Licensing of Production and Utilization Facilities”
EUA 1991.
/4/ United States Nuclear Regulatory Commission - Evaluation of Station BlackOut
Accidents at Nuclear Power Plants – June 1988 (NUREG 1032).
/5/ Horomitsu Kumamoto, Ernest J. Henley - Probabilistic Risk Assessment and
Management for Engineers and Scientists – IEEE Press, 1996.
/6/ Norman J. McCornick – Reliability and Risk Analysis: Methods and Nuclear Power
Applications – Academic Press, 1981.
/7/ United States Nuclear Regulatory Commission. Fault Tree Handbook. January,
1981 (NUREG-0492).
/8/ United States Nuclear Regulatory Commission. Procedures for Treating Common
Cause Failures in Safety and Reliability Studies. January, 1988 (NUREG/CR-4780).
/9/ NEA/CSNI/R(2000)20 – ICDE Project Report on Collection and Analysis of
Common-Cause Failures of Emergency Diesel Generators – May 2000
/10/ United States Nuclear Regulatory Commission -Reliability of Emergency AC Power
Systems at Nuclear Power Plants – July – 1983 (NUREG/CR-2989).
/11/ United States Nuclear Regulatory Commission. Probabilistic Safety Analysis
Procedures Guide. 1984 (NUREG/CR-2815)
/12/ IEEE-Std 500 – IEEE Guide to the Collection and Presentation of Electrical,
Electronic, Sensing Component and Mechanical Equipment Reliability Data for
Nuclear Power Generating Stations - 1984.
/13/ Idaho National Engineering and Environmental Laboratory – INEEL - Systems
Analysis Programs for Hands-On Integrated Reliability Evaluations – SAPHIRE –
Version 5.41
/14/ BORST, A. “Standby and Emergency Power Supply of German Nuclear Power
Plants”, IEEE Transactions on Power Apparatus and Systems, 1976.
XIII
Capítulo
“UTILIZAÇÃO DE TÉCNICAS DE PROCESSAMENTO DIGITAL DE SINAIS
PARA A IMPLEMENTAÇÃO DE FUNÇÕES BIQUADRÁTICAS”
CT(EN) Paulo Henrique da Rocha, M.Sc.
Eng. Michael Cláudio Porsch, M.Sc.
Centro Tecnológico da Marinha em São Paulo – CTMSP
Divisão de Projetos Eletro-Eletrônicos
Av. Prof. Lineu Preste, 2468 - Cidade Universitária - USP
CEP 05508-000, São Paulo, SP, Brasil
[email protected], [email protected]
Resumo
Neste trabalho, uma técnica para implementar funções biquadráticas
utilizando processamento digital de sinais foi abordada teoricamente e implementada
em software e hardware. Uma vez sintetizadas as células biquadráticas discretas, é
possível utilizar DSPs para implementação da função de transferência desejada,
através do cascateamento dessas células. O DSP utilizado foi o de ponto flutuante
da família TMS320C3x da Texas Instruments.
Palavras Chaves: Filtro Digital, DSP, Controle Digital.
Abstract
In this paper a way of implementing biquadratic functions using digital
signal processing was theorically described and then implemented in software and
hardware. Once the discrete biquadratic cells were synthetized, it’s possible to use
DSPs for implementing the desired transfer function by cascading these cells. The
DSP used was a floating point one from the TMS320C3x family from Texas Instruments.
Key-Words: Digital Filter, DSP, Digital Controler
164
Pesquisa Naval Nº 16, Outubro de 2003
1 INTRODUÇÃO
De um modo geral, a síntese de filtros é realizada através da ligação conveniente
de resistores, capacitores e amplificadores operacionais, de modo que esse circuito
represente uma determinada função de transferência no domínio da frequência, definindose assim seus pólos e zeros. A implementação prática dessas funções de transferência
é normalmente obtida através do cascateamento de células biquadráticas [1], o que
acarreta num complexo projeto eletrônico que depende diretamente da tolerância dos
componentes utilizados, bem como da temperatura ambiente, entre outros fatores. Caso
haja a necessidade de mudança/ajuste dessa função de transferência, obrigatoriamente
é necessário trocar os componentes eletrônicos passivos e ativos do projeto.
Nos últimos anos, a tecnologia de Processamento Digital de Sinais (DSP – Digital
Signal Processing) vem sendo amplamente aplicada em diversos sistemas, que no
passado eram eminentemente analógicos. Esse fato deve-se principalmente aos avanços
alcançados nos diversos processadores e microcontroladores disponíveis com relativa
facilidade no mercado. Um outro ponto que também vem alavancado essas novas
tecnologia é a evolução das ferramentas computacionais de apoio.
Desta forma, nas últimas décadas, diversas teorias de processamento digital de
sinais surgiram e, gradativamente, foram aplicadas em projetos práticos [1][2][3]. Para
muitos pesquisadores, a teoria de processamento digital de sinais está entre as mais
poderosas tecnologias desenvolvida no último século.
Neste artigo é apresentada uma técnica para a obtenção das equações de
diferenças de uma função biquadrática, bem como abordada a teoria envolvida na
discretização e tratamento de sinais analógicos amostrados.
Visando à verificação da teoria apresentada, um filtro rejeita-faixa (filtro Notch),
com fo = 100Hz, foi implementado no DSK C31 (DSP Stater Kit) da Texas Instruments.
2 FILTROS DIGITAIS
Existem diversas formas de se sintetizar filtros digitais[3]. Uma vez que o escopo
desse trabalho é implementar filtros através de funções biquadráticas, apenas os filtros
recursivos serão abordados.
2.1 FILTROS DIGITAIS RECURSIVOS
Filtros recursivos são aqueles em que os valores discretos de saída dependem
de valores de saídas anteriores. Desta forma, a expressão matemática para os filtros
Pesquisa Naval Nº 16, Outubro de 2003
165
recursivos não possui somente termos envolvendo valores de entrada (x n, xn-1, ...),
mas também possuem termos envolvendo valores de saídas anteriores (y n-1, yn-2,
...). Esses filtros recursivos também são conhecidos por filtros IIR (Infinite Impulse
Response) [5][3].
Considerando-se um sistema contínuo linear e invariante no tempo, a equação
de diferenças genérica para um filtro IIR é obtida pela expressão (1) [3][6].
M
y[n] =
M
N
k =0
k =1
∑ a k .x[n − k] + ∑ b k .y[n − k] ⇔ G(z) =
∑ a k .z − k
k =0
N
1−
∑ b k .z − k
(1)
k =0
A equação (1) também pode ser representada por blocos conforme mostrado na
figura 1.
Figura 1 – Representação em Blocos de um filtro recursivo [4]
A função de transferência discreta, GD(z) apresenta uma relação com a função
de transferência do sistema contínuo correspondente. Essa relação é definida pela
identidade da equação (2) [3][6]
G D (z) = H C (s) | s =(1 / Ts ). ln z
(2)
166
Pesquisa Naval Nº 16, Outubro de 2003
( )
Como a expressão s = 1 Ts . ln(z ) é não linear, existem vários métodos
desenvolvidos para obtenção da aproximação da função de transferência do
domínio discreto (z) para o domínio da freqüência (s) e vice-versa. O método mais
comumente utilizado é o da transformação bilinear de Tustin [7][3], definido na
equação (3).
s≡
2 z −1
⋅
Ts z + 1
(3)
Como será visto à diante, utilizou-se a aproximação de Tustin para a definição
dos coeficientes de G(z).
Um ponto importante a ser observado é que os coeficientes de z são dependentes
da taxa de amostragem (fs=1/Ts). Sendo assim, é necessário fixar a taxa de amostragem,
de modo a possibilitar a determinação de G(z).
2.2 DETERMINAÇÃO DAS EQUAÇÕES DE DIFERENÇAS DA
ESTRUTURA BIQUADRÁTICA
Para que a programação do filtro possa ser feita na forma digital, é necessária a
descrição por equações de diferenças da estrutura biquadrática em z.
Baseando-se na equação (1), a função de transferência discreta para uma
estrutura biquadrática é dada pela seguinte função de transferência [3]:
G(z) =
b 0 z 2 + b1 z + b 2
z + a 1z + a 2
2
=
Y(z)
U(z)
(4)
O que fornece a saída y(k) como sendo
y(k) = b 0 u(k) + b 1 u(k - 1) + b 2 u(k - 2) - a 1 1y(k - 1) - a 2 y(k - 2)
G(z) pode também ser re-escrita como
(5)
Pesquisa Naval Nº 16, Outubro de 2003
G(z) = b 0 +
(b 1 - a 1 b 0 )z + (b2 - a 2 b 0 )
z 2 + a 1z + a 2
167
=
Y(z)
U(z)
(6)
Que leva a:
b0’
Y(z) =
b 1’
( b1 - a 1 b 0 )z + (b 2 - a 2 b 0 )
z 2 + a 1z + a 2
U(z) + b 0 U(z)
(7)
O primeiro termo de (7) pode ser descrito através do seguinte diagrama de
blocos[1]:
b 0’
u(k)
+
Z
-1
x2(k)
Z
-1
b 1’
+
x1(k)
y(k)
-a1
-a2
Figura 2- Diagrama de simulação de equação de diferenças de 1 zero e 2 polos
A descrição do sistema representado na figura 2 em termos de equação de
estados é a seguinte:
 x1(k + 1)  0
 x2(k + 1) = - a

  2
1   x1(k) 0
+
u(k)
- a 1   x2(k) 1
 x1(k)
y(k) = [ b1 ' b 0 '] 

 x2(k)
(8)
168
Pesquisa Naval Nº 16, Outubro de 2003
Acrescentando o 2o termo de (6) ao diagrama de blocos representado na figura
2 obtém-se o seguinte diagrama de simulação:
b0’
u(k)
+
Z
-1
x2(k)
Z
-1
b1’
+
x1(k)
-a1
-a2
Figura 3 – Diagrama de simulação para um sistema de equação de diferenças de 2 zeros e
2 polos
A equação de estados passa a ser então:
 x1(k + 1)  0
 x2(k + 1) = - a

  2
1   x1(k) 0
+
u(k)
- a 1   x2(k) 1
 x1(k)
y(k) = [ b1 ' b 0 '] 
 + b 0 u(k)
 x2(k)
(9)
Reescrevendo a equação e substituindo os termos b1’ e b0’, as seguintes
equações serão utilizadas para a implementação do filtro digital no DSP.
x1(k + 1) = x2(k)
x2(k + 1) = - a 2 .x1(k) - a 1 .x2(k) + u(k)
y(k) = (b 2 - a 2 .b 0 )x1(k) + ( b1 - a 1 .b 0 ).x2(k) + b 0 .u(k)
(10)
Pesquisa Naval Nº 16, Outubro de 2003
169
3 IMPLEMENTAÇÃO FILTRO BIQUADRÁTICO NO DSP TMS320C31
Nesta seção, serão apresentadas as etapas implementadas para a síntese do
filtro rejeita faixa, utilizando-se uma função de transferência biquadrática. Também será
apresentado o hardware desenvolvido para teste prático do filtro digital.
3.1 DETERMINAÇÃO DA FUNÇÃO DE TRANSFERÊNCIA DISCRETA H(Z)
DO BIQUADRÁTICO
A representação de uma função biquadrática genérica é apresentada na expressão
(11).
G (s) =
s 2 + 2.ξ1 .ω n + ω 2n
s 2 + 2.ξ 2 .ω n + ω 2n
(11)
Um filtro Notch pode ser definido a partir de um par de zeros com fator de
amortecimento inferior ao fator de amortecimento dos pólos[5][6]. Desta forma,
escolhendo-se ξ1 = 0.01, ξ2 = 0.5 e ωn = 100∗2∗π, obtém-se a expressão (12)
G (s) =
s 2 + 12,56.s + 394384
s 2 + 628.s + 394384
(12)
Conforme já comentado em seções anteriores, uma vez obtida a função de
transferência no domínio da frequência, é possível, através da aproximação de Tustin,
determinar a respectiva função de transferência no domínio discreto. Para isso, é
necessário que se defina a taxa de amostragem do sinal, que para o projeto ora apresentado
foi de 20 kHz.
Para obtenção de G(z) foi utilizado o software Matlab, com aproximação de
Tustin. Nas figuras 4a e 4b, estão apresentadas o diagrama de Bode para as funções G(s)
e G(z), respectivamente, bem como os comandos utilizados no software Matlab para a
geração das mesmas.
170
Pesquisa Naval Nº 16, Outubro de 2003
a)
Comandos do Matlab:
>> g=tf([1 12.56 394384],
[1 6285 394384])
Transfer function:
s^2 + 12.56 s + 394384
---------------------s^2 + 6285 s + 394384
>> bode(g)
b)
Comandos do Matlab:
>>hz=c2d(h,0.00005,'tustin')
Transfer function:
0.9792 z^2 - 1.947 z + 0.9682
----------------------------z^2 - 1.947 z + 0.948
Sampling time: 5e-005
>>bode(hz)
Figura 4 – Gráficos das Respostas no domínio da freqüência e no domínio discreto do
Filtro Notch para fo=100Hz, obtidas através de simulação no software Matlab.
Pesquisa Naval Nº 16, Outubro de 2003
171
3.2 DESCRIÇÃO DO HARDWARE UTILIZADO
Conforme já comentado anteriormente, o DSP utilizado foi o TMS320C31
[8][9][10], fabricado pela Texas Instruments (TI). A família C31 da TI permite lidar com
os registradores diretamente em ponto flutuante. Essa característica faz com que a
necessidade de emulação por software dos pontos flutuantes seja descartada, o que
possibilita aumentar o range das taxas de amostragem do sinal.
Tanto os conversores Analógico/Digital (A/D) e Digital/Analógico (D/A)
utilizados possuem oito canais e o envio/recebimento de dados é feito através de uma
comunicação serial, em tensão, para o DSKC31. Os conversores utilizados foram o
TLV1570 e TLV5608, para A/D e D/A, respectivamente.
Para garantir o sincronismo do frame da comunicação serial, tanto para o A/D
como para o D/A, uma lógica combinacional foi implementada. O software foi programado
em Assembly e gravado, via comunicação JTAG, na memória RAM do DSK C31. Na
figura 5, um diagrama em blocos do hardware é apresentado.
Figura 5 – Diagrama em Blocos do Hardware implementado.
172
Pesquisa Naval Nº 16, Outubro de 2003
4 RESULTADOS EXPERIMENTAIS
Uma vez determinada a função de transferência G(z), foram obtidas as equações
de diferenças utilizando-se as equações (10) e implementadas no DSK C31. A taxa de
amostragem de 20 kHz foi garantida através do uso, em software, de interrupção de
timers.
Para verificação da resposta em freqüência do filtro Notch, foi utilizado o analisador
de sinais dinâmicos HP-35670A. Com o auxílio deste equipamento foi possível obter o
gráfico de Bode do filtro e armazená-lo em um arquivo ASCII, e assim, gerar o gráfico
apresentado na figura 6.
Figura 6 – Resposta em frequência do filtro implementado no DSK C31.
Curva obtida através dos arquivos em ASCII.
5 CONCLUSÃO
Nesse artigo foi apresentada uma abordagem teórica de como se obter as equações
diferenças para células biquadráticas.
Pesquisa Naval Nº 16, Outubro de 2003
173
O gráfico de Bode obtido para o filtro digital, implementado no DSK, apresentou
uma pequena variação para a fo, se comparada ao calculado para o domínio da freqüência,
como pode ser observado no gráfico da figura 6 (∆Frequência). Isso pode ser explicado
pelo fato de que os coeficientes da função de transferência no domínio discreto serem
obtidos através da aproximação de Tustin e não através da transformada em z exata.
Porém, na prática, essa diferença pode ser desprezada pelo fato da alta atenuação
sofrida na banda de rejeição do filtro (acima de 30 dB).
Devido ao fato da família C31 possuir ponto flutuante, não houve a necessidade
de se emulá-lo via software. Isso propiciou uma simplificação do programa, o que
possibilita o aumento da taxa de amostragem.
Vale a pena ressaltar que as equações de diferenças apresentadas nesse trabalho
podem ser utilizadas em qualquer sistema de aquisição de sinais, com posterior
tratamento digital de sinais, como por exemplo em microcontroladores de 8 bits de baixo
custo e de ponto fixo, ou outras famílias/fabricantes de DSPs.
6 AGRADECIMENTOS
Os autores aproveitam a oportunidade para agradecer aos engenheiros de
suporte da Texas Instruments pelo apoio técnico e envio de material de amostra,
especialmente aos engenheiros Núncio Perrella, Rafael de Souza e Marcos Fernandes.
7 BIBLIOGRAFIA
1.
2.
Orsini, Luiz Q.; “Introdução aos Sistemas Dinâmicos”. Guanabara, 1985.
Houpis, Constantine H and Lamont, Gary B.; “Digital Control Systems”. 2nd edition.
McGraw-Hill, 1987.
3. Lam, Harry Y-F; “Analog and Digital Filters: Design and Realization”. Prentice
Hall, 1979.
4. Oppenheim, Alan V. and Willsky, Alan S.; “Signal & Systems”, 2nd edition. Prentice
Hall, 1996.
5. Ogata, Katsuhikio; “System Dynamics”, 3nd edition. Prentice Hall.
6. Ogata, Katsuhikio; “Discrete-Time Control Systems”, 2nd edition. Prentice Hall.
7. Tustin, A.; “A method of Analyzing the Bebavior of Linear System in Terms of Time
Series”, JIEE (London), vol. 94, pt IIA, 1947.
8. “TMS320C31 Applications Guide”, Texas Instruments.
9. “Interfacing the TLV2544/TLV2548 ADC to the TMS320C31DSP”, SLAA101,
Texas Instruments.
10. “Interfacing the TLV2541 ADC and the TLV5618A DAC to the TMS320C31DSP”,
SLAA111, Texas Instruments
174
Pesquisa Naval Nº 16, Outubro de 2003
MUNIÇÃO NAVAL FABRICADA PELA
FÁBRICA DE MUNIÇÃO DA MARINHA
Munição 4,5”
Munição 5” L/38
Munição 40mm L/60 e L/70
Munição de Salva
Munição 105mm
Munição 3” L/50
XIV
Capítulo
VARIABILIDADE METEOROLÓGICA DO NÍVEL DO MAR EM BAIXA
FREQÜÊNCIA EM CANANÉIA, SP E ILHA FISCAL, RJ
Alessandro Filippo1, Björn Kjerfve1,2, Rogério Neder Candella3,
Audalio Rebelo Torres Jr.4.
1
Depto. Geoquímica - Universidade Federal Fluminense;
e-mail:[email protected]
2
Marine Science Program, Department of Geological Sciences
University of South Carolina; e-mail: [email protected]
3
Instituto de Estudos Almirante Paulo Moreira; e-mail: [email protected]
4
Depto. Meteorologia – Universidade Federal do Rio de Janeiro;
e-mail: [email protected]
Abstract
Meteorological tide is the part of the sea level variation not due to
astronomical forces. Strong winds, atmospheric pressure variations and water
temperature are common causes of this phenomena. To account the behavior and the
contribution of those meteorological forcing in the sea level changes at the brazilian
southeast coast, temporal series of atmospheric pressure and wind from São Sebastião
(SP) and Ponta da Armação (RJ) weather stations had been used together with sea
level measurements from Cananéia and Ilha Fiscal (RJ), from 1982 and 1983. Crossspectral analyzes between meteorological and sea level series showed good coherence
for some periods. To the Ilha Fiscal station the meridional wind component was the
principal forcing, followed by the zonal wind component and the atmospheric
pressure. To Cananéia station, although the meridional wind component showed to
be the major contributor to the sea level oscillation, the atmospheric pressure is a
more important factor than the zonal wind component.
Palavras chaves
Nível do mar; Forçantes Meteorológicas; Análise espectral cruzada; Baixa freqüência; Brasil;
Meio-Atlântico
176
Pesquisa Naval Nº 16, Outubro de 2003
Resumo
A maré meteorológica ou residual é a parte da variação no nível do mar
não causada pela maré astronômica. Ventos fortes, pressão atmosférica alta ou
baixa e temperatura de água são as causas habituais dessas variações residuais.
Para avaliar o comportamento e a contribuição das forçantes meteorológicas na
variação do nível do mar na costa sudeste brasileira, foram utilizadas séries temporais
de pressão atmosférica e vento das estações de São Sebastião (SP) e Ponta da
Armação (RJ) e de nível do mar de Cananéia (SP) e Ilha Fiscal (RJ), dos anos de
1982 e 1983. Através de análise espectral cruzada entre as séries meteorológicas e
de nível do mar foi possível estabelecer a coerência entre os eventos meteorológicos
de baixa freqüência e a variação do nível do mar. Na estação Ilha Fiscal, eventos
com período de 3 e de 15 dias tiveram as maiores coerências entre as séries das
variáveis nível do mar (nm) e pressão atmosférica (pa), com 0,77 e 0,83,
respectivamente. Entre as séries de nível do mar e componente zonal do vento (Wx),
os eventos de maior coerência foram os com período em torno de 4 e 5 dias, com 0,78
e 0,82 de coerência, respectivamente. Na correlação cruzada entre as séries das
variáveis nível do mar e componente meridional do vento (Wy), os períodos dos
eventos de maior coerência foram de cerca de 5 dias (0,81) e 9 dias (0,83). Na
estação Cananéia, os eventos de maior coerência entre as séries de nm e pa foram os
de período em torno de 3 (0,83), 5 (0,98) e 10 dias (0,85). Entre as séries das
variáveis Nível do Mar e Wx, os eventos de maior coerência tiveram períodos de
aproximadamente 4 dias (0,83) e 5 dias (0,82), enquanto que com Wy, os eventos de
maior coerência tiveram períodos de cerca de 3 (0,81) e 5 dias (0,83). Houve um
comportamento diferenciado das variáveis meteorológicas em relação à localização
das estações maregráficas, sendo que, no Rio de Janeiro, a variável Wy apresentou
a maior coerência média (0,76 ± 0,13), sendo a maior responsável pela variação
local do nível do mar e, em Cananéia, as variáveis Wy e Pa foram as responsáveis
pela maior variação do nível do mar local, com coerências médias de 0,77 ± 0,09 e
0,76 ± 0,13, respectivamente.
Introdução
O nível do mar é uma quantidade física mensurável, resultado de todas as
influências que afetam a altura da superfície do mar (lua, sol, pressão atmosférica,
ventos, movimento de terra vertical, alguns efeitos oceanográficos, atividade sísmica,
etc). As marés são só uma parte da variabilidade do nível do mar e estão relacionadas
em freqüência, amplitude e fase com as forças astronômicas (i.e. forças gravitacionais
da Lua e o Sol na Terra, principalmente).
Em contraste com a maré, a determinação das tendências de movimento de
longo período do nível do mar é mais difícil. Claramente as marés podem ter uma faixa
Pesquisa Naval Nº 16, Outubro de 2003
177
de variação de alguns metros por período de poucas horas considerando a tendência
do nível do mar (Stewart, 2002). A fim de avaliar as tendências do nível do mar, é prática
comum utilizar séries contínuas e longas de observações do nível do mar, medidos com
instrumentos precisos.
A terminologia comum, “nível do mar residual” é equivalente a “nível do mar observado
menos maré” (Neves Filho, 1992; Stewart, 2002). O resíduo é a parte da variação
observada no nível de mar que não é devida às marés. Em uma análise de dados de
nível do mar, normalmente observa-se a tendência residual ou os resíduos significantes
(picos) em um tempo particular para investigar as causas e razões científicas que
justifiquem por que eles acontecem (Middleton, 2000). Ventos fortes, pressão
atmosférica alta ou baixa e temperatura de água são as causas habituais destas variações
residuais.
Possíveis causas dessas variações podem ser associadas a alguns fenômenos
que exercem influência no clima do globo inteiro, como o El Niño e La Niña, por
exemplo, relacionados com a variação anômala da TSM (temperatura da superfície de
mar) no Pacífico Equatorial.
Com o enfraquecimento ou deslocamento do Anticiclone Subtropical do
Atlântico Sul - ASAS, pela ocorrência dos eventos de El Niño (Gill e Schumann,
1979), a propagação de eventos meteorológicos severos gerados nas latitudes
altas para o equador ao longo da costa fica facilitada, com o aumento do número de
passagens de frentes frias. Tais eventos poderiam gerar as Ondas de Kelvin em
períodos de cada 5 a 18 dias. De acordo com Brink (1991), tais ondas geralmente
têm períodos mais longos que período inercial, de forma que freqüentemente agem
como uma resposta do oceano às mudanças de tempo atmosférico que, tipicamente,
tem a escala de tempo de alguns dias.
A passagem de sistemas frontais por áreas oceânicas induz mudanças no
nível do mar através da variação da pressão na superfície e a ação da tensão do vento
associada (Gill e Schumann, 1979). Robinson (1964) introduziu o conceito de ondas de
plataforma continental, estudando um modelo dinâmico em que mudanças no nível do
mar foram produzidas diretamente por alterações da pressão atmosférica.
O objetivo deste artigo é avaliar a variabilidade meteorológica do nível do mar
na região de costa do sudeste de Brasil. Para tanto, foram utilizadas séries temporais
dos anos de 1982 e 1983 de maré das estações em Cananéia – SP e Ilha Fiscal – RJ,
vento e pressão atmosférica das estações em São Sebastião – SP e Ponta da Armação
– RJ de modo a realizar análises de correlação espectral cruzada, tentando determinar
a influência de cada variável.
Área de Estudo
A área de estudo está situada entre as latitudes 220 30’S e 250 30’S e longitudes
42 30’ W e 480 00’ W, compreendendo a costa do sudeste de Brasil (Figura 1). Os
dados de nível do mar foram obtidos de duas estações cujas características podem ser
vistas na Tabela 1.
0
178
Pesquisa Naval Nº 16, Outubro de 2003
Tabela 1- As coordenadas geográficas das estações de dados utilizados. Fonte:
Diretoria de Hidrografia e Navegação - Marinha do Brasil.
Figura 1 - Localização das estações maregráficas na área de estudo.
O clima da região estudada, de acordo com a Classificação Climática de Köppen,
é tropical com influência marinha forte tipo “Af” no Rio de Janeiro na costa brasileira.
A temperatura média anual é aproximadamente 24 °C e a precipitação média anual é
aproximadamente 1170 mm (Filippo, 1997; INEMET, 2002).
Os efeitos do fenômeno El Niño Oscilação Sul (ENSO) são sentidos mais
intensamente, tanto em termos dos campos de anomalias de precipitação sazonais,
como em termos da temperatura do ar. Além disso, há comprovação observacional que
a variabilidade de TSM no Oceano Atlântico Sul influencia o clima das áreas sul e
sudeste do litoral brasileiro (Nobre, 1996).
O padrão de mudança de tempo típico desta região é a passagem de frentes
frias. A origem das frentes frias que atingem o litoral sul-sudeste do Brasil é extratropical, proveniente de regiões de altas latitudes (Filippo, 1997). Estes sistemas frontais
Pesquisa Naval Nº 16, Outubro de 2003
179
se propagam para o equador freqüentemente ao longo da costa entre 40°S e 20°S,
embora eles possam alcançar latitudes tão baixas quanto 13°S durante o verão no
hemisfério sul (Kousky, 1979).
A Figura 2 mostra três situações distintas de sistemas frontais na área de
estudo: (a) com a presença do centro de baixa, em função do giro ciclônico, os ventos
são de sudoeste; (b) após a passagem do sistema frontal e sua dissolução, a volta do
centro de alta com seu giro anticiclônico determina o restabelecimento dos ventos
nordeste. Nota-se a formação de novo sistema frontal mais ao sul; (c) com a aproximação
do novo sistema frontal, os ventos rondam de nordeste para norte e depois para
sudoeste com a chegada da frente, sempre no sentido anti-horário. O tempo decorrido
entre a dissolução do sistema em (a) e o surgimento do novo em (c) foi de cerca de 9
dias, valor dentro da faixa 5-10 dias (Filippo, 1997).
Figura 2 – Exemplo de evolução de sistemas frontais no litoral Atlântico da América do Sul.
(a) Centros de Baixa pressão (Ciclônicos) na área de estudo no dia 08/05/2003. (b) Centro de
Alta pressão (Anti-ciclônico, no caso o ASAS) na área de estudo no dia 14/05/2003 e formação
de novo sistema frontal mais ao sul, na costa Argentina. (c) O novo sistema formado se
aproxima da área de estudo no dia 17/05/2003.
Materiais e Métodos
O dados utilizados neste estudo foram séries horárias de nível do mar das
estações maregráficas de Cananéia – SP e Ilha Fiscal – RJ, e séries temporais de vento
e pressão atmosférica a cada 3 horas das estações meteorológicas de São Sebastião –
SP e Ponta da Armação – RJ pelo período de 01-Jan-1982 para 31-Dez-1983. Cada
conjunto de dados de cada estação foi analisado separadamente para observar e
preservar as características locais.
180
Pesquisa Naval Nº 16, Outubro de 2003
Os dados de maré das três estações foram analisados visualmente para a
retirada de valores espúrios devido a erros grosseiros de digitação ou de mau
funcionamento do próprio marégrafo. Das séries originais foram subtraídas as
respectivas médias, reduzindo-se os dados à variação em torno do nível médio.
Além disso, para eliminar os efeitos astronômicos significativos, foi utilizado
um filtro recursivo digital passa-baixa de Butterworth (Ackroyd, 1973), de ordem 8,
com freqüência de corte correspondente a 48 horas.
Para certificar qual o melhor método de interpolação para preencher as falhas
das séries de dados meteorológicos, foram realizados dois testes antes de aplicar
análise espectral cruzada.
O primeiro consistiu em preencher as falhas com zeros e interpolar através de
FFT, o que significa calcular o absoluto da FFT, descartar a parte complexa das séries
e eliminar as freqüências que correspondem ao período da maior falha. A seguir, calculase o inverso de FFT das séries modificadas e obtém-se séries filtradas compatíveis
com o original.
O segundo teste consistiu em preencher as falhas com a média das séries e
interpolá-las também por FFT. Para esse teste, foi utilizada uma parte das séries de
vento (componente zonal Wx), onde foram introduzidas falhas artificiais e de forma
aleatória, que foram preenchidas com zeros e pela média.
Na Figura 3, pode-se ver as séries filtradas e interpoladas Wxf, Wxmf, Wxzf e
a séries original Wx. Pode-se notar que a curva da série Wxzf diverge séries Wx e Wxf
no período onde o preenchimento foi realizado (marcado com elipses) e a curva da
série Wxmf representou melhor a tendência da curva original filtrada (Wxf).
Assim, optou-se pela utilização das séries filtradas resultantes da interpolação
por FFT com as falhas preenchidas pela média.
Figura 3 - Série Original (Wx), original filtrada (Wxf) e original filtrada com falhas induzidas
artificialmente preenchidas por zeros (Wxzf) e pela média (Wxmf).
Pesquisa Naval Nº 16, Outubro de 2003
181
Após a eliminação das falhas, as séries foram reinterpoladas para intervalos
horários de maneira poder compará-las com as séries de maré.
A análise espectral das séries de dados do nível do mar, pressão atmosférica
e de vento foram realizadas pela aplicação da Transformada Rápida Fourier (FFT),
utilizando-se como parâmetros para janela de Hanning 4096 e para overlaping 10.
Resultados
As correlações cruzadas entre os dados de nível do mar (nm) da estação da
Ilha Fiscal e os dados meteorológicos de cada variável (pa, Wx e Wy) da estação da
Ponta da Armação estão apresentados nas Figuras 4, 5 e 6 e nas Tabelas 2, 3 e 4.
Pode-se observar, no gráfico relativo à correlação cruzada, que há picos de
alta coerência em eventos com periodicidade de 25,8; 18,5; 15,0; 6,8; 3,0 e 2,8 dias
(Figura 4 e Tabela 2) e que o tempo de retardo (defasagem) variou de 6,8 a 166,4 horas.
Figura 4 - Correlação Cruzada entre os dados de nível do mar (Estação Ilha Fiscal) e de
pressão atmosférica (Estação Ponta da Armação).
182
Pesquisa Naval Nº 16, Outubro de 2003
Tabela 2 - Resumo das características da análise espectral cruzada das séries temporais do
nível do mar (Estação Ilha Fiscal) e de pressão atmosférica (Estação Ponta da Armação).
Freqüências
(Hz)
Períodos
(dias)
Coerência
4,48 x 10-07
6,26 x 10-07
7,72 x 10-07
1,71 x 10-06
3,83 x 10-06
4,14 x 10-06
25,8
18,5
15,0
6,8
3,0
2,8
0,72
0,64
0,83
0,67
0,72
0,77
(
A correlação cruzada entre nm e Wx mostrou picos de boa coerência para
eventos com periodicidade de 6,9; 5,4; 4,3 e 2,8 dias (Figura 9 e Tabela 3), tendo o
tempo de defasagem variado de 22,1 a 75,4 horas.
Figura 5 - Correlação Cruzada entre os dados de nível do mar (Estação Ilha Fiscal) e os da
componente X do Vento – Wx (Estação Ponta da Armação).
Pesquisa Naval Nº 16, Outubro de 2003
183
Tabela 3 - Resumo das características da análise espectral cruzada das séries temporais do
nível do mar (Estação Ilha Fiscal) e os da componente X do Vento – Wx (Estação Ponta da
Armação).
Freqüências
(Hz)
Períodos
(dias)
Coerência
1,68 x 10-06
2,14 x 10-06
2,68 x 10-06
4,10 x 10-06
6,9
5,4
4,3
2,8
0,64
0,82
0,78
0,68
(
A partir dos resultados da correlação cruzada entre nm e Wy, pode-se notar
picos de boa coerência em eventos com periodicidade de 15,6; 12,1; 8,9; 5,4; 4,6; 3,2;
3,0 e 2,6 dias (Figura 6 e Tabela 4). O tempo de defasagem variou de 2,8 a 172 horas.
Figura 6 - Correlação Cruzada entre dados de nível do mar (Estação Ilha Fiscal) e da
componente meridional do vento (Wy) (Estação Ponta da Armação).
184
Pesquisa Naval Nº 16, Outubro de 2003
Tabela 4 - Resumo das características da análise espectral cruzada das séries temporais do
nível do mar (Estação Ilha Fiscal) e os da componente meridional do vento (Wy) (Estação
Ponta da Armação).
Freqüências
(Hz)
Períodos
(dias)
Coerência
7,40 x 10-07
9,54 x 10-07
1,29 x 10-06
2,16 x 10-06
2,50 x 10-06
3,62 x 10-06
3,83 x 10-06
4,44 x 10-06
15,6
12,1
8,9
5,4
4,6
3,2
3,0
2,6
0,70
0,66
0,83
0,81
0,65
0,66
0,69
0,61
(
Os resultados das correlações cruzadas entre a série temporal de nível do mar
da Estação Cananéia e cada uma das séries de dados meteorológicos de São Sebastião
são mostrados pelas Figuras 7, 8 e 9, e pelas Tabelas 4, 6 e 7.
A correlação cruzada entre nm e pa mostrou que há um grande número de
picos com boa coerência em eventos com periodicidade que variam de 2,5 a 14,5 dias
(Figura 7 e Tabela 5). O tempo de defasagem da resposta do nível do mar à pressão
atmosférica variou de 1,9 a 148,2 horas.
Figura 7 - Correlação Cruzada entre os dados de nível do mar (Estação Cananéia) e de
pressão atmosférica (Estação São Sebastião).
Pesquisa Naval Nº 16, Outubro de 2003
185
Tabela 5 - Resumo das características da análise espectral cruzada das séries temporais do
nível do mar (Estação Canaéia) e os de pressão atmosférica (Estação São Sebastião).
Freqüências
(Hz)
Períodos
(dias)
Coerência
8,11 x 10-07
9,89 x 10-07
1,22 x 10-06
1,50 x 10-06
2,12 x 10-06
2,38 x 10-06
2,74 x 10-06
3,39 x 10-06
3,66 x 10-06
4,34 x 10-06
4,64 x 10-06
14,3
11,7
9,5
7,7
5,5
4,9
4,2
3,4
3,2
2,7
2,5
0,65
0,69
0,85
0,75
0,98
0,96
0,70
0,62
0,65
0,83
0,67
F
(g
A correlação cruzada entre nm e Wx mostrou poucos picos de boa coerência
para eventos com periodicidade que variaram de 2,7 a 11,6 dias (Figura 8 e Tabela 6). O
tempo de defasagem variou de 22,1 a 75,4 horas.
Figura 8 - Correlação cruzada entre os dados de nível do mar (Estação Cananéia)
e os da componente X do Vento – Wx (Estação São Sebastião).
186
Pesquisa Naval Nº 16, Outubro de 2003
Tabela 6 - Resumo das características da análise espectral cruzada das séries temporais do
nível do mar (Estação Cananéia) e os da componente X do Vento – Wx (Estação São Sebastião).
Freqüências
(Hz)
Períodos
(dias)
Coerência
9,96 x 10-07
1,46 x 10-06
2,10 x 10-06
2,71 x 10-06
3,15 x 10-06
3,69 x 10-06
4,33 x 10-06
11,6
7,9
5,5
4,3
3,7
3,1
2,7
0,67
0,67
0,82
0,83
0,69
0,73
0,70
(
Nos resultados da correlação cruzada entre Wy, pode-se notar boa coerência
nos eventos com periodicidade que variaram de 2,6 a 12,2 dias (Figura 9 e Tabela 7). O
tempo de defasagem variou de 8,9 a 129,8 horas.
Figura 9 - Correlação cruzada entre os dados de nível do mar (Estação Cananéia)
e os da componente meridional (Wy) (Estação São Sebastião).
Pesquisa Naval Nº 16, Outubro de 2003
187
Tabela 7 - Resumo das características da análise espectral cruzada das séries temporais do
nível do mar (Estação Cananéia) e da componente meridional do vento (Wy) (Estação São
Sebastião).
Freqüências
(Hz)
Períodos
(dias)
Coerência
9,51 x 10-07
2,59 x 10-06
4,47 x 10-06
12,2
4,5
2,6
0,66
0,83
0,81
(g
De um modo geral, os eventos com período em torno de 5 e 14 dias no Rio de
Janeiro e em torno de 5 dias em São Paulo tiveram as maiores coerências, com índices
superiores a 0,80.
Discussão e Conclusão
A aplicação da metodologia para preenchimento de falhas das séries gerou
bons resultados, uma vez que foram preservadas as características dos sinais
espectrais, especialmente para as séries de pressão atmosférica. Essa técnica mostrouse mais eficiente quando o interesse está focado nos eventos de baixa freqüência.
O padrão de mau tempo típico da região estudada é a passagem de frentes
frias. A origem das frentes frias que atingem o litoral sul-sudeste do Brasil é extratropical, proveniente de regiões de altas latitudes (Filippo, 1997), têm sua frontogênese
associada ao gradiente de temperatura sobre o Atlântico e o campo de deformação
entre as duas células subtropicais de alta pressão (anticiclone do Antártico e anticiclone
do Atlântico) (Serra & Ratisbona, 1959). Estes sistemas frontais propagam-se
freqüentemente ao longo da costa entre 40°S e 20°S, embora possam alcançar latitudes
tão baixas quanto 13°S durante o verão no hemisfério sul (Kousky, 1979). Sistemas
frontais entre as latitudes 20°S e 34°S têm média 3-6 passagens por mês ao longo do
ano, correspondendo a um período de 5 a 10 dias entre as frentes. Oliveira (1986)
mostrou que a freqüência de ocorrência de sistemas frontais tende a diminuir em
direção ao equador e aumentar durante o inverno austral. A menor freqüência de
sistemas frontais acontece em fevereiro (3 por mês) e o máximo em outubro (5 por mês).
A plataforma continental do Meio-Atlântico da América do Sul é afetada por
ventos de diferentes direções, como resultado da passagem de sistemas frontais e do
anticiclone semi-permanente do Atlântico Sul. Stech e Lorenzzetti (1992) estabeleceram
que a velocidade de deslocamento das frentes frias para o nordeste é de
aproximadamente 500 km/dia. Ventos no setor quente têm uma velocidade média de 5
m/s e giram de nordeste para noroeste (giro anticiclônico) com a aproximação da frente
fria. No setor frio, ventos de sudoeste têm uma velocidade média de 8 m/s e giram de
sudoeste à nordeste 24 h depois de passagem de uma frente fria.
188
Pesquisa Naval Nº 16, Outubro de 2003
A elevação do nível do mar junto à costa pode ser a diversos processos como
(i) o transporte de Ekman, gerado por ventos paralelos à costa, e que pode transportar
água em direção a ela; (ii) ventos perpendiculares à costa empurram a água diretamente
para a costa; (iii) a elevação de ondas pela ação dos ventos e outras interações de
ondas transportam água para a costa, somando-se aos dois primeiros processos; (iv)
ondas de Kelvin geradas por ventos se propagam ao longo da costa; (v) a baixa
pressão atmosférica dentro dos centros de baixa elevam o nível do mar de 1 cm para
cada decréscimo de 1 hPa na pressão pelo efeito do barômetro invertido e, finalmente,
(vi) a elevação induzida por tempestade (storm surge) somado ao efeito das marés
locais, principalmente as preamares das marés de sizígia, podem potencializar a ação
de uma tempestade relativamente fraca (Stweart, 2002).
Os resultados da análise espectral cruzada mostraram duas tendências
diferentes das forçantes meteorológicas que agem na flutuação do nível do mar de
cada estação avaliada.
A análise dos dados da estação Ilha Fiscal, RJ, indicaram a componente
meridional do vento como a forçante dominante na flutuação de baixa freqüência do
nível do mar local, seguida pela componente zonal e pela pressão atmosférica. Já em
Cananéia, SP, embora a componente meridional do vento também tenha se mostrado
como a forçante de maior influência, a pressão atmosférica mostra-se mais atuante nas
oscilações de baixa freqüência que a componente zonal do vento (Tabela 8).
Embora fosse esperado que a tensão do vento atuasse como um processo
mais eficiente comparada à pressão atmosférica direta (Wunsch, 1981; Castro, 1985),
não foram encontradas diferenças notáveis em termos de coerência média (Tabela 8).
Tabela 8 – A coerência média e desvio-padrão entre as séries das variáveis
meteorológicas e a do nível do mar.
Variável
Pressão Atm.
Wx
Wy
Ilha Fiscal
0,72 ± 0,08
0,73 ± 0,08
0,76 ± 0,13
As diferenças entre os resultados obtidos para as estações são, muito
provavelmente, devidas às características locais tanto em termos fisiográficos, quanto
climatológicos. Na área da Ilha Fiscal, no Rio de Janeiro, o litoral tem orientação E-W
e, assim, a componente meridional de vento (Wy), representativa dos ventos de SWS-SE, de maior intensidade e representativos de passagens de frentes frias, é
perpendicular à costa. Em Cananéia, São Paulo, o litoral é alinhado na direção SW-NE
e Wy é representativa dos ventos de SE, típicos de períodos finais da passagem de
frentes frias e com intensidades mais fracas.
Pesquisa Naval Nº 16, Outubro de 2003
189
Agradecimentos
À Diretoria de Hidrografia e Navegação - DHN pela cessão dos dados necessários
para este estudo. Ao Laboratório de Modelagem de Processos Marinhos e Atmosféricos
– LAMMA do Departamento de Meteorologia da UFRJ pelo apoio e amizade.
Referências
Ackroid, M. H. Digital Filters. London: D. W. Hill. 1973. 79 p.
Brink, K. H. The effect of bottom friction on low-frequency coastal trapped waves.
Journal of Physical Oceanography, v.12, n.2, p.127-133. 1982.
Brink, K. H. Coastal-trapped waves and wind-driven currents over the Continental
Shelf. Annual Review of Fluid Mechanics, v.23, p.389-412. 1991.
Castro, B. M. Subtidal response to wind forcing in South Brazil Bight during winter.
(Doctoral dissertation). University of Miami, Miami, 1985. 211 p.
Castro, B. M., Miranda Luiz B. Physical Oceanography of the Western Atlantic
Continental Shelf Located Between 4 N and 34 S. In: A. R. Robinson, Brink,
Kenneth H. (Ed.). The Sea: John Wiley & Sons, Inc., v.11, 1998. Physical
Oceanography of the Western Atlantic Continental Shelf Located Between 4 N
and 34 S, p.209-251
Neves Filho, S. d. C. Variação da Maré Meteorológica no Litoral Sudeste do Brasil :
1965 - 1986. (Dissertação de Mestrado). COPPE - Coordenação dos Programas
de Pós-graduação de Engenharia., Universidade Federal do Rio de Janeiro, Rio
de Janeiro, 1992. 113 p.
Filippo, A. M. Passagem de Frentes Frias na Baía de Guanabara, RJ - Brasil: Impacto no
nível do mar. (Dissertação de Mestrado). Departamento de Geoquímica
Ambiental, Universidade Federal Fluminense - UFF, Niterói, 1997. 79 p.
Gill, A. E. e E. H. Schumann. Topographically Induced Changes in Structure of an
Inertial Coastal Jet: Application to the Agulhas Current. Journal of Physical
Oceanography, v.9, September 1979, p.975 - 991. 1979.
INEMET. Normais Climatológicas: Instituto Nacional de Meteorologia. 2002 2002.
Kousky, V. E. Frontal influences on northeast Brazil. Mon. Weather Rev., v.107, n.9,
p.1140-1153. 1979.
Middleton, G. V. Data analysis in the Earth Sciences Using MatLab. New Jersey: Prentice
Hall. 2000. 260 p.
Nobre, P. A Variabilidade Interanual do Atlântico Tropical e sua Influência no Clima da
América do Sul. Climanálise - Boletim de Monitoramento e Análise Climática:
INPE/MCT 1996.
Oliveira, A. S. Interações entre sistemas frontais na América do Sul e convecção na
Amazônia. (MSc. dissertation). Instituto de Peaquisas Espaciais - INPESão
José dos Campos - SP, 1986.
Oliveira, G. S. e P. Satyamurty. O El Niño de 1997/98: evolução e impactos no Brasil. X
Congresso Brasileiro de Meteorologia. Brasília - DF. realizado de 26 a 30 de
outubro de 1998, 1998. Resumos expandidos.
190
Pesquisa Naval Nº 16, Outubro de 2003
Pereira, B. D. B., M. B. Z. Pais, et al. Análise Espectral de Séries Temporais - Uma
Introdução para Engenharia, Economia e Estatística. Rio de Janeiro: Arte Final
Leasing Editorial. 1986. 109 p.
Robinson, A. R. Continental shelf waves and the response of sea level to weather
systems. Journal Geophysical Research, v.69, p.367-368. 1964.
Serra, A. e L. Rastibonna. As Massas de Ar da América do Sul. Revista Geográfica do
Instituto Pan-Americano de Geografia e História, v.25, n.51, Jul-Dez, p.67-129.
1959.
Stech, J. L. e J. A. Lorenzzetti. The response of the South Brazil Bight to the passage of
wintertime cold fronts. Journal Geophysical Research, v.97, n.C6, p.9507-9520.
1992.
Stewart, R. H. Introduction To Physical Oceanography. Galveston: Texas A & M
University. 2002. 350 p.
The Mathworks, Inc. Matlab software. Release 12. 2000.
The Mathworks, Inc.. Matlab The Language of Technical Computing 2001.
Welch, P. D. The Use of Fast Fourier Transform for the Estimation of Power Spectra: A
Method Based on Time Averaging Over Short, Modified Periodograms. IEEE,
v.AU-15, June 1967, p.70-73. 1967.
Wunsch, C. Low-Frequency Variability of the Sea. In: B. A. Warren e C. Wunsch (Ed.).
Evolution of Physical Oceanography. Massachusetts: Massachusetts Institute
of Technology, 1981. Low-Frequency Variability of the Sea, p.342-374
XV
Capítulo
O CASO DA PRAIA DO GONZAGUINHA EM SÃO VICENTE - SP
PESQUISA DO TRANSPORTE DE SEDIMENTOS NA BAÍA DE SANTOS Gilberto Berzin
Engenheiro Civil, Professor Titular da Faculdade de Engenharia Civil.
Coordenador do Núcleo de Pesquisas Hidrodinamicas - NPH
Universidade Santa Cecília –UNISANTA - [email protected]
Alexandra Franciscatto P. Sampaio
Engenheira Civil, Pesquisadora do NPH-UNISANTA
Universidade Santa Cecília – [email protected]
Resumo
Até 1945 a praia do Gonzaguinha em São Vicente – SP estava em equilíbrio
natural, com areia em toda sua extensão de 800 metros, pois havia reposição constante
de areia transportada pelas correntes que seguem paralelas às praias de Santos até
a baía de São Vicente, atravessando um trecho (tômbolo) que ligava a ilha Porchat
à praia do Itararé, alagado constantemente nas marés altas, popularmente chamado
de “mar casado”.
Uma obra, discutível na sua concepção, permitiu o acesso à ilha Porchat por
meio de uma pequena ponte, provocando a retenção de areias que em poucos anos
obstruiu esta passagem. Deste modo, parte do aporte de sedimentos necessários à
estabilidade da Praia do Gonzaguinha foi interrompido e a largura da faixa de
areia da praia vêm diminuindo desde então. Como conseqüência, quando ocorrem
marés mais altas e ressacas, o efeito das ondas tem sido devastador para as instalações
junto da avenida costeira.
Utilizando o MOHID - Modelo Hidrodinâmico de Circulação Oceânica, a
Universidade Santa Cecília, através do Núcleo de Pesquisas Hidrodinâmicas, estudou
os efeitos desta obra na circulação das correntes existentes nesta área utilizando
traçadores lagrangeanos.
192
Pesquisa Naval Nº 16, Outubro de 2003
Finalmente propõe-se soluções para o caminho da recuperação da faixa de areia,
pois resta apenas um pequeno trecho que retém o pouco de areia circulante.
Abstract
Up to 1945, the beach Gonzaguinha, in São Vicente - SP, was in natural
balance, with sands in all its extension of 800 meters, as a natural continuation
of beaches of the bay of Santos, having a constant replacement of sands for the
currents, that came parallel bars to beaches of Santos until the bay of São Vicente,
crossing a stretch who bound the Porchat island to beaches, constantly flooded
in the high tides.
A workmanship of I fill with earth, arguable in its conception, allowed to access
to the Porchat island for a small accessible bridge for attires, provoking the sand
clamping that in few years obstructed this pass. In this way it arrives in port it of
necessary sediments to the stability of the Beach Gonzaguinha was interrupted and
the beach was disappearing.
As consequence, when of higher tides and undertows, the effect is devastator for
the installations next to the coastal avenue.
Using the MOHID - Hydrodynamic Model of Oceanic Circulation, the University
Santa Cecília, studied the effect of the locking in existing currents, searching the
path of carried solids, identifying its areas of sedimentation. One considers solutions
for backup finally, therefore it remains only one small stretch that holds back little of
the circulating sand.
Palavras Chaves: Modelo hidrodinâmico, Correntes, Transporte, Sedimentos, Praias.
Introdução
Até metade do século passado, a Praia do Gonzaguinha localizada no município de
São Vicente, Estado de São Paulo, com aproximadamente 800 m metros de comprimento,
tinha areias em toda a sua extensão. A ilha Porchat era separada da praia com uma
formação típica de um “mar casado” nas marés altas, ocorrendo união com a praia nas
marés mais baixas, como se verifica na formação natural de algumas ilhas próximas às
praias (tômbolo).
Na “História da Marinha do Brasil”, publicada pelo seu serviço de documentação,
numa interpretação do diário de bordo de Pero Lopes, feito pelo Cmt. Eugênio de
Castro, diz que as embarcações menores de Martim Afonso de Souza adentraram na
baía de São Vicente pelo canal localizado entre a ilha de Mude, atualmente chamada de
Ilha Porchat, e as praias de São Vicente. Em diversas citações históricas e plantas
existentes desde a fundação da Vila de São Vicente, constata-se que a principal
comunicação do estuário de São Vicente era feito entre a ilha e a praia.
Estudos oceanográficos realizados no estuário e baía de Santos ao longo de anos,
indicam a existência de uma corrente de água que se desloca ao longo das praias no
sentido Santos para São Vicente. Essas correntes foram estudadas utilizando o Modelo
Pesquisa Naval Nº 16, Outubro de 2003
193
Hidrodinâmico de Circulação Oceânica - Mohid, pelo Núcleo de Pesquisa
Hidrodinâmicas da UNISANTA.
Todas as praias, em geral, tendem a um equilíbrio dinâmico, ou seja, todo o material
que sai transportado pelas correntes tende a ser reposto, porém a capacidade de
romper com este equilíbrio com obras mal planejadas é verificada em todo o mundo.
Foi o que aconteceu em São Vicente. Uma obra de ligação por meio de aterros nas
duas extremidades unidos por uma pequena ponte (ainda existente e enterrada na
areia), entre a ilha Porchat e a praia do Itararé, para a instalação de um antigo cassino
na ilha em décadas passadas, provocou o bloqueio das correntes existentes ao longo
das praias de Santos que transportam naturalmente as areias que chegavam a Praia do
Gonzaguinha por este trecho. Com a interrupção desta passagem, parte deste material
passou a se acumular no canto oeste da praia do Itararé, aterrando-a e engordando-a
até atingir a atual dimensão. Deste modo a praia do Gonzaguinha que ficou sem esta
parcela de reposição de areia, vem sendo erodida pelas correntes locais que transportam
o material erodido em direção ao canal dos Barreiros (área interna do estuário de SV) e
para a baía de Santos. O que resta hoje no Gonzaguinha é um pequeno trecho na face
oeste da praia que retém um pouco da areia circulante, devido ao morro dos Barbosas.
Na figura 1 visualiza-se as principais referencias citadas e na figura 2, trecho da
carta náutica da Marinha do Brasil de 1937, com a configuração da região antes do
impacto da obra de ligação entre a Ilha Porchat e a praia do Itararé em São Vicente.
Figura 1 - Foto aérea da área em estudo - São Vicente/SP.
194
Pesquisa Naval Nº 16, Outubro de 2003
Figura 2 – Trecho da carta náutica da Marinha do Brasil de 1937.
Metodologia da Modelagem
No XII SBRH – Simpósio Brasileiro de Recursos Hídricos, dez/99, realizado em
Belo Horizonte, foi apresentado a técnica de modelagem hidrodinâmica MOHID, na
qual apoiam-se os estudos realizados e apresentados no presente trabalho.
Em resumo, os modelos hidrodinâmicos tiveram um grande impulso com o advento
da informática, onde equações diferenciais puderam ser resolvidas com rapidez pelos
micros computadores. Os caros modelos físicos reduzidos de áreas costeiras, que
exigiam complexos equipamentos geradores de marés e ondas, e outros, estão sendo
em muitos casos substituídos por modelos hidrodinâmicos computacionais. Os prazos
e custos diretos tornaram-se então muito menores. Num monitor, pode-se acompanhar
a evolução das correntes e seus efeitos, além de possibilitar produzir rapidamente
relatórios técnicos pormenorizados.
Pesquisa Naval Nº 16, Outubro de 2003
195
I: O trabalho de Berzin et all (1997) ressalta que as técnicas de modelação matemática
já começavam estar disponíveis comercialmente, permitindo o apoio aos projetos de
obras de engenharia costeira, aos estudos de impacto ambiental, bem como para a
gestão do meio estuarino e costeiro.
Principais estudos resultantes:
- Comportamento hidrodinâmico de áreas estuarinas e costeiras, principalmente
para os estudos de obras em zonas portuárias.
- Estudo das correntes provenientes de marés, ventos e ondas.
- Variação dos níveis de maré, identificação de áreas alagadas.
- Posicionamento adequado de emissários submarinos.
- Dispersão de poluentes - Evolução de manchas de poluição provocadas por
lançamentos submarinos de esgotos e/ou resíduos industriais; vazamentos de
derivados de petróleo, granéis e outros materiais.
- Estudo das zonas de erosão e sedimentação em praias, canais, bacias de evolução
e zonas de atracação portuárias.
- Pesquisa de locais adequados na zona oceânica para o lançamento de material de
dragagem de áreas portuárias.
Técnica da Modelação Hidrodinâmica
A modelação hidrodinâmica de estuários e zonas costeiras sujeitas à ação da maré
conheceu nas duas últimas décadas uma grande evolução como já foi dito, sendo
atualmente prática corrente, quer para a simples caracterização da circulação, quer
como ferramenta de base para o planejamento e gestão de sistemas costeiros.
Os modelos bidimensionais integrados na vertical são os mais divulgados e
atualmente são processados em boas condições por microcomputadores. Alguns destes
modelos foram objeto de trabalho de sistematização, tornando-os facilmente utilizáveis
tecnicamente, independente daqueles que os desenvolveram.
Os modelos tridimensionais já vêm atingindo o nível de operacionalidade dos
bidimensionais. Essa operacionalidade depende da evolução da capacidade de cálculo
das máquinas e do desenvolvimento científico em curso.
Modelação do Estuário de Santos / São Vicente
A simulação da hidrodinâmica do Estuário de Santos foi feita inicialmente com base
no modelo MOHID-2D e atualmente já se trabalha com o MOHID-3D. O modelo
hidrodinâmico bidimensional e integrado na vertical simula a circulação de marés em
196
Pesquisa Naval Nº 16, Outubro de 2003
estuários e zonas costeiras. O sistema Mohid começou por ser desenvolvido para
o Estuário do Sado, em Portugal, por Neves (1985), e desde então têm sido
adicionados diversos módulos de cálculo (advecção - difusão, sedimentos,
qualidade da água, temperatura,...) facilitando sua utilização e dando confiabilidade
aos arquivos de dados e processamento de resultados.
O MOHID2D visualizado nas simulações a seguir utiliza o método das diferenças
finitas, permitindo incluir trechos unidimensionais acoplados ao modelo
bidimensional, facilitando deste modo a imposição das condições aos limites. Na
fronteira com o oceano é imposta a elevação da superfície livre, obtida a partir das
componentes de maré ou de uma série temporal de níveis. Nas fronteiras fluviais,
é imposta uma contribuição de vazão média em função do tempo.
Todo estuário é uma zona complexa em termos hidrodinâmicos, pela interação de
distintas condicionantes: maré, vazões dos rios afluentes, agitação marítima e vento.
O estuário de Santos recebe a contribuição de vários rios das vertentes da Serra
do Mar, desde 700 m de altura, possuindo vazões médias constantes durante as
estações do ano, que influenciados pelo regime de chuvas intensas caídas na
serra, atingindo em média 3.000 mm anuais, provocam o arraste de material
sedimentável para as áreas de influência no estuário, principalmente nos canais
dragados para a navegação interior.
O vento e a agitação incidente também são considerados, pois podem influenciar
a circulação da maré no interior do Estuário ocasionando uma variação do nível
médio por efeito de compartimentação.
A modelação matemática da região seguiu os seguintes passos fundamentais:
1 - Levantamento de dados de base existentes
2 - Campanhas de medidas.
3 - Tratamento espacial das informações obtidas.
4 - Estabelecimento e calibração do modelo matemático, baseado
nos dados obtidos.
5 - Processamento, análise e interpretação dos resultados.
Principais atividades desenvolvidas por seqüência de execução:
- Batimetria
- Níveis e Correntes
- Salinidade, Temperatura e Sedimentos em suspensão
- Granulometria do fundo.
- Geração de malhas.
- Alterações de níveis médios devido ao vento
- Calibração de níveis .
- Calibração de velocidades .
Pesquisa Naval Nº 16, Outubro de 2003
197
Caracterização hidrodinâmica do Estuário de Santos / São Vicente
Foi obtido por meio de resultados de níveis de maré, nível médio, atrasos de fase de
preamar e baixa-mar e amplitudes da maré num período de sizígia e quadratura em
locais representativos das várias zonas do Estuário, resultados das vazões e volumes
acumulados em várias seções de interesse; plantas de níveis, velocidades instantâneas,
velocidades residuais e vazões residuais em todo o Estuário, representando várias
situações ao longo do ciclo da maré; estimativas das taxas de renovação da água por
zonas de influência.
Definiram-se também zonas com características homogêneas no estuário, para estimar
a forma como essas interagem entre si e com a zona exterior. Utilizando a metodologia
lagrangeana, é possível acompanhar toda a circulação da água presente em determinado
instante no Estuário, obtendo-se assim uma estimativa das taxas de renovação da
água por ciclo de maré em cada zona.
Simulações e Estudos de Circulação na Área
Estudos oceanográficos já realizados no estuário e baía de Santos ao longo de
muitos anos, indicam uma corrente de água, que se desloca ao longo das praias, e que
transportam a areia no sentido da Ponta da Praia em Santos para as Praias de São
Vicente. Essas correntes podem ser visualizadas através do modelo de circulação
oceânica no presente trabalho.
Com a construção no meio do século passado do conjunto aterro/ponte citado
anteriormente, parte das areias transportadas pelas correntes e bloqueadas pela obra,
estão sedimentando na face oeste da praia do Itararé. Uma pequena parcela deste
material ainda pode em algumas situações acompanhar a corrente que contorna a ilha
Porchat pelo lado do mar, e depositar-se na chamada Garganta do Diabo, no canal de
São Vicente, entre a ilha Porchat e o continente, aonde existe um banco de areia (fig.03)
e constata-se devido a pouca profundidade, a formação de arrebentação de ondas
perigosas para a navegação local.
198
Pesquisa Naval Nº 16, Outubro de 2003
Figura 3 – Foto aérea da situação atual
No estudo feito com o Mohid-2D e 3D, para a calibração das correntes na baía de
Santos foram utilizados principalmente os resultados de campo obtidos por Agudo et
al. (1976), nos estudos de difusão turbulenta na costa com técnicas radioisotópicas.
Utilizando a modelagem com o cuidado especial de considerar todos os parâmetros
atuantes na área, foi possível simular condições específicas de circulação das correntes
e do arraste de sedimentos na área da baía de Santos, comprovando os estudos já
existentes e obtidos em campanhas oceanográficas anteriores, como as descritas pela
SONDOTECNICA (1978) e por Bandeira et al. (1981).
Além de simular a circulação das correntes atuantes na área em estudo, utilizando o
módulo de traçadores lagrangeanos é possível verificar sua trajetória na situação com
a passagem aberta, situação natural (tômbolo), entre ilha Porchat e as Praias (situação
2), em condições de maré vazante e enchente, na sizígia, comparativamente à situação
atual do local (situação 1), ou seja, após a obstrução da passagem das correntes pela
obra existente. Não foi considerado o efeito de vento e ondas que intensificam o
transporte de sedimentos. Para a hidrodinâmica consideramos apenas a circulação
devido a maré.
Nestas simulações manteve-se as mesmas condições para as 2 situações, de modo
a permitir uma comparação dos resultados.
Pesquisa Naval Nº 16, Outubro de 2003
199
A seguir apresentam-se algumas figuras das simulações efetuadas.
Figura 04 – Simulação da velocidade das correntes: Situação 1-atual.
Figura 05 – Simulação utilizando traçadores lagrangeanos: Situação 1-atual.
200
Pesquisa Naval Nº 16, Outubro de 2003
Figura 06–Simulação da velocidade das correntes - Situação 2 - natural, anterior
à obra.
Figura 07-Simulação utilizando traçadores lagrangeanos-Situação 2 - natural,
anterior à obra.
Pesquisa Naval Nº 16, Outubro de 2003
201
Verifica-se na figura 04 as baixas velocidades das correntes existentes atualmente
e que favorecem um maior acúmulo de areia na face oeste da praia do Itararé bem como
nas praias de Santos, condição que antes do fechamento da passagem não ocorreria
com tanta intensidade (fig.06). As simulações foram realizadas considerando o mesmo
dia e horário, em condição de sizígia.
Na situação 2, observa-se que os módulos das velocidades entre a ilha e a praia
atingem os mesmos valores daqueles obtidos na Garganta do Diabo, logo, nesta
situação, a corrente transportando o sedimento percorreria este trecho já com alguma
perda de carga, até atingir a baía de São Vicente e vindo a depositar-se na face praial do
Gonzaguinha devido às baixas velocidades que ali se encontram (fig.06).
Utilizando traçadores lagrangeanos para as duas situações, figuras 05 e 07, foram
eliminadas as cores das correntes, deixando apenas o seu módulo, para facilitar a
visualização dos traçadores.
Observa-se na situação 1, figura 05, que após um período de maré vazante e início
de enchente, houve espalhamento dos traçadores vermelhos na baía de Santos, que
não conseguem chegar à baía de São Vicente pelo canal de São Vicente neste período.
Uma fração dos traçadores em azul seguem em direção à baía de Santos, outra parcele
segue para o interior do estuário de SV, e uma tende a permanecer na face oeste da
praia devido à retenção natural do Morro dos Barbosas. A corrente que contorna a ilha
pelo lado de fora e segue para o único acesso à baía de SV provavelmente tem capacidade
de transportar apenas o material mais fino, que pode por perda de carga devido a
diminuição da velocidade das correntes, após o afunilamento da Garganta do Diabo,
ter alguma probabilidade de depositar-se no banco de areia em frente a praia de
Paranapuã, porém seria uma fração muito pequena.
Na figura 07, situação 2, os traçadores indicam o sentido que o material transportado
pelas correntes de Santos para São Vicente teriam. Vindo de encontro aos registros
históricos levantados, eles atingiriam a praia do Gonzaguinha, onde devido às baixas
velocidades se depositariam, cumprindo deste modo para a manutenção da faixa de
areia ali existente.
Metodologia de Recuperação
Deve-se ressaltar, que ao longo dos anos tentou-se recuperar as praias utilizando
obras sem o devido diagnóstico e compreensão da interação dos fenômenos de
circulação oceânica existentes na área. Para tentar reter a areia, construiu-se espigões
de pedras (fig. 08), que apesar de bem intencionados, pouco efeito produziram, pois
além da pouca areia existente para reposição, sua construção não contou com a
observância de parâmetros que definissem as exigências de posicionamento,
espaçamento entre eles e inclinação dos taludes. Enfim eles não são capazes de a
pequena fração de material que circula na baía e recuperar a praia.
202
Pesquisa Naval Nº 16, Outubro de 2003
Figura 08 - Detalhe da pequena quantidade de areia acumulada nos espigões
construídos
Foram estudadas as seguintes soluções possíveis:
1ª) Retorno às condições naturais, mantendo o acesso a ilha:
-
Remoção de todo o aterro e ponte antiga existente.
Construção de nova ponte sobre pilares (sem aterros de cabeceira), ao lado do
atual aterro formado.
- Dragagem das áreas, permitindo a circulação das correntes por baixo da nova
ponte, que transportam o material areia para as praias da baía de São Vicente.
Prazo previsto para recuperação de 50% das praias é de 6 anos, obtido por um
estudo da Capitania de Postos do Estado de São Paulo.
Esta solução tem o inconveniente de exigir custos elevados devido à construção da
nova ponte e serviço de dragagem a ser muito bem estudado e planejado, além da
remoção das instalações de um Clube construídas posteriormente ao engordamento
do canto oeste da praia do Itararé por acúmulo de areia.
Pesquisa Naval Nº 16, Outubro de 2003
203
2ª) Reconstruir os espigões e aterrar utilizando o material do banco de areia
-
Estudos pormenorizados das correntes internas no Mar Pequeno utilizando o
Modelo Hidrodinâmico de Circulação Oceânica, para avaliação dos melhores
pontos onde se efetuar as construções dos espigões e seus detalhes técnicos.
- Reconstrução dos espigões existentes, adequando-os aos projetados, utilizando
os enrocamentos de pedras e alterando-os quando necessário.
- Dragagem do banco de areia utilizando tubulações para o lançamento do material
dragado junto aos espigões, que servirão para reter o material lançado e o que
circula na baía de SV, evitando a assim a erosão continuada da praia. Técnica a ser
utilizada com muito cuidado.
O custo desta solução em relação à primeira deve ser muito significativa, incluindo
os estudos da hidrodinâmicos, construção dos espigões e dragagem do banco de
areia.
A recuperação e construção dos espigões têm prazo aproximado de 04 meses, e a
dragagem pode ser iniciada quando o primeiro espigão estiver construído, sem
necessidade de esperar a conclusão de todos.
Recomendações
O caso da praia do Gonzaguinha requer um estudo hidrodinâmico global da região,
apoiado por simulações bem detalhadas, considerando os efeitos das frentes
meteorológicas na circulação das correntes e de ondas, através de campanhas de
medidas. O objetivo é obter um diagnóstico detalhado da situação de recuperação,
visando o perfeito dimensionamento das obras propostas. A calibração da modelagem
deve ser feita com os resultados obtidos das campanhas meteo-oceanográficas na
área específica e com um levantamento atual da batimetria da região, pois o pequeno
volume de informações das cartas náuticas mais recentes da Marinha para a área de
São Vicente, exigem a necessidade da realização de uma batimetria de malha fina de
toda área.
Conclusão
O objetivo proposto no trabalho é avaliar os resultados obtidos na simulação da
circulação das correntes nas duas diferentes situações: com acirculação interrompida
pelo aterro e não, utilizando o modelo hidrodinâmico – MOHID 2D, com os registros
históricos, estudos realizados no campo e fotos aéreas existentes da região.
A modelagem matemática é uma ferramenta de grande valor a ser utilizada para
simular os fenômenos ligados a circulação oceânica junto à costa, pois uma vez
estabelecida, além de auxiliar nas pesquisas das causas decorrentes das modificações
da linha de costa, vem possibilitar o estudo detalhado com boa precisão para a tomada
de decisões de soluções a serem implantadas.
204
Pesquisa Naval Nº 16, Outubro de 2003
Bibliografia
AGUDO, E. G., et al, ( 1976 ) “Estudos de difusão turbulenta na costa do Guarujá,
São Paulo, Por Meio de Técnicas Radioisotópicas”, Instituto de Energia Atômica, São
Paulo.
BANDEIRA, J.V. et al, – “Estudo do Comportamento dos Sedimentos de Fundo na
Baía de Santos”, Divisão de Engenharia Ambiental – CDTN - NUCLEOBRÁS – 1981.
BERZIN, G. ( 1991) “Monitoring of the Santos Submarine Out Fall, 10 Years of
Operation” -International Specialized Conference on Marine Disposal Systems - Anais.
Lisboa - Portugal. IAWPRC: v.1,p.31-45.
BERZIN, G., NEVES, R. J. J. & LEITÃO, J. C., ( 1997 ) “Modelação Matemática no
Estuário de Santos e sua Importância nas Atividades Portuárias”- Anais do XII ENEP
- Encontro Nacional de Entidades Portuárias - Guarujá - SP.
PORTELA, L. e NEVES, R. - ( 1.994 ) “Numerical Modelling Suspended Sediment
Transport in Estuaries: a Comparison Between the Tagus (Portugal) and the Scheldt
(The Netherlands)”. Netherlands Journal of Aquatic Ecology, 28, pp. 329-335.
SONDOTÉCNICA –1978 – “Análise do Relatório do Comportamento Hidráulico e
Sedimentológico do Estuário Santista” – Cia Docas de Santos.
XVI
Capítulo
CARACTERIZAÇÃO TERMOHALINA DA REGIÃO NORTE DO BRASIL
DANIELLE SARA CORREIA ALVES
Oceanógrafo_ Universidade do Estado do Rio de Janeiro
1º Ten T MARCIA HELENA MOREIRA VALENTE
Mestre em Oceanografia pela Universidade de São Paulo
Seção de Dados Oceanográficos _ Centro de Hidrografia da Marinha
Resumo
A Seção de Dados Oceanográficos do Centro de Hidrografia da Marinha
vem elaborando trabalhos visando caracterizar o comportamento dos parâmetros
físicos da água do mar (temperatura, salinidade e correntes), e definir configurações
médias para estes parâmetros, importantes para o apoio às operações navais e
atividades correlatas como previsão meteorológica e oceanográfica. Para tal são
utilizados dados adquiridos durante as comissões integrantes do programa OCEANO,
que, após sofrerem processos de validação e análise nesta Seção, são armazenados
no BNDO (Banco Nacional de Dados Oceanográficos).
O presente trabalho se constitui no desenvolvimento de um estudo iniciado
em 2001, cujos resultados preliminares se traduziram nos primeiros procedimentos
para definição de uma máscara T-S da região norte brasileira, apresentados nos
Anais Hidrográficos de 2001 (Alves & Valente,2001).
Seguindo o mesmo objetivo, serão apresentados diagramas T-S, elaborados
para a plataforma norte do Brasil e região oceânica adjacente.
Abstract
The Hidrography Center of the Navy (CHM_Centro de Hidrografia da
Marinha) has been working to characterize the behaviour of the physical properties
of the seawater (temperature, salinity and currents) and define their medians, which
are important for the naval operations and ativities such as meteorological and
oceanographical predictions. The utilized data are from the Oceanographic
206
Pesquisa Naval Nº 16, Outubro de 2003
Comissions of the OCEANO Program, these data are analized in the Oceanographic
Data Section and stored in the BNDO (Banco Nacional de Dados Oceanográficos).
This paper continues the work initiated in 2001, whose first results are the
principles to create a TS mask of the Brazilian Northern Region (Alves&Valente,
2001). In this paper, we present TS diagrams, for the Northern Brazilian Shelf and its
next-to oceanic region.
1. INTRODUÇÃO
A definição da máscara T-S de uma região é uma ferramenta fundamental para
o planejamento das operações navais e caracterização da sua circulação termohalina.
Estabelece-se uma máscara T-S considerando-se que os parâmetros
temperatura e salinidade são conservativos. Desta forma, as massas d’água de grandes
regiões oceânicas apresentam índices termohalinos característicos obtidos
graficamente a partir dos chamados diagramas de estado ou simplesmente curvas T-S.
Quando uma massa d’água se distancia de seu local de origem ela começa a
perder as suas características, se misturando com outras massas que atravessam seu
caminho. Normalmente como as massas são originadas em regiões polares, elas se
aquecem ao longo do seu percurso, variando sua densidade, e consequentemente seu
posicionamento na coluna d’água.
Este trabalho tem como objetivo apresentar curvas T-S espalhadas, dividindoas em áreas de plataforma e oceânicas, sob influência ou não da foz do rio Amazonas.
As curvas foram comparadas com índices existentes na bibliografia, identificando
assim as massas d’água presentes. Além disso, pretende-se ainda discutir a
sazonalidade dos parâmetros físicos na região em estudo. Tais procedimentos
determinam a metodologia para confecção da máscara T-S da Costa Norte, cujos
primeiros desenvolvimentos se encontram detalhados em Alves&Valente (2001).
2. A REGIÃO ESTUDADA
A costa Norte Brasileira, compreendida entre a foz do Rio Parnaíba e a fronteira
marítima com a Guiana Francesa, possui características ímpares. A sua singularidade
deve-se principalmente à influência da descarga do Rio Amazonas, o maior curso de
água doce em volume do mundo. De fato, a sua vazão se constitui em 18% de toda a
água doce da Terra (Oltman, 1968). A pluma de água com baixa densidade formada pela
descarga do Rio Amazonas apresenta uma extensão de centenas de quilômetros em
direção ao mar aberto, penetrando pelo Oceano Atlântico Norte.
Devido à sua localização em baixas latitudes, não se podem caracterizar estações
do ano bem definidas nesta região; deve antes ser considerada a existência de uma
estação seca e outra chuvosa, determinada pelo deslocamento meridional da Zona de
Convergência Intertropical (ZCIT). Os principais fatores influentes na dinâmica
oceanográfica da região são a variação sazonal do fluxo do Amazonas e, mais
Pesquisa Naval Nº 16, Outubro de 2003
207
externamente, a Corrente Norte do Brasil (CNB), que arrasta as águas sobre a plataforma
externa e o talude em direção a noroeste, acompanhando o norte da América do Sul.
Nos meses de abril a junho ocorre a descarga máxima do Rio Amazonas; no
período entre outubro e início de janeiro (estação seca), é registrada uma menor influência
da água doce proveniente do rio.
Em 1995, Linhares utilizou dados coletados em estações realizadas em
profundidades locais maiores que 30m, identificando através dos mesmos as seguintes
massas de água na Plataforma Continental Amazônica: Água do Rio (AR), Água
Oceânica Sub-Superficial (AOSS) e Água Central do Atlântico Sul (ACAS). O diagrama
T-S apresenta uma estrutura triangular, sendo a AR definida pelo vértice menos salino
e mais quente, o vértice mais salino caracterizando a AOSS e o mais frio a ACAS. A
Água do Rio é proveniente da descarga do Rio Amazonas, com a salinidade variando
de 0 a 12 PSU, enquanto que a temperatura é relativamente mais constante (27º C – 30º
C). O índice termohalino da AOSS é 36.3 PSU, 28.5 ºC e o da ACAS 34.4 PSU, 5.1 ºC.
(Linhares, 1995).
Em regiões rasas (compreendidas entre as isóbatas de 10m e 20m), Curtin
(1986), apud Linhares (1995), identificou, outra massa não mencionada anteriormente,
a Água Superficial de Alta Temperatura (ASAT), com temperatura oscilando entre
29.1ºC e 30.3ºC, e salinidades entre 9.0 e 34.0 PSU. Entre a costa e a isóbata de 30 m a
temperatura é elevada (27º C – 30 º C), diminuindo em direção ao largo. Em uma faixa de
profundidade que se estende de 200m a 700m, se constata a existência da termoclina
permanente, demonstrando o predomínio da ACAS (Curtin, 1986).
3. METODOLOGIA
Os dados apresentados neste trabalho foram adquiridos em três comissões
oceanográficas realizadas pelo Navio Oceanográfico ANTARES, subordinado à Diretoria
de Hidrografia e Navegação da Marinha do Brasil. Tais dados consistem em perfis de
temperatura, salinidade e pressão.
As comissões foram selecionadas de acordo com a época do ano de sua
realização, de modo a ser possível o estudo da sazonalidade dos processos
oceanográficos na área em questão.
Comissão
REVIZEE
NORTE I
REVIZEE
NORTE II
REVIZEE
NORTE IV/
/OCEANO
NORTE I
Estações
realizadas
203
154
147
Época de Coleta
F
março a maio de 1995
v
setembro a dezembro
de 1997
julho a setembro de
2001
de
desc
208
Pesquisa Naval Nº 16, Outubro de 2003
Os dados de temperatura e salinidade foram reprocessados e filtrados com o
auxílio do pacote Seasoft e rotinas Matlab. Devido à longa duração de cada comissão
(aproximadamente 3 meses),e por forma a obter uma condição o mais sinótica possível,
a região amostrada foi separada em quatro áreas, acompanhando o cronograma da
coleta durante as pernadas realizadas (Figura 1). Além disso, foram confeccionados
diagramas TxS em separado para a região de plataforma (sob influência direta da
descarga do Amazonas, até a isóbata de 200 metros), e para a área mais externa e de
características oceânicas (além da isóbata de 200 metros).
Figura 1 - Área Estudada
4. RESULTADOS
Os dados coletados em cada uma das três comissões foram separados
pelas quatro áreas (A a D), bem como segundo as regiões plataforma/oceânica.
Assim, para cada época do ano correspondente a uma comissão, foram gerados 4
Pesquisa Naval Nº 16, Outubro de 2003
209
diagramas T-S para a região de plataforma e 4 diagramas para a região oceânica
adjacente a cada uma das áreas.
A – PLATAFORMA AMAZÔNICA (ATÉ A ISÓBATA DE 200 METROS)
A análise dos diagramas T-S foi realizada seguindo o padrão das áreas A
a D (Fig.1). A região de plataforma, estando sob a influência direta da descarga do
Rio Amazonas, apresenta maior variabilidade sazonal da salinidade em função do
volume de água doce presente. Na comissão de transição, foram realizadas 3
estações mais internas, localizadas ainda no estuário, antes da isóbata de 30 metros,
cujos valores de salinidade oscilaram entre 0 a 5 psu. À exceção destes, os valores
de salinidade registrados durante a descarga máxima são os mais baixos de modo
geral para toda a região em consideração, como esperado. No entanto, na área A,
localizada a noroeste da foz do Amazonas, durante a época de transição, foram
registrados valores menores de salinidade em relação ao período de descarga
máxima, como se apresenta na figura 2.
Fig. 2 – Diagrama TS para área A, durante a descarga (esq.) e transição (direita).
A área B é constituída pelos perfis adjacentes à foz do Amazonas, tendo
como limites a Barra Norte e a Barra Sul, apresentando marcante influência estuarina.
Ressalta-se a existência, em 2001, de registros de salinidade que atingem 0 PSU, que,
embora quantitativamente tratam-se de apenas duas estações, indicam a presença de
água doce principalmente nas profundidades inferiores a 30 metros. Isto não ocorre
com os dados de 1995, quando estas estações tão rasas não foram realizadas, e
consequentemente a salinidade registrada se mantém próxima de 28-29 PSU. Se forem
retirados os pontos T-S, obtidos nestas duas estações costeiras coletadas em 2001, os
diagramas de 1995 e de 2001 tornam-se bastante semelhantes, com as salinidades mais
baixas em 1995. (Alves & Valente, 2001). Em contrapartida, na descarga mínima, como
esperado, os valores de salinidade são maiores, como se observa na figura 3.
nte
210
Pesquisa Naval Nº 16, Outubro de 2003
Fig. 3- Diagramas TS relativos à Área B, 95-fluxo max. (esq.) e 97-fluxo min. (dir.).
Na área C, por outro lado, é bem evidente a presença da água doce, registrando
portanto os menores valores de salinidade durante a descarga máxima, com a salinidade
aumentando
Durante a descarga mínima, a salinidade apresenta apenas valores superiores a 35
PSU. Observa-se portanto nesta região a variação da salinidade em razão inversa do
fluxo de água doce.
Fig.4- Diagramas TS para a área C, durante a descarga máxima (esq) e descarga
mínima (inferior)
Finalmente, na área D, mais afastada da foz do Amazonas, a influência da
água doce é menor, porém, durante a descarga máxima, ainda é expressiva, reduzindo a
salinidade para valores da ordem de 29 PSU. Durante a época de transição e de descarga
mínima, os valores registrados são superiores, atingindo 37 PSU (Fig.5).
Pesquisa Naval Nº 16, Outubro de 2003
211
Fig. 5 – Diagramas TS relativos à área D (plataforma), 95 (esq.) e 97 (dir.).
A tabela 1 tem como função sintetizar os valores mínimos e máximos
encontrados sobre a plataforma nos períodos de descarga máxima, transição e
descarga mínima.
Tabela 1- valores máximos e mínimos de T (em ºC)e S (em PSU) sobre a plataforma
T(d.max,1995)
S(d.max,1995)
T(trans,2001)
S(trans,2001)
T(d.mín,1997)
S(d.mín,1997)
Área A
23.05-28.0
29.85-36.70
15.11-28.5
12.69-36.5
19.26-28.77
24.84-36.41
Área B
23.06-27.83
27.8-36.4
24.98-29.0
0-36.4
13.82-28.87
29.27-37.13
Área C
22.7-28.3
9.12-36.07
26.83-28.6
32.43-36.4
26.52-28.58
36.2-37.27
B – REGIÃO OCEÂNICA (ALÉM DA ISÓBATA DE 200 METROS)
Além da quebra da plataforma, a principal feição dinâmica é a Corrente Norte do
Brasil, que flui para noroeste com velocidade de até 75 cm/s (Milliman et al, 1975).
Deste modo, a pluma de água com baixa salinidade proveniente da foz do Amazonas é
arrastada em direção a noroeste.
212
Pesquisa Naval Nº 16, Outubro de 2003
Fig. 6- Diagramas TS relativos à Área A, 95 (esq.) e 97(dir.)
Fig. 7- Diagramas TS relativos às Áreas B, (esq.) eD (dir.), na transição (2001).
È possível constatar a existência de água de descarga continental, representada
pelos valores de menores salinidades e temperaturas mais elevadas, na porção superior
esquerda do diagrama. A feição mais expressiva, no entanto, é a curva comum a todos
os diagramas, que compreende os pontos representativos da ACAS, AIA (Água
Intermediária Antarctica), e nas estações mais profundas, até da APAN (Água Profunda
do Atlântico Norte), que engloba os valores de mais alta densidade, como identificado
eriormente de base para a criação do gabarito.
Pesquisa Naval Nº 16, Outubro de 2003
213
Fig. 8 - Diagramas TS relativos à Área D, 95 (esq.) e 97 (dir.)
A tabela 2 apresenta os valores máximos e mínimos de temperatura e
salinidade encontrados na região oceânica de cada uma das quatro áreas.
Tabela 2-Valores máximos e mínimos de T e S para as Áreas A a D (além da
isóbata de 200m). T em ºC; S em PSU
A seguir, apresentam-se os diagramas TS com os dados oceânicos das três
comissões analisadas, para cada área (A a D), onde estão representados:
-em vermelho, os dados do período de descarga máxima;
-em azul, o período de descarga mínima;
-em magenta, os dados da época de transição.
214
Pesquisa Naval Nº 16, Outubro de 2003
5. DISCUSSÃO
Como apresentado em Alves & Valente (2001), os resultados mostraram que
a variabilidade dos diagramas T-S depende principalmente da proximidade à foz do Rio
Amazonas. As estações mais próximas da foz da Barra Norte apresentaram os valores
mínimos de salinidade. Os mínimos de temperatura foram verificados nas estações
oceânicas ao norte do delta do Rio Amazonas (Área B) e na área D, mais ao sul da
plataforma norte brasileira; os máximos se localizaram nas proximidades da foz do Rio.
Os máximos de salinidade, conforme o previsto, foram obtidos na época de descarga
mínima, para todas as áreas; por outro lado os mínimos, para a descarga transicional,
se localizaram a noroeste da região, e durante a descarga máxima foram encontrados na
área central. Pode-se inferir a influência da Corrente Norte do Brasil, transportando a
pluma de baixa densidade para noroeste, durante a transição do Rio; enquanto que na
descarga máxima o maior volume de água doce permanece durante mais tempo retido
Pesquisa Naval Nº 16, Outubro de 2003
215
na área central da plataforma. Para além da isóbata de 200 metros, é durante a descarga
máxima que se obtêm os menores valores de salinidade, a noroeste da região.
De fato, comparativamente à região de plataforma, além da isóbata de 200
metros a influência de água do rio é bem menos significativa. Os diagramas TS
apresentados revelam a presença de diversas massas d’água na região oceânica norte
brasileira, cuja amostragem é função da profundidade de coleta. Foram encontradas,
além das águas mais superficiais (AOSS e ACAS), a AIA e a APAN. Deve-se ainda
salientar o fato de que nos diagramas é também visível a mistura desta última com a
água mais densa dos oceanos, a Água Antártica de Fundo (AAF) a maiores
profundidades.
6. FUTUROS DESENVOLVIMENTOS
Espera-se na continuação deste trabalho proceder à inclusão de dados
coletados durante o verão, bem como de perfis verticais de mistura, de forma a ser
possível uma visualização, em corte, da disposição das diferentes massas d’água e de
possíveis flutuações sazonais.
Além disso, com a análise de mais comissões, pretende –se comparar os
índices obtidos com os existentes na bibliografia, e deste modo confeccionar um
gabarito final de massas d ‘água para a região oceânica norte brasileira.
7. BIBLIOGRAFIA
ALVES, D. & VALENTE, M.H., 2001 - Primeiros Desenvolvimentos para Definição
da Máscara TS na Região Norte Brasileira. Anais Hidrográficos 2001, tomo LVIII,
p117-127. Diretoria de Hidrografia e Navegação, Niterói, RJ.
CASTRO, M. C. T., 2000 – Relatório de Análise de Comissão Oceanográfica
(Revizee Norte III). Arquivo Técnico, Centro de Hidrografia da Marinha, Diretoria de
Hidrografia e Navegação. Niterói (RJ), 35 p.
CURTIN, T.B., 1986 – Physical Observations in the Plume Region of the Amazon
River during Peak Discharge_Water Masses. Cont. Shelf Res., 6, 53-71.
LINHARES, V. P., 1995 – Circulação e Massas de Água na Plataforma Continental
Externa Amazônica. Dissertação de Mestrado, Instituto Oceanográfico da Universidade
de São Paulo. São Paulo, 191 p.
MILLER, A. R., 1950 – A study of mixing processes over the edge of the continental
shelf. J. Mar. Res., 9(2):145-160.
MILLIMAN, J.D.; SUMMERHAYES, C.P.; BARRETO, H.P., 1975 – Oceanography
and suspended matter of the Amazon River, February-March 1973. Journal of
Sedimentary Petrology, 45: 189-206.
OLTMAN, R.E., 1968 – Reconaissance investigations of the discharge and water
quality of the Amazon River. U.S. Geological Survey, circular 552, 16pp.
Fig.2 – Diagrama TS para a área A, durante a descarga
máxima(esq.) e transição (direita).
216
Pesquisa Naval Nº 16, Outubro de 2003
INSTITUTO DE ESTUDOS DO MAR ALMIRANTE
PAULO MOREIRA (IEAPM)
Na condição de órgão da Marinha do Brasil responsável pelas atividades de
C&T na área de Oceanográfia e Engenharia Oceânica, o IEAPM tem por propósito
contribuir para a obtenção de modelos, métodos, sistemas, equipamentos, materiais e
técnicas que permitam o melhor conhecimento e a eficaz utilização do meio ambiente
marinho, no interesse da MB.
Para consecução desse propósito compete ao IEAPM planejar e executar atividades de pesquisa e desenvolvimento científico e tecnológico nas áreas de Oceanografia, Meteorologia, Hidrografia, Geologia e Geofísica Marinhas, Instrumentação Oceanográfica, Acústica Submarina e Engenharia Costeira e Oceânica.
A missão do IEAPM é decorrente do reconhecimento das Marinhas modernas
de que o conhecimento do ambiente em que operam é indispensável para aumentar a
eficácia de seu desempenho, principalmente em face da modernização dos meios flutuantes, dotados com sistemas e equipamentos extremamente sensíveis e dispendiosos.
O IEAPM vem realizando diversos projetos de importância para o desenvolvimento científico da Marinha do Brasil, destacando-se:
• BIOINCRUSTAÇÃO E CORROSÃO MARINHAS
• MONITORAMENTO DO AMBIENTE MARINHO
• LEVANTAMENTO DOS RECURSOS VIVOS MARINHOS
• MAPEAMENTO FACIOLÓGICO
• INTERAÇÃO DO AMBIENTE MARINHO COM MEIOS FLUTUANTES
•
•
•
•
E ESTRUTURAS
MODELAGEM DOS ESCOAMENTOS HIDRODINÂMICOS
MEDIÇÃO E PROCESSAMENTO DE PARÂMETROS DO MEIO AMBIENTE
MARINHO
PROJETO SISPRES
PROGRAMA DE MENTALIDADE MARÍTIMA
IEAPM – Instituto de Estudos do Mar Almirante Paulo Moreira
Rua Kioto, 253 - 28930-000 Arraial do Cabo. RJ
E-mail: [email protected] Telefone: 22-2622-9000
XVII
Capítulo
Modelagem de Equações Estruturais
na Melhoria da Gestão
Capitão-de-Corveta (T) Sérgio Luís Dutra de Lamare, M.Sc.
Mestre em Ciências em Engenharia de Sistemas e Computação, IME
Graduado em Engenharia de Sistemas e Computação, UERJ
Administração de Empresas, UFRJ
Centro de Análises de Sistemas Navais, Praça Barão de Ladário s/n, Ilha das Cobras
Ed. 8 do AMRJ 3° andar, CEP 20091-000 Rio de Janeiro – RJ
e-mail : [email protected] , [email protected]
Abstract
Structural Equations Modeling (SEM) is a statistical technique that
combines multiple regressions and factor analysis in the simultaneous estimation of
cause and effect relationships, and the verification of the influences among variables
in a model. This technique is applied in social sciences since the sixties, in fields
such as sociology, econometry, biology, and management science – the scope of this
work. Accordingly to Bollen [2], discussions were also developed in the fields of
psychology and in economics.
In 1921, Sewall Wright [2] conducted the initial studies in the branch of
cause and effect analysis, publishing his results in the “Journal of Agricultural
Research”. In 1934, he extended his work to include path analysis, already applying
path diagrams, correlation equations, and the decomposition of its effects. Later, in
1960, he proposed rules for defining the equations representing the relations among
variables in the model, using regression techniques in the path analysis.
Haavelmo, in 1943, and Koopmans, in 1950 and 1953, applied these
qualitative studies, combined with statistical analysis, to obtain a quantitative
evaluation of cause and effect relationships in a given study.
Accordingly to Judea Pearl [10], two different approaches were proposed
in the study of cause and effect relations: one is the path diagram model, used with
218
Pesquisa Naval Nº 16, Outubro de 2003
SEM, and the other is the potential response model. Economists and social scientists
adopted the former, while a small group of statisticians adopted the latter. But the
second approach was only partially formalized, because is it based on a subjective
vocabulary, without a clear connection between the variables in the model and the
common understanding of the cause and effect process. Judea Pearl [10] also
concluded that the models of potential response were understood only by a few, and
used even less, while the structural equations modeling approach was adopted by
several researchers, but with questionable interpretations.
Recent developments in graphic representation of the models, and in the
identification of the logic behind cause and effect relationships, indicate SEM as a
primary approach of causal modeling. This technique can deliver a scientific bases,
instead of superficial evaluations, in the measurement of the influence of different
entities involved in a relationship model, for example in enterprise quality
management.
This work introduces a method [7] which can be useful to organizations
wishing to verify the level of inter-relationship among entities inside its management
system. The application of this method may also be extended in segments such as:
healthcare, education, welfare, etc.
Key words: Structural Equations Modeling, cause and effect relationships, Enterprise
Quality Management.
1. Introdução
Para a utilização da Modelagem de Equações Estruturais (MEE) é
necessária uma justificativa teórica, para que as especificações, modificações ou
avaliações dos relacionamentos de causa-e-efeito 1, nos modelos, possam ser
fundamentadas. Segundo Hair [7], a teoria utilizada na MEE fornece uma explicação
para quase todos os aspectos da modelagem.
Em alguns casos, onde os relacionamentos obtidos são específicos, o
objetivo a ser alcançado é a confirmação desses relacionamentos. Em outros, os
relacionamentos não são bem conhecidos e o objetivo é descobrir esses
relacionamentos. A flexibilidade da MEE permite atingir esses dois objetivos de
pesquisa, entretanto os mesmos devem ser bem definidos e orientados para estratégia
de modelagem a ser utilizada.
Hair [7] define três estratégias distintas na MEE: (1) desenvolvimento
de um modelo a ser estimado, utilizando a MEE para avaliar e realizar uma análise
confirmatória nesse modelo; (2) desenvolvimento de um modelo a ser estimado e de
outros modelos, a fim de apresentarem melhores ajustes ao modelo estimado a partir de
comparações entre os modelos; e (3) desenvolvimento de um modelo a ser estimado,
cuja finalidade é realizar modificações nesse modelo por meio do modelo estrutural e/
ou de medição e, a partir daí, desenvolver um outro modelo para ser estimado .
Pesquisa Naval Nº 16, Outubro de 2003
219
2. Desenvolvimento
2.1. Os Passos Utilizados para a Modelagem de Equação Estrutural
O verdadeiro valor de modelagem de equações estruturais vem dos
benefícios de usar os modelos estrutural e de medição simultaneamente, cada um
desempenhando distintos papéis na análise final.
Para garantir que ambos os modelos estejam corretamente especificados e
que os resultados sejam válidos, um processo de sete passos a ser executado.
A Figura 1 apresenta o processo utilizado neste artigo, e que foi preconizado
por Hair, cujos passos são descritos a seguir.
2.2. O Processo de Modelagem de Equações Estruturais
2.2.1. Passo 1 - Definição do Modelo Teórico
Neste passo, o modelo a ser avaliado é dimensionado por meio de
relacionamentos causais, onde as variáveis são identificadas e relacionadas. Deve-se
tomar o cuidado de não se omitir as variáveis determinantes ou significativas no
modelo a ser verificado. Esse problema é conhecido como erro de especificação. Por
220
Pesquisa Naval Nº 16, Outubro de 2003
outro lado, não se deve incluir qualquer variável sem uma avaliação da sua real
necessidade, devendo ser levados em consideração os limites práticos da MEE.
Não existe nenhum limite quanto ao número de variáveis a serem incluídas no
modelo, mas é necessário que sejam considerados os benefícios de uma modelagem
concisa e parcimoniosa. Hair [7] afirma que, freqüentemente, a interpretação dos
resultados se torna difícil na medida em que o número de variáveis se torna
excessivamente alto.
2.2.2. Passo 2 - Construção do Diagrama de Caminho
Após a definição do modelo teórico a ser estudado, é feita a sua apresentação
gráfica, utilizando um diagrama de caminho, onde são indicadas as relações causais
entre as variáveis latentes.
A Figura 2 apresenta um exemplo de diagrama de caminho.
2.2.3. Passo 3 - Conversão do Diagrama de Caminho em um Conjunto de Equações
Estruturais e Especificação do Modelo
Após a definição do modelo teórico e da sua representação em um diagrama
de caminho, é realizada a conversão desse diagrama em equações, onde os modelos
estrutural e de medição são especificados, por meio das variáveis utilizadas no modelo.
Além disso, é especificado um conjunto de matrizes, indicando os relacionamentos e
as correlações entre as variáveis.
Para exemplificar a conversão de um diagrama de caminho em um conjunto de
equações estruturais, tomemos o exemplo do diagrama de caminho mostrado na Figura
2, e que está mostrado na Figura 3.
Pesquisa Naval Nº 16, Outubro de 2003
Figura 3: Representação gráfica de um modelo de equações estruturais
221
222
Pesquisa Naval Nº 16, Outubro de 2003
Notação Utilizada
Fonte (Hair 1995)
Letra
Descrição
Modelo Estrutural
Matriz dos coeficientes de relacionamentos endógenos entre
Beta
M
Gamma
Ã
variáveis latentes endógenas
Matriz dos coeficientes de relacionamentos exógenos entre
variáveis latentes exógenas e endógenas
Matriz de correlações entre variáveis latentes exógenas
Phi
Ö
Ø
Matriz de correlações entre variáveis latentes endógenas
Psi
Modelo de Medição
Ë
Matriz de correspondência entre variáveis observadas
exógenas
Matriz de correspondência entre variáveis observadas
endógenas
Matriz de erros de predição para variáveis observadas
exógenas
Matriz de erros de predição para variáveis observadas
exógenas
Lambda-X
Lambda-Y
Theta-delta
Theta-epsilon
B
Ë
È
È
Nas Figuras de 4 a 10 está mostrado a representação matricial do diagrama de
caminho apresentado na Figura 3.
Os zeros acima e abaixo da diagonal principal (Figuras 8 e 9) representam o
pressuposto de que os erros de medição para diferentes variáveis não são
correlacionados. As células acima da diagonal principal são equivalentes às da parte
inferior da diagonal principal, por serem matrizes simétricas.
EquaçõesdoModeloEstrutural:
Equações doModelodeMedição:
VariáveisLatentes
Exógenas
î1
ç1
ç2
î2
î3
Variáveis Latentes Exógen
VariáveisLatentes
Endógenas
ç1
= ë1î1 + ë2î2 + ë3î3
=
Erro
ç2
â1ç1
å
+
+
å1
å2
RepresentaçãoMatricial:
ξ 
η 1  γ11 γ12 γ13 1   0 0η 1  ζ1 
η  = 
  +  
ξ2  + 
 2   0 0 0 ξ  β21 0η 2  ζ 2 
 3
(mx1) =
(mxn)
(nx1) +
(mxm) ( mx1) + (mx1)
Figura 4: Equações do modelo
estrutural e representação matricial
Variáveis
Observadas
Exógenas
X1
X2
X3
X4
X5
X6
X7
X8
X9
X10
X11
X12
X13
=
=
=
=
=
=
=
=
=
=
=
=
=
î1
ë11î1
ë21î1
ë31î1
ë41î1
ë51î1
ë61î1
î2
ë72î2
ë82î2
ë92î2
Figura 5: Equações d
de medição
Pesquisa Naval Nº 16, Outubro de 2003
223
RepresentaçãoMatricial:
VariáveisLatentesEndógenas
Χ=Λxξ+δ
 λ 11

 x

 λ 21

 λ x 31

 x

 λ 41

 λ x 51

 x

 λ 61

 =  0


 0



 0

 0



 0

 0



 0

 X 1
 X
2

 X 3

 X 4
 X 5

 X 6
 X
7

 X 8
 X
9

 X 10

 X 11
 X 12

 X 13
x
(qx1)
λ
λ
λ
0
0
0
0
0
0
0
0
0
0
0
0
x
x
x
72
0
82
0
0
92
λ
λ
λ
λ
0
0
0
0
=
x
x
x
x
103
113
123
133




















(qxn)
 ξ1
ξ
 2
ξ3

ξ 4
ξ5

ξ6
ξ
 7
ξ8
ξ
 9
 ξ 10

 ξ 11
 ξ 12

 ξ 13

 δ1

δ

 2

δ 3



δ 4

δ 5



δ 6
 + δ

 7

δ 8

δ

 9

 δ 10



 δ 11

 δ 12



 δ 13




















X1
X2
X3
X4
X5
X6
X7
X8
X9
X10
X11
X12
X13
X3
1
Èä2 1
Èä3 1
Èä4 1
Èä5 1
Èä6 1
Èä7 1
Èä8 1
Èä9 1
Èä10 1
Èä11 1
Èä12 1
Èä13 1
1
Èä3 2
Èä4 2
Èä5 2
Èä6 2
Èä7 2
Èä8 2
Èä9 2
Èä10 2
Èä11 2
Èä12 2
Èä13 2
1
Èä4 3
Èä5 3
Èä6 3
Èä7 3
Èä8 3
Èä9 3
Èä10 3
Èä11 3
Èä12 3
Èä13 3
X4
X5
X6
X7
X8
1
Èä6 5
Èä7 5
Èä8 5
Èä9 5
Èä10 5
Èä11 5
Èä12 5
Èä13 5
1
Èä7 6
Èä8 6
Èä9 6
Èä10 6
Èä11 6
Èä12 6
Èä13 6
ë11ç1
ë21ç1
=
=
=
=
1
Èä8 7
Èä9 7
Èä10 7
Èä11 7
Èä12 7
Èä13 7
1
Èä9 8
Èä10 8
Èä11 8
Èä12 8
Èä13 8
ë32ç2
ë42ç2
Υ=Λyη+
y1 λy11
y   y
 2=λ21
y3  0
  
y4  0
(px1) =
0

0 η

λy32η

λy42
(pxm)
(m
CorrelaçõesentreasVariáveisObservadasEndóge
X9
X10
X11
X12
X13
Y1
1
Èä5 4
Èä6 4
Èä7 4
Èä8 4
Èä9 4
Èä10 4
Èä11 4
Èä11 4
Èä12 4
ç2
Figura 7: Variáveis lat
e representação
Correlações entre as Variáveis Observadas Exógenas:
X2
Y1
Y2
Y3
Y4
ç1
(nx1) + (qx1)
Figura 6: Representação matricial do
modelo de medição
X1
Variáveis
Observadas
Endógenas
1
Èä10 9 1
1
Èä11 9 Èä11 10
Èä12 9 Èä12 10 Èä12 11 1
Èä13 9 Èä13 10 Èä13 11 Èä13 12
Y1
Y2
Y3
Y4
Y2
Y3
Y4
Èå21 1
Èå31 Èå32 1
Èå41 Èå42 Èå43
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0 
Θδ11
 0 Θ
0
0
0
0
0
0
0
0
0
0
0 
δ 22


 0
0 Θδ 33
0
0
0
0
0
0
0
0
0
0 


0
0 Θδ 44
0
0
0
0
0
0
0
0
0 
 0
 0
0
0
0 Θδ 55
0
0
0
0
0
0
0
0 


0
0
0
0 Θδ 66
0
0
0
0
0
0
0 
 0
0
0
0
0
0 Θδ 77
0
0
0
0
0
0 
Θδ =  0


0
0
0
0
0
0 Θδ 88
0
0
0
0
0 
 0
 0
0
0
0
0
0
0
0 Θδ 99
0
0
0
0 

 0
0
0
0
0
0
0
0
0 Θδ1010
0
0
0 


0
0
0
0
0
0
0
0
0 Θδ1111
0
0 
 0
 0
0
0
0
0
0
0
0
0
0
0 Θδ1212
0 


0
0
0
0
0
0
0
0
0
0
0 Θδ1313 
 0
Θε11
0
Θε =
0

 0
0 0 0
Θε22 0 0
0 Θε33 0

0 0 Θε 
44
(pxp)
(q x q)
Figura 8: Correlações entre variáveis
observadas exógenas e representação
matricial
Figura 9: Correlações
observadas endógenas
matricia
224
Pesquisa Naval Nº 16, Outubro de 2003
Correlações entre as variáveis latentes exógenas Correlações entre as variáveis la
î1
î2
î3
î1
î2
1
Ø21
Ø31
1
Ø32
î3
ç1
ç2
ç1
ç2
1
ö21
1
1
Representação Matricial:
 1
Φ =  φ 21
 φ 31
φ 12
1
φ 32
(p x p)
φ 13
φ 23
1




 1 ϕ12
Ψ=
ϕ 21 1
(m x m)
F ig u ra 1 0 : C o rre la ç õ e s e n tre v a riá v e
la te n te s e x ó g e n a s e e n d ó g e n a s e re p re s e
m a tric ia l
2.2.4. Passo 4 - Seleção do Tipo de Matriz de Entrada e Estimação do Modelo
Proposto
A modelagem de equações estruturais difere de outras técnicas porque utiliza
apenas matrizes de correlação ou de variância/covariância como dados de entrada,
para análise no programa de computador, permitindo o uso de observações individuais
de uma amostra, para que sejam incluídas como dados de entrada no programa de
computador, e, a partir deles, convertê-los em um dos dois tipos de matrizes de
correlação ou covariância.
Entretanto, o foco da estimação na MEE não são as observações individuais,
mas o comportamento dos relacionamentos entre os constructos identificados na
análise e as variáveis coletadas dos respondentes. Hair [7] afirma que matriz de
correlação tem sido muito utilizada por ser apropriada quando o objetivo da pesquisa
é entender e interpretar o padrão dos relacionamentos entre constructos e não o de
explicar o total de variâncias em um constructo.
Segundo Hair [7], existem duas abordagens comuns para a aplicação deste
procedimento. A primeira consiste em colocar uma das cargas em cada constructo com
um valor fixo de 1,0 para obter soluções padronizadas. Na segunda, estimam-se
diretamente as variâncias do constructo. Ambas as abordagens resultam exatamente
nas mesmas estimativas.
Além disso, para possibilitar uma boa estimativa e interpretação dos resultados
na MEE, o tamanho da amostra é muito importante, e deve estar dentro de limites
Pesquisa Naval Nº 16, Outubro de 2003
225
aceitáveis. Amostras em torno de 50 não são recomendáveis, por serem muito pequenas,
mas sim amostras com tamanhos mínimos de 100.
É recomendado [7] utilizar amostras com tamanho máximo de 200, independente
do tamanho da amostra original. Porque valores acima de 200 tornam os testes
demasiadamente sensíveis para a detecção de diferenças entre os dados. Portanto, a
faixa recomendável do tamanho da amostra situa-se entre 100 e 200.
2.2.5. Passo 5 - Avaliação da Identificação do Modelo de Equações Estruturais
Para que haja a avaliação da identificação do modelo, o problema principal a
ser verificado e corrigido é o da existência de tantas equações quantas forem as variáveis
existentes no modelo, para que o modelo gere estimativas únicas.
Após resolvido o principal problema de identificação, os seguintes pontos
abaixo devem ser verificados para corrigir outros problemas de identificação no modelo.
1) quantidade de dados relacionados diferente do tamanho da amostra
2) variáveis relacionadas diferentes do número de colunas de dados
3) dados de entrada incorretos (ex: não numéricos)
4) dados insuficientes
5) formato dos dados incorretos
Se ainda assim existirem problemas de identificação, o modelo deve ser revisto.
2.2.6. Passo 6 - Avaliação dos Critérios de Ajuste
Neste passo, os resultados são avaliados, por meio da verificação dos
coeficientes estimados obtidos, verificando se eles estão dentro de faixas aceitáveis.
Esta avaliação é realizada separadamente para os modelos estrutural e de medição.
Para o modelo de medição, a verificação é realizada observando se os coeficientes
estimados não violam limites. As verificações iniciais a serem observadas são: (1)
coeficientes padronizados excedendo 1; (2) variâncias de erro negativo para qualquer
variável e; (3) valores de erros padrão associados muito grandes para qualquer
coeficiente estimado.
Além disso, é verificado o grau de consistência interna das variáveis, por meio
de sua confiabilidade. Em seguida, é verificada a validade dos constructos, por meio
da análise de fator. Uma outra verificação é a do coeficiente total de determinação (R²),
que examina o grau de representação das variáveis observadas no modelo.
Para o modelo estrutural são verificadas se as observações foram obtidas de
forma independente, se as amostras obtidas dos respondentes foram aleatórias e se
não existe recursividade no modelo, para que as hipóteses apresentadas possam ser
respeitadas.
Ainda neste passo, devem ser verificados os valores dos coeficientes estimados
para as relações no modelo, considerando-se que o modelo deve possuir um número
significativo de relações acima de 0,30. Relações com valores muito acima de 0,90
devem sempre ser examinadas, porque podem indicar conceitos idênticos. Isso pode
ser corrigido com a inclusão ou a remoção de variáveis no modelo, ou ainda com a
reformulação dos relacionamentos causais.
226
Pesquisa Naval Nº 16, Outubro de 2003
2.2.7.
Passo 7 - Interpretação do Modelo de Equações Estruturais
Após o modelo ser considerado aceitável, podem ser realizadas possíveis
modificações no modelo, a fim de melhorar as especificações teóricas, e tentar se obter
melhores resultados. Entretanto, isto deve ser realizado tomando-se o cuidado em se
obedecer às justificativas teóricas já descritas anteriormente. Uma solução pode ser
conseguida pela adição, remoção ou modificação dos relacionamentos causais no
modelo.
Devem ser observados, na modificação da modelo, os baixos valores
encontrados na estimação dos coeficientes nas relações entre as variáveis latentes em
cada relacionamento causal porque esses valores podem ser úteis na avaliação de
modificações no modelo. Contudo, após as modificações, o modelo deve ser reavaliado
para que seja verificado se o novo modelo obteve melhores resultados em relação ao
anterior.
Para Hair [7], enquanto um modelo estimado não obtiver melhores níveis
de resultados, este modelo representa o melhor modelo disponível, até que uma pesquisa
futura identifique melhorias em relacionamentos teóricos ou medições de constructos.
3. Conclusões
MEE por ser uma técnica que combina elementos de regressão múltipla e
análise de fator permite não apenas que possam ser avaliados os relacionamentos de
dependência inter-relacionados, como também incorporar os efeitos de erro de medição
nos coeficientes estruturais. Mesmo com os benefícios conseguidos pela modelagem
de equação estrutural, ela é melhor empregada na forma confirmatória, devendo a
análise exploratória ser utilizada por outras técnicas multivariadas.
Cabe mencionar que, primeiramente, é necessário estabelecer indicadores
válidos e confiáveis de variáveis latentes em um modelo de medição, e então especificar
os relacionamentos entre variáveis latentes em um modelo estrutural.
Conseqüentemente o foco deste artigo foi fornecer um auxílio para um melhor
entendimento de como desenvolver modelos de equação estrutural. Uma tentativa
deliberada foi feita para minimizar os termos simples de notação matricial de forma que
fosse possível um entendimento simples da abordagem de MEE.
Uma organização que utilize, por exemplo, os critérios de excelência
preconizados pelo Prêmio Qualidade do Governo Federal (PQGF), para avaliar a sua
gestão, pode fazer uso dessa metodologia a fim de ajudar a auto-avaliação do seu
modelo de gestão.
Glossário
Análise de fator (factor analysis)
No nome de um método estatístico multivariado, que permite conhecer o tipo de estrutura
de um relacionamento entre as variáveis envolvidas no modelo, a fim de identificar
quais variáveis são representativas em um constructo.
Pesquisa Naval Nº 16, Outubro de 2003
227
Confiabilidade (Reliability)
A confiabilidade indica o grau de consistência interna das variáveis observadas, que
representam o conceito de cada variável latente associada, sendo determinada pelo
valor do “alfa de Cronbach” [4]. Uma confiabilidade alta significa dizer que é mais fácil
fazer uma distinção entre os diversos estágios ou níveis de implementação de
determinado item do que se houvesse uma baixa confiabilidade. Para Hayes [8], a
confiabilidade alta “torna mais provável a descoberta de relacionamentos entre
variáveis realmente relacionadas”.
Constructo (Construção)
É um conjunto teórico que age como um bloco construtor podendo representar
conceitos simples e conceitos complexos.
Diagrama de Caminho (path diagram)
É a representação gráfica dos relacionamentos entre as variáveis de um modelo de
equações estruturais. Nele, as variáveis observadas são representadas por retângulos,
as variáveis latentes, por círculos, e seus relacionamentos, por setas.
Estratégia (strategy)
O caminho escolhido para posicionar a organização de forma competitiva e garantir
sua sobrevivência no longo prazo, com a subseqüente definição de atividades e
competências inter-relacionadas para entregar valor de maneira diferenciada às partes
interessadas. É um conjunto de decisões que orientam a definição das ações a serem
tomadas pela organização. As estratégias podem ser construídas ou conduzir a novos
produtos, novos mercados, crescimento das receitas, redução de custos, aquisições,
fusões e novas alianças ou parcerias. As estratégias podem ser dirigidas a tornar a
organização um fornecedor preferencial, um produtor de baixo custo, um inovador no
mercado e/ou um provedor de serviços exclusivos e individualizados. As estratégias
podem depender ou exigir que a organização desenvolva diferentes tipos de capacidades,
tais como; agilidade de resposta, individualização, compreensão do mercado,
manufatura enxuta ou virtual, rede de relacionamentos, inovação rápida, gestão
tecnológica, alavancagem de ativos e gestão da informação.
Modelo (model)
Especifica um conjunto de relacionamentos dependentes que podem ser testados
empiricamente (demonstração de uma teoria). O propósito de um modelo é fornecer
uma representação compreensiva dos relacionamentos examinados. O modelo pode
ser representado por um diagrama de caminho ou por um conjunto de equações
estruturais.
Organização (organization)
Companhia, corporação, firma, órgão, instituição ou empresa, ou uma unidade destas,
pública ou privada, sociedade anônima, limitada ou com outra forma estatutária, que
tem funções e estrutura administrativa próprias e autônomas.
228
Pesquisa Naval Nº 16, Outubro de 2003
Processo (process)
Conjunto de recursos e atividades inter-relacionadas que transformam insumos
(entradas) em produtos (saídas). Essa transformação deve agregar valor na percepção
dos clientes do processo e exige um certo conjunto de recursos. Os recursos podem
incluir pessoal, finanças, instalações, equipamentos, métodos e técnicas, numa
seqüência de etapas ou ações sistemáticas. O processo poderá exigir que a seqüência
de etapas seja documentada por meio de especificações, de procedimentos e de
instruções de trabalho, bem como que as etapas de medição e controle sejam
adequadamente definidas.
Qualidade (quality)
Totalidade de características de uma entidade (atividade ou um processo, um produto,
uma organização ou uma combinação destes), que lhe confere a capacidade de satisfazer
as necessidades explícitas e implícitas dos clientes.
Recursividade (recursivity)
É a retroalimentação em alguma parte do modelo, por ela própria.
Teoria (theory)
Pode ser definida como um conjunto sistemático de relacionamentos que fornecem
uma explicação consistente e compreensível de um fenômeno, a partir de experiências
e práticas obtidas em observações comportamentais do mundo real, o que faz da MEE
um método confirmatório [7].
Variável Observada (Observed variable)
É uma variável cujos dados podem ser coletados por meio de questionário.
Variável Latente (Latent variable)
É uma variável não observada que não pode ser mensurada diretamente e são
representados pelas variáveis observadas. Um conjunto de variáveis observadas com
a respectiva variável latente forma um constructo.
Bibliografia
[1] BYRNE, Barbara M.: Structural Equations Modelling with
AMOS, Basic Concepts, Applications, and Programing. First
Edition, Ed. Lawrence Erlbaum Associates, Publishers, Mahwah,
New Jersey, 2001.
[2] BOLLEN, Kenneth A.: Structural Equations with Latent
Variables, Department of Sociology, the University of North
Caroline at Chapel Hill, Chapel Hill, North Caroline. A WileyInterscience Publication, John Wiley & Sons, New York, 1989.
Pesquisa Naval Nº 16, Outubro de 2003
229
[3] COLEMAN, Garry D.: Estimating the Consistency of ThirdParty Evaluator Scoring of Organizational Self-assessments,
University of Tennessee Space Institute; Koelling, C. Patrick,
Oklahoma State University, 1998, ASQ. Quality Management
Journal, p.31-53.
[4] CRONBACH, Lee J.: Coeficient Alpha and the Internal
Structure of tests, Univesity of Illinois, Psycometria-Vol., 16, No3
September, 1951. Essentials of Psychological Testing. 4th ed. New
York: Harper & Row, 1984.
[5] DEMING, W. Edwards: Out of Crises, Massachusetts Institute of
Tecnology Center for Advanced Engineering Study, Cambridge,
1991.
[6] GIL, Antônio Carlos: Métodos e Técnicas de Pesquisa Social.
São Paulo: Editora Atlas,1994.
[7] HAIR Jr, Joseph F.; ANDERSON, Ralph E.; TATHAM, Ronald
L.; Black, Willian C: Multivariate Data Analysis. Fourth Edition,
Ed. Prentice Hall, New Jersey, 1995.
[8] HAYES, Bob E.: Measuring Customer Satisfaction:
Development and Use of Questionnaires. Milwaukee, Wisconsin:
ASQC Quality Press, 1992.
[9] PASQUALI, Luiz: Psicometria: Teoria e aplicações. Ed.
Universidade de Brasília,1977.
[10] PEARL, Judea: Graphs, Causality, and Structural Equation
Models, Cognitive Systems. Laboratory, Computer Science
Department, University of California, Los Angeles, CA 90024,
1999.
[11] SCHUMACKER, Randall E.; LOMAX, Richard G: A
Beginner’s Guide to Structural Equation Modeling. First
Edition, Ed. Lawrence Erlbaum Associates, Publishers, Mahwah,
New Jersey, 1996.
1
A literatura de Modelagem de Equações Estruturais utiliza o termo causa-e-efeito [1,
6, 10].
230
Pesquisa Naval Nº 16, Outubro de 2003
Centro de Análises de Sistemas Navais
APOIO À DECISÃO
O CASNAV desenvolve ferramentas computacionais que auxiliam o Comandante
do Teatro de Operações Marítimo e demais comandos subordinados, no planejamento, execução
e controle das Operações Navais, Aeronavais e de Fuzileiros Navais.
Os Sistemas de Apoio à Decisão (SAD) auxiliam no processo de obtenção de
soluções para as principais inquietudes de natureza operativa e administrativa. Estes sistemas
incorporam uma filosofia abrangente que, por possuir firmes alicerces na Engenharia de
Software, se constitui numa arquitetura aberta à permanente evolução e ao atendimento das
necessidades de novos clientes.
Entre os Sistemas de Apoio à Decisão dedicados aos problemas de caráter
administrativo, podemos mencionar o SAD-GP, voltado para questões relativas à Gerência de
Pessoal. Esta ferramenta auxilia o gerenciamento do complexo sistema de pessoal da Marinha,
permitindo, por exemplo, determinar as necessidades de admissão de pessoal nas diferentes
qualificações existentes. Este programa executa projeções para horizonte de até dez anos,
possibilitando conhecer os impactos futuros de políticas de pessoal adotadas nos dias atuais.
Para tal, empregamos modernas ferramentas matemáticas com o propósito de simular a
admissão e progressão funcional dos cerca de 50 mil componentes dos diversos quadros e
qualificações da Marinha. Este Sistema foi comercializado para o Exército e para a Força
Aérea Brasileira.
Nossa equipe está habilitada a desenvolver sistemas como este, capaz de organizar
imensa massa de dados, de maneira inteligente, para que os decisores, conhecendo o impacto
no futuro, possam fazer as melhores opções no presente.
Centro de Análises de Sistemas Navais
Ilha das Cobras – Edifício no 8 do Arsenal de Marinha do Rio de Janeiro
3o andar – Centro – CEP:20091-000 - Rio de Janeiro – RJ - Brasil
Tel: (0 XX 21) 3849-6335 3849-6369 - Fax: (0 XX 21) 3849-6332
e-mail: [email protected]
XVIII
Capítulo
COMPORTAMENTO DA TAXA DE FALHA COMO CONHECIMENTO
NECESSÁRIO PARA A FORMULAÇÃO DE HIPÓTESES ESTATÍSTICAS NA
PESQUISA DA CONFIABILIDADE
CMG (T-RRm) Paulo Antonio Cheriff dos Santos, MSc
Marinha do Brasil (MB)/ComOpNav
[email protected]
Paulo Fernando Ferreira Frutuoso e Melo, DSc
COPPE/UFRJ – Prog. Eng. Nuclear, Brasil
[email protected]
Carlos Rodrigues Pereira Belchior, DSc
COPPE/UFR J – Prog. Eng. Oceânica, Brasil
[email protected]
Resumo
O propósito deste trabalho é mostrar o emprego de método estatístico nãoparamétrico na avaliação do comportamento da taxa de falha, a fim de subsidiar a
formulação da hipótese nula para a pesquisa da confiabilidade e o processo de
diagnóstico das causas das falhas com base no parâmetro de forma da distribuição
de Weibull.
Abstract
The purpose of this paper is to show the employment of a nonparametric statistical
method for evaluating the failure rate behavior in order to help stating the statistical
null hypothesis for reliability research, and also for the diagnosis of the failure
causes by means of the shape parameter of the Weibull distribution.
1. Introdução
Podemos resumir em uma só questão o dilema de todo profissional de manutenção.
Essa questão refere-se às incertezas acerca das ações que devem ser empreendidas
232
Pesquisa Naval Nº 16, Outubro de 2003
para assegurar que a manutenção, de uma planta, sistema ou equipamento, está se
realizando da maneira mais efetiva.
Iremos encontrar a resposta, para essa questão, na análise de dois tipos de
gerenciamento que diferem, entre si, por sua extensão no tempo e objetivos distintos.
Esse gerenciamento, a curto prazo, com base anual por exemplo, é definido como
política de manutenção. A longo prazo, de forma a abranger todo o período de utilização
de uma planta, sistema ou equipamento, é denominado de estratégia de pósinvestimento.
Considerando que os métodos de manutenção dizem respeito ao gerenciamento a
curto prazo e que já estão definidos, a estratégia de pós-investimento estabelece que
o seu desenvolvimento deve estar em sintonia com o nível de obsolescência do
equipamento. A finalidade é a otimização do ciclo de vida do equipamento, mediante a
modificação da política de manutenção, possibilitando, por exemplo, a seleção de
diferentes tipos de intervenção ou a decisão acerca de uma parcial ou total recuperação
ou atualização tecnológica. Assim, evidencia-se o cerne da questão, o comportamento
do material (SANTOS, 2003).
2. Generalidades acerca do comportamento do material
À primeira vista, temos a impressão de que o único fator responsável pelas
alterações de funcionamento de uma instalação seria a sua própria degradação, segundo
o padrão definido pela sua taxa de falha. Mas, outros fatores concorrem para alterações
do funcionamento/performance da instalação, os quais precisam ser, de alguma forma,
avaliados e acompanhados, porque têm impacto na sua confiabilidade e,
conseqüentemente, na sua disponibilidade operacional.
Confiabilidade é “a característica de um dispositivo expressa pela probabilidade
que esse dispositivo tem de cumprir uma função requerida em condições de utilização
e por um período de tempo determinado” (MONCHY, 1989).
Sob o ponto de vista único e exclusivamente da qualidade da instalação, essa
probabilidade irá refletir, de fato, a confiabilidade operacional inicial do sistema,
decorrente de falhas potenciais intrínsecas ao sistema. Essas falhas potenciais originamse nas falhas de concepção, de componentes, de fabricação e de montagem que, na
realidade, propiciam as primeiras incertezas no comportamento do material.
Isto posto, fica evidente que todo esforço para minimizar a ocorrência das falhas
potenciais redunda em ganho para a manutenção. Mas, alcançar o objetivo de um
custo operacional o menor possível vai depender de como agimos para atenuar os
impactos das influências extrínsecas ao sistema, que podem comprometer ainda mais a
confiabilidade operacional. Referimo-nos, dentre outras, principalmente, à qualidade
Pesquisa Naval Nº 16, Outubro de 2003
233
da operação e à qualidade da manutenção, que, por sua vez, dependerá da qualidade
das pessoas, dos métodos, das ferramentas e das intervenções.
Essas influências extrínsecas são as responsáveis pelo incremento do grau de
incertezas no comportamento do material ao longo do tempo de operação, ou seja, a
preservação da sua confiabilidade. Resumindo, a confiabilidade de uma instalação não
depende somente das ações sob a responsabilidade da manutenção.
A análise acerca das incertezas nessa função logística evidencia que existem
vários fatores que podem impedir a efetividade das ações de manutenção e, por
conseqüência, modificar o comportamento do material, alteração essa que se dará a
conhecer por meio da alteração da sua taxa de falhas, ou melhor, pelo aumento da
freqüência das falhas.
A taxa de falha é um “estimador” da confiabilidade. É definida como a probabilidade
condicional, λ(t) dt, de um sistema falhar entre t e t + dt, dado que sobreviveu até o
tempo t. Por isso, dizemos que ela representa uma “proporção de dispositivos que
“sobreviveram” num instante t” (MONCHY, 1989). LAFRAIA (2001) a define como
“Freqüência com que as falhas ocorrem, num certo intervalo de tempo, medida pelo
número de falhas para cada hora de operação ou número de operações do sistema ou
componente”. É representada pelo símbolo λ.
O essencial é que compreendamos que um ciclo de vida de um equipamento
geralmente segue um mesmo modelo (padrão). A taxa de falha λ facilita esse
entendimento. Ela tanto mostra o número de falhas que ocorrem durante um certo
período de tempo, por exemplo, semanalmente ou mensalmente, quanto representa
uma importante norma/regra na engenharia de confiabilidade, tornando explícita a
característica da vida dos componentes, por meio da existência e/ou prevalência de
áreas que definem a denominada curva da banheira. Portanto, ela descreve as fases de
vida de um determinado componente ou sistema (LAFRAIA, 2001), definindo o
comportamento do material.
Classicamente, curvas desse tipo podem ser divididas em três áreas. Na área I,
durante a partida, um número decrescente de falhas ocultas de construção, erros de
montagem e problemas de início de operação provocam falhas. Na área II, utilização, a
taxa de falha é estabilizada controlando o desgaste, mas esse inevitavelmente aumentará.
A área III é caracterizada por uma taxa de falha crescente devido à idade seguida pela
obsolescência do equipamento.
Qualquer curva desse tipo obviamente parará instantaneamente se o equipamento
for descartado (alienado ou sucateado) ou reconstruído (modernizado).
A respeito do assunto, um outro aspecto deve ser destacado. Nem todos os tipos
de componentes apresentam sempre todas as fases da curva da banheira. Alguns
exemplos podem ser vistos na Figura 1.
234
Pesquisa Naval Nº 16, Outubro de 2003
Figura 1: Variações da Curva da Banheira (LAFRAIA, 2001)
Agora, observemos com atenção a Figura 2 que mostra a configuração da curva
da banheira na eletrônica e na mecânica. A curva de variação de taxa de falha na
mecânica explicita duas importantes informações. Mostra que a curva da banheira é
resultante de duas outras: a curva devida às falhas prematuras e a curva relativa à
influência do desgaste pelo uso sobre λ(t). A curva devida às falhas prematuras se
estende pelas três áreas e a curva de influência do desgaste começa a se tornar
significativa no período de vida útil. Elas definem um padrão de comportamento da
taxa de falhas, mercê das características de cada componente ou sistema.
Assim acontecendo, é viável pensar que os fatores causadores de incerteza nas
ações de manutenção podem influir na curva devida às falhas prematuras e na curva da
influência do desgaste pelo uso, modificando o padrão da taxa de falhas.
Existem falhas provocadas por ações externas e outras decorrentes da disfunção
dos componentes/sistemas provocadas em decorrência dos efeitos de ações externas.
São as chamadas falhas extrínsecas e falhas intrínsecas. MONCHY (1989) alerta que
(a)
Figura 2: Variação da Taxa de Falha na eletrônica (a) e na Mecânica (b)
(MONCHY, 1989)
Pesquisa Naval Nº 16, Outubro de 2003
235
(b)
Figura 2: Variação da Taxa de Falha na eletrônica (a) e na Mecânica (b)
(MONCHY, 1989)
se “utilizada com confiabilidade, a taxa de falha deverá excluir as falhas extrínsecas ao
conjunto analisado, tais como as panes devidas à falha de “manejo”(acidente,
instruções não respeitadas) ou devidas a uma influência acidental do meio externo
(inundações, incêndios...)”. Portanto, as alterações da curva devidas às falhas
prematuras e da curva relativa à influência do desgaste pelo uso sobre λ(t),
necessariamente, precisam resultar de disfunções do conjunto analisado. Essas
disfunções caracterizam as falhas intrínsecas.
Também é viável considerar, para alguns tipos de componentes/sistemas, em face
das suas características, que a pouca influência do desgaste pelo uso sobre λ(t), ou a
imunidade à lei do desgaste, explique a inexistência de fases na curva da banheira.
O que acabamos de dizer é importante por dois aspectos.
236
Pesquisa Naval Nº 16, Outubro de 2003
Primeiro, por possibilitar entendimento de como essas alterações podem ser
estimadas, avaliadas e diagnosticadas, por exemplo, pelo Fator de Forma β do modelo
de Weibull, conforme mostrado na Figura 2.
Segundo, por explicar outros padrões de falhas.
A Figura 3 mostra os outros padrões de falhas existentes. Quanto mais complexo
se torna o equipamento mais o padrão se aproxima de 2d e 2e que caracteriza o
comportamento de equipamento eletrônico, hidráulico e pneumático (UNIDO e ILO,
1994).
Figura 3: Outros Padrões de Falhas (UNIDO e ILO, 1994)
É por meio da análise estatística de falhas que nós conseguimos determinar a taxa
de falhas e o Tempo Médio Entre Falhas (TMEF) que significa o mesmo que vida média
para uma amostragem total. Na realidade, vem a ser uma das duas interpretações
distintas para o conceito de vida. A outra é a vida útil que é determinada pelo ponto em
que se inicia a fase do desgaste, quando ocorre um rápido aumento na probabilidade
condicional de falha λ (t) dt. A diferença entre esses dois conceitos ficará a cargo da
variância da amostra, Figura 4. Quanto maior for a variância da amostra, a vida útil
tenderá a ser muito menor do que o TMEF. Para um plano de manutenção que se baseie
num programa de substituição ou de recondicionamentos, no caso de uma amostra
com uma grande variância, a adoção do TMEF terá pouca ou nenhuma utilidade, uma
vez que não evitará a falha. A adoção da vida útil poderá provocar a intervenção antes
que um número razoável de componentes tenha falhado. Se por um lado evitamos a
falha, por outro, neste caso, poderemos estar perdendo dinheiro.
Pesquisa Naval Nº 16, Outubro de 2003
237
Figura 4: TMEF e Vida Útil (LAFRAIA,2001)
O dilema da efetividade das ações de manutenção, que todos os profissionais
enfrentam, pode agora ser encarado quantitativamente mediante a aplicação da
metodologia da pesquisa de confiabilidade, Figura 5, que tem por finalidade a estimativa
da taxa de falha e do TMEF e a definição da lei de confiabilidade que modele o
comportamento do material.
Para equipamento em exploração, dois aspectos são importantes para que tenhamos
sucesso na aplicação dessa metodologia. O primeiro é o histórico de manutenção.
A constituição de um histórico de manutenção é função da exploração do que
desejamos. MONCHY (1989) enfatiza que “é a definição exata das informações e de
sua exploração que justifica a existência do mesmo e que condiciona o seu conteúdo”.
Esse aspecto, para nós, evidencia uma das causas da baixa utilização da análise de
confiabilidade e também uma postura gerencial de pouca valorização e utilização de
históricos de manutenção. Na realidade, na maioria das vezes, os históricos são
negligenciados, ignorando o fato de que a eficácia do trabalho de um setor que se
dedique a métodos de manutenção está diretamente relacionada com o conhecimento
detalhado e exaustivo do material e da evolução do seu estado ou condição, objetivo
maior do estudo das falhas. Um histórico organizado é necessário para a obtenção dos
tempos de funcionamento até a falha, dos tempos de bom funcionamento (TBF), dos
tempos efetivos de indisponibilidade (TA) ou dos tempos técnicos de reparo (TTR)
relativos às falhas dos componentes dos sistemas.
–O segundo aspecto importante é a adoção de um método que, de uma forma
simples e bastante objetiva, possa indicar o modelo que a taxa de falha segue e a fase
da curva da banheira em que o material se encontra, permitindo a formulação da hipótese
nula para a pesquisa da confiabilidade.
238
Pesquisa Naval Nº 16, Outubro de 2003
Figura 5: Metodologia da Pesquisa de Confiabilidade (MONCHY, 1989)
3.
Metodologia
LEWIS (1996) expõe que os métodos não-paramétricos nos permitem, sem a seleção
de uma distribuição em particular, obter uma perspectiva da natureza da distribuição
que os dados representam.
O seu uso pode servir, também, como um primeiro passo na tomada de decisão de
prosseguir na análise paramétrica, e na provisão de uma indicação visual de que classe
de distribuição é mais apropriada.
Com relação ao comportamento da taxa de falha, LEWIS (1996) mostra a
possibilidade de podermos examiná-la como uma função do tempo. Ele define a integral
da taxa de falha λ (t) como taxa acumulada de falha H(t).
t
H (t ) = ∫ λ (t ')dt ' .
o
Num gráfico, H(t) é traçada como uma função do tempo. Vejamos.
Aproximando a função distribuição cumulativa F(t) pelos postos médios,
Fˆ (ti ) = i /( N + 1) , e considerando R (t ) = 1 − F (t ) teremos Rˆ (t i ) = ( N + 1 − i ) /( N + 1) . Mas,
Pesquisa Naval Nº 16, Outubro de 2003
t
R(t ) = exp − ∫ λ (t `)dt ` = e − H (t ) .
 0

Logo,
239
H (t ) = − ln R(t ) .
Assim,
Hˆ (t i ) = ln (N + 1) − ln (N + 1 − i ) .
Ĥ (t i ) fornece alguma compreensão acerca da natureza da taxa de falha: um gráfico
linear indica uma taxa de falha constante, uma curva cuja concavidade esteja voltada
para cima indica taxa de falha que está aumentando com o tempo, enquanto uma
concavidade voltada para baixo indica uma taxa de falha decrescente com o tempo,
Figura 6.
Figura 6: Interpretação acerca da concavidade de H(t)
4. Aplicação da Metodologia.
Avaliando um estudo realizado acerca da disponibilidade dos sistemas de Navios
de Superfície, que doravante passaremos a denominar Unidades de Superfície (USp),
de uma determinada classe, chamou-nos a atenção a distribuição das falhas ao longo
dos diversos períodos operativos dessas unidades. Ora eram espaçadas, ora
concentradas em um período de tempo, muitas vezes após a realização de uma parada
ou de um período de manutenção, e alteravam a condição do material provocando
restrições no emprego das Unidades. Efetuando um levantamento de dados relativos
ao período de 1993 a 2000, o comportamento observado confirmou-se. A indagação
decorrente era acerca do porquê de tal comportamento. O que poderia de fato estar
concorrendo para aquela distribuição de falhas?
Destarte, surgiu a necessidade da avaliação da gestão da manutenção, por meio
da pesquisa da confiabilidade, para que pudessem ser identificados os fatores de
influência, a fim de possibilitar as ações corretivas do Sistema de Apoio Logístico.
240
Pesquisa Naval Nº 16, Outubro de 2003
O conhecimento da natureza da falha, primeiramente, permitirá definirmos a fase
em que operam as Unidades: partida/amaciamento; vida útil ou envelhecimento.
Secundariamente, possibilitará adotarmos uma hipótese, a hipótese nula, para a
distribuição a que os dados de falhas ocorridas em cada unidade melhor se ajustem.
Em outras palavras, permitirá verificar se os tempos de falha seguem a lei exponencial
(taxa de falha constante) ou Lei de Weibull que permite o ajuste de taxas de falha
crescentes ou decrescentes no tempo, a fim de que possamos prosseguir com a
pesquisa da confiabilidade.
Esse método mostra-se importante também para auxiliar no diagnóstico, acerca
das causas das falhas, que pode ser feito com base no valor do fator de forma (²) da
distribuição de Weibull. O conhecimento da fase de operação o tornará mais preciso e
confiável, pois permitirá a sua confrontação com a realidade definida pelo critério de
construção das unidades. A MB possui USp construídas sob os critérios americano
e britânico. No primeiro, as unidades são construídas para uma vida útil de 30 anos
com possibilidade de aumento em até 50%. O critério britânico vem apresentando
tendência de redução, (20 a 25 anos), como medida de incentivo à construção naval.
Exceção é feita quanto à construção de Porta-Aviões, Navios Auxiliares ou de Apoio
Logístico (ASTABURUAGA, 1999).
5. Resultados e Discussão.
Com base nas amostras de tempos de operação até a falha, de cada unidade,
utilizou-se o método não-paramétrico descrito no item anterior, identificando-se,
mediante o comportamento da taxa acumulada de falha H(ti), em que fase de operação
cada unidade se encontrava, vida útil ou obsolescência.
As estimativas obtidas indicaram que a taxa de falha de todas as unidades estava
aumentando com o tempo. A concavidade da curva estimativa, H(ti), voltada para
cima, evidenciou que as unidades encontravam-se na fase de envelhecimento,
obsolescência. Considerando a vida útil estabelecida pelo critério de construção das
unidades, os resultados obtidos foram considerados como compatíveis e, portanto
aceitáveis. Os gráficos de H(ti) podem visualizados na Figura 7.
O resultado obtido permitiu estabelecer a Hipótese nula (H0) da análise: H0: - os
Tempos de Bom Funcionamento (TBF) das Unidades seguem a distribuição de Weibull.
Pesquisa Naval Nº 16, Outubro de 2003
241
Uma vez inseridos os Tempos de Bom Funcionamento (TBF) no papel de
probabilidade da distribuição da hipótese nula, o exame visual mostrou o alinhamento
dos pontos, sugerindo que as unidades seguem uma distribuição de Weibull a dois
parâmetros. Ou seja, o parâmetro de posição (γ) é igual a zero, que é uma característica
de falhas que ocorrem com o início da operação. A Tabela 1 mostra os parâmetros
dessa distribuição. Esses parâmetros permitiram diagnosticar as causas das falhas,
que não serão discriminadas por não ser o objetivo deste trabalho, e, principalmente,
evidenciar a taxa anual de perda de confiabilidade das unidades que vem a ser o melhor
indicador do seu aprestamento, Tabela 2. Nessa Tabela, destacam-se as maiores taxas
de redução de confiabilidade constatadas nas U-2, U-5 e U-6. O respaldo a esses
valores é conferido pelo resultado, disposto na Tabela 3, obtido com o ajuste, a
verificação da sua acurácia e o teste de hipótese. Para o teste de hipótese, optamos
pela aplicação do Teste de Aderência de Kolmogorov-Smirnov (K-S) (MASSEY, 1951).
A escolha baseou-se no fato de que o K-S é um teste simples de ser aplicado, e é válido
para qualquer tamanho de amostra (N) e emprega dados não agrupados.
Figura 7: Gráficos de H(ti)
242
Pesquisa Naval Nº 16, Outubro de 2003
Tabela 1: Parâmetros da Distribuição de Weibull
Unidade
(β)
(η) – (dias)
TMEF (dias)
Variância (dias)2
U-1
0,75
171,995
204,633
76.487,992
U-2
0,66
98,598
131,474
41.689,521
U-3
1,48
124,943
112,943
6.028,457
U-5
0,66
83,603
112,715
31.394,429
U-6
0,96
106,851
108,654
12.737,395
Tabela 2: Taxa anual de perda de confiabilidade
Unidade
Período (ano)
Perda (%)
Taxa anual (%)
U-1
7,2
4,3
0,5972
U-2
7,4
6
0,8108
U-3
6,8
3
0,4412
U-5
7,1
6,7
0,9437
U-6
6,2
5,05
0,8145
Pesquisa Naval Nº 16, Outubro de 2003
243
Tabela 3: Resultado do ajuste
Indicador
2
Coeficiente de determinação (r )
Coeficiente de correlação (r)
Variação não explicada (SSE)
Erro padrão da estimativa (Se)
Erro do coeficiente linear a (Sa)
Erro do coeficiente angular b (Sb)
Intervalo de confiança (95%) de b
Estimador do coeficiente b
U-1
0,957
0,978
0,735
0,229
0,057
0,043
U-2
0,917
0,958
1,875
0,322
0,072
0,053
U-3
0,971
0,985
0,380
0,185
0,052
0,078
0
0
0
0
0
0
±0,095 ±0,111 ±0,172 ±0
Não é tendencios
Teste Nível de significância α=0,10(2) 0,295 0,264 0,325 0
(3)
K-S
da (N)
0,139 0,187 0,164 0
Tamanho da amostra
16
20
13
Observações:
(1) – O coeficiente b é um bom estimador do parâmetro de forma da distribuição de
Weibull.
(2) - O nível de significância α adotado define o erro usual tolerado pelo analista. Esse
erro é conhecido, também, como nível de risco. É o risco que o analista está aceitando
no caso de rejeitar a hipótese nula quando ela for verdadeira. Quando a hipótese nula
é rejeitada, sendo verdadeira, cometemos o erro do tipo I. Assim, a probabilidade de
cometer o erro tipo I é α; e
(3) - O teste K-S baseia-se em uma estatística que mede o desvio do histograma
acumulado da (N) em relação à função de distribuição da hipótese constituída pelos
parâmetros obtidos. Esse desvio deve ser menor que os valores tabulados para o nível
de significância escolhido.
6. Conclusão.
Os resultados obtidos evidenciaram a potencialidade do método empregado e da
sua validade para uma formulação, com maior embasamento, da hipótese nula para a
pesquisa da confiabilidade. Ele mostrou-se importante, também, por definir a fase de
vida em que se encontra o material que estamos estudando. Esse aspecto confere um
subsídio relevante ao processo de diagnóstico das causas das falhas com base no
fator de forma (β) da distribuição de Weibull.
Finalmente, a aplicação demonstra que é possível, mediante o emprego de métodos
estatísticos não-paramétricos, conceber um sistema de investigação, gerado em bases
técnicas e científicas, que enfatize os defeitos, falhas e avarias e que contribua para o
aprimoramento dos sistemas de manutenção vigentes.
244
Pesquisa Naval Nº 16, Outubro de 2003
REFERÊNCIAS BIBLIOGRÁFICAS
ASTABURUAGA, G. J., “Vida Útil das Unidades de Superfície”. Revista Marítima
Brasileira. Serviço de Documentação da Marinha. pp.265-274. 4º T/99.
LAFRAIA, J. R. B., Manual de Confiabilidade, Mantenabilidade e Disponibilidade.
Rio de Janeiro, Qualitymark, Petrobrás, 2001.
LEWIS, E. E. Introduction to Reliability Engineering. New York, John Wiley & Sons,
Inc., 1996.
MASSEY, F. J. Jr., “The Kolmogorov-Smirnov Test for Goodness of Fit”, American
Statistical Association Journal, pp. 68-78, Mar. 1951.
MONCHY, F., A Função Manutenção. São Paulo, Durban/Ebras, 1989.
SANTOS, P.A.C. dos, 2003, Avaliação Estatística da Gestão da Manutenção e
Acompanhamento do Grau de Obsolescência de Máquinas Marítimas Militares.
Tese de M.Sc., COPPE/UFRJ, Rio de Janeiro, RJ, Brasil.
XIX
Capítulo
ESTIMATIVA DA PRESSÃO MÁXIMA EM CONTENÇÕES DE REATORES
NAVAIS DEVIDO A UM ACIDENTE DE PERDA DE REFRIGERANTE NO
CIRCUITO PRIMÁRIO
Teofilo Mendes Neto, MSc
Instituto de Pesquisas Energéticas e Nucleares, IPEN/CNEN-SP
Travessa R 400, Cidade Universitária
05598-900, São Paulo, SP, Brasil
João Manoel Losada Moreira, PhD
Centro Tecnológico da Marinha em São Paulo, CTMSP
Av. Lineu Prestes 2468, Cidade Universitária
05508-000, São Paulo, SP, Brasil
Resumo
Neste trabalho é estudado o problema da elevação da pressão na contenção
de um reator nuclear típico para a propulsão naval, isto é, contenções com volumes
pequenos, devido a um acidente de perda de refrigerante (LOCA). Determina-se a
pressão máxima na contenção para diferentes tamanhos de contenção e potência de
reatores, desde um PWR comercial a um reator naval. A pressão máxima em uma
contenção de pequeno porte é estimada a partir de resultados de plantas comerciais,
obtendo-se 185 psia para uma razão entre os volumes do circuito primário e da
contenção de 0,025. O problema também é estudado com o programa CONTEMPTLT obtendo-se uma pressão máxima de 162 psia para a mesma razão de volumes. Em
um acidente tipo “LOCA” o comportamento da temperatura máxima na contenção,
em função da razão de volumes, tende para um valor assintótico para pequenas
contenções; a pressão máxima na contenção tem um comportamento quase linear e
crescente em função da razão de volumes.
246
Pesquisa Naval Nº 16, Outubro de 2003
Abstract
This work studies the problem of containment pressurization after a LOCA in
naval reactors with small containment free volumes. The relationship between the
reactor power and the containment free volume is described with the ratio between
the volumes of the primary circuit and of the containment. The maximum pressure in
a containment, following a LOCA, obtained after a correlation based on large
containment PWRs, is around 185 psia for a primary circuit and containment volumes
ratio of 0.025. For the same problem, calculations with the CONTEMPT-LT code
produced a maximum pressure of 162 psia. The behavior of the temperature after a
“LOCA” to the containment, as a function of the ratio between the primary circuit
and containment volumes, is such that it increases reaching asymptotically to a
maximum; differently, the pressure increases almost linearly with the ratio of volumes.
1 – Introdução
A expulsão do refrigerante em um reator à água pressurizada, decorrente
do rompimento de uma grande tubulação do circuito primário de um reator nuclear,
ocasiona um aumento considerável da pressão e da temperatura no ambiente de
sua contenção em um curto espaço de tempo. As estruturas internas, blindagens
e equipamentos dentro da contenção formam volumes ou compartimentos
confinados que ficam pressurizados devido as massa e energia liberadas. As
paredes e os equipamentos dentro dos compartimentos são submetidos a níveis
diferentes de pressão, ocasionando carregamentos e esforços não estáticos
durante os transientes. A legislação de segurança de centrais nucleares exige
que se determine a pressão diferencial entre os diferentes compartimentos e
estruturas da contenção e que se faça uma análise estrutural demonstrando a
capacidade de suportar tais esforços [1,2].
Para se determinar o valor do pico de pressão e temperatura atingidos devido
a esse acidente, deve-se levar em consideração a quantidade de massa de água e
energia transferidas para a contenção durante o período de despressurização. Reatores
de pequeno porte para propulsão naval apresentam em seu projeto um volume livre
de contenção reduzido devido a indisponibilidade de grandes áreas nas embarcações.
A razão entre a potência térmica produzida, ou o volume do circuito primário, e o
volume livre da contenção em reatores navais apresenta valores elevados quando
comparados com PWRs comerciais para a produção de energia elétrica. Como
consequência, espera-se que para pequenas contenções a pressão atinja valores
muito mais elevados.
Neste trabalho faz-se um estudo do pico de pressão que uma contenção de
volume livre reduzido seria submetida no caso de ocorrer um acidente de perda de
Pesquisa Naval Nº 16, Outubro de 2003
247
refrigerante do circuito primário tipo grande “LOCA” [1,2]. Utiliza-se nas análises os
modelos para plantas comerciais onde as principais variáveis do problema são a
massa e entalpia do refrigerante no circuito primário, o volume do circuito primário e
o volume livre da contenção [3,4]. Inicialmente é apresentado o equacionamento do
problema a partir do balanço macroscópico de massa e energia em função do tempo
no volume da contenção. A seguir são apresentados resultados de picos de pressão
para volumes de contenção reduzidos obtidos de curvas que são função da entalpia
inicial do refrigerante no circuito primário e a razão entre os volumes do circuito
primário e a contenção. Contenções de reatores PWR comerciais tem uma razão Rv
entre 0,003 e 0,005 enquanto reatores navais tem razões entre 0,02 e 0,03. A diferença
é cerca de uma ordem de magnitude indicando que a pressão máxima devido a um
“LOCA” deve ser muito maior para uma instalação naval. Em seguida, são apresentados
resultados obtidos em uma modelagem com o programa CONTEMPT-LT [4] para
plantas PWR em que a contenção varia desde de grandes volumes livres até volumes
livres bastante reduzidos e, finalmente, são apresentadas as conclusões.
2 – Metodologia de estimativa da pressão na contenção devido a um “LOCA”
O acidente de perda de refrigerante devido a uma grande ruptura da tubulação
no circuito primário de um PWR faz com que a massa de água existente neste circuito
seja expandida para o volume livre da contenção. O refrigerante no circuito primário,
antes do acidente, encontra-se pressurizado, em torno de 2200 psia, com temperatura
em torno de 570 F e em condições sub-resfriadas. Havendo uma grande ruptura no
circuito primário, como é postulado em acidentes tipo “LOCA”, todo o refrigerante
expande através da ruptura ocupando o volume livre da contenção. O refrigerante,
inicialmente em estado líquido, vaporiza na contenção e pressiona suas paredes que
devem ser projetadas para suportar este esforço. Neste processo, o vapor na
contenção pode se condensar tornando-se novamente líquido, trocar calor com as
paredes da contenção e dos equipamentos dentro da contenção, normalmente em
temperaturas muito mais baixas que a do vapor. Todos estes processos diminuem a
pressão e a temperatura do vapor expandido na contenção.
Para se determinar a pressão e a temperatura na contenção após um “LOCA”,
deve-se considerar o comportamento temporal da pressão, temperatura, massa e
energia nos compartimentos que fazem parte da contenção; considerar a interação
entre os compartimentos, como troca de massa e calor, considerar a troca de calor com
estruturas que fazem parte da contenção e considerar a atuação de dispositivos de
segurança como “sprays”, ventiladores etc.
Os modelos zero-dimensionais e bifásicos [4,5] utilizados para se determinar a
pressão na contenção consideram as equações de conservação de massa e energia.
Cada compartimento da contenção possui duas regiões separadas para representar o
vapor e ar, na parte superior, e o líquido acumulado na parte inferior. A interação entre
248
Pesquisa Naval Nº 16, Outubro de 2003
as duas regiões pode ser de evaporação, condensação, “bulk boiling” e troca de calor
sensível através da interface, transferindo massa e energia entre elas. Pode haver
troca de calor com estruturas como a parede da contenção, e troca de massa entre
compartimentos por meio de quebras ou dutos.
Sejam as regiões de vapor e líquido no compartimento “n” identificadas pelos
subscritos “v” e “l”, respectivamente. Assim, as equações de balanço macroscópico
de massa e energia para este compartimento podem ser escritas como:
dM n ,v (t )
dt
= ∑ ( f m→n ,vWm→n (t ) − f n→m ,vWn→m (t )) +
m
Wn ,l →v (t ) − Wn ,v→l (t )
dM n ,l (t )
dt
= ∑ ( f m→n ,lWm→n (t ) − f n→m,lWn→m (t )) −
m
Wn ,l →v (t ) + Wn ,v→l (t )
d
( M n ,v (t )u n ,v (t ) + M n ,a c n ,a Tn ,v (t )) = ∑ ( f m→n ,vWm→n (t )hm,v (t )
dt
m
f n→m ,vWn→m (t )hn ,v ) + u n ,l (t )Wn ,l →v (t ) − u n ,v (t )Wn ,v→l (t ) − Qn ,v (
d ( M n ,l (t )u n ,l (t ))
dt
= ∑ ( f m→n ,lWm→n (t )hm ,l (t ) − f n→m,lWn→m (t )hn
m
u n ,l (t )Wn ,l →v (t ) + u n ,v (t )Wn ,v→l (t ) − Qn ,l (t )
(1)
( 2)
(3)
(4)
onde Mn,v é a massa de vapor no compartimento “n”;
Mn,l é a massa de líquido no compartimento “n”;
Mn,a é a massa de ar na região de vapor no compartimento “n”;
fm→n,v é a fração de vapor da vazão total do compartimento “m” para o
compartimento “n”;
fm→n,l é a fração de líquido da vazão total do compartimento “m” para o
compartimento “n”;
Pesquisa Naval Nº 16, Outubro de 2003
249
Wm→n é a vazão total de líquido e vapor do compartimento “m” para o
compartimento “n”;
Wn,l→v é a vazão que se evapora da região de líquido para a região de vapor no
compartimento “n”;
Wn,v→l é a vazão que se condensa da região de vapor para a região de líquido
no compartimento “n”;
un,v é a energia interna do vapor no compartimento “n”;
un,l é a energia interna do líquido no compartimento “n”;
cn,v é o calor específico do ar na região de vapor do compartimento “n”;
Tn,v é a temperatura na região de vapor do compartimento “n”;
hn,v é a entalpia do vapor no compartimento “n”;
hn,l é a entalpia do líquido no compartimento “n”;
Qn,v é o calor transferido através de estruturas existentes na região de vapor do
compartimento “n”;
Qn,l é o calor transferido através de estruturas existentes na região de líquido do
compartimento “n”;
Nas regiões de líquido e de vapor considera-se a existência de uma mistura
bifásica homogênea de vapor e líquido:
v n,v = (1 − x n,v )v f (Tn,v ) + x n,v v g (Tn,v )
v n,l = (1 − x n,l )v f (Tn,l ) + x n,l v g (Tn,l )
(5)
onde v n,v e v n,l são os volumes específicos das regiões de vapor e líquido do
compartimento “n”, vf e vg são os volumes específicos de líquido e vapor saturado na
temperatura indicada e xn,l e xn,v são os títulos nas regiões indicadas nos subscritos.
As vazões entre os compartimentos podem ser calculadas de acordo com a
evolução do transiente ou podem ser definidas externamente. No caso de um acidente
tipo “LOCA”, a vazão de líquido e vapor para o compartimento da contenção, Wm→n ,
é definida em dados de entrada.
O vapor produzido na região de líquido na forma de “bulk-boiling” (evaporação)
é transferido para a região de vapor; o líquido na região de vapor (condensação) é
transferido para a região de líquido. Neste processo há a transferência de massa e
energia entre as duas regiões. As outras formas de troca de calor são calor sensível,
via convecção devido a diferença entre as temperaturas da região de vapor e região de
líquido, e calor latente devido a transferência de massa via gradiente de concentração
molar do vapor.
A partir dos resultados de temperatura e volume específico obtém-se a pressão
no compartimento utilizando as equações de estado para o vapor e para o ar,
250
Pesquisa Naval Nº 16, Outubro de 2003
p n,v (t ) = p (Tn,v (t ), v n,v (t )) +
M n,a R a Tn,v (t )
x n,v (t ) M n,v (t )v g (Tn ,v (t ))
(6)
onde o primeiro termo corresponde a equação de estado de vapor e o segundo a
equação de estado do ar, considerado como gás ideal.
3 – Estimativa da pressão na contenção com o programa CONTEMPT-LT
A partir de resultados de pressão em contenções de grande porte pode-se
estimar a pressão em contenções de pequeno porte. Para um PWR comercial tem-se
uma pressão máxima em torno de 45 psia, enquanto que para uma instalação naval,
com uma razão entre o volume do circuito primário e da contenção de 0,025, tem-se
uma pressão máxima em torno de 185 psia. Os resultados extrapolados acima, obtidos
com ajustes de polinômios, é dependente dos coeficientes de ajustes e dos valores
utilizados. Como os valores utilizados foram obtidos para razões em torno de 0,005 e
os resultados de interesse tem razões de volume maiores que 0,02, torna-se necessário
avaliar melhor estes resultados. Isto é feito a seguir utilizando o programa CONTEMPTLT [4].
O programa CONTEMPT-LT [4] foi desenvolvido para estimar o comportamento
de longo prazo de uma contenção de LWR em consequência a um acidente de perda
de refrigerante tipo “LOCA”. O programa calcula o comportamento temporal das
variáveis pressão, temperatura, massa e energia nos compartimentos que fazem parte
da contenção; considera a interação entre os compartimentos, como troca de massa e
calor, troca de calor com estruturas que fazem parte da contenção e a atuação de
dispositivos como “sprays” e ventiladores. A contenção pode ter até 4
compartimentos distintos. Cada compartimento possui duas regiões separadas para
representar o vapor e ar, na parte superior, e o líquido acumulado na parte inferior,
conforme apresentado na Seção 2.
No programa CONTEMPT-LT, as Eqs. 1 a 5 são resolvidas assumindo uma
aproximação quase-estática na qual as derivadas temporais são calculadas por meio de
diferença finita explícita. A solução das equações é feita de forma iterativa assumindo
um valor inicial para a temperatura e o volume específico, determinando a seguir as
propriedades da água título, entalpia e energia interna. A temperatura é modificada de
acordo com os resultados e os cálculos são feitos até que a diferença entre os valores
entre duas iterações sucessivas é menor que uma dada tolerância. A pressão na
contenção, determinada como a pressão termodinâmica, é fornecida pela Eq. (6).
O programa CONTEMPT-LT é utilizado para análise de contenções de PWR
que apresentam grandes volumes livres[3,4]. Sua validação, entretanto, incluiu
experimentos que apresentavam vários compartimentos com volumes livres pequenos,
correspondendo à razões de volume, Rv, superiores a 0,03, e apresentou uma boa
Pesquisa Naval Nº 16, Outubro de 2003
251
concordância para os valores de pressão em função do tempo [5]. Para se estudar o
comportamento da pressão máxima em reatores com razões de volumes, Rv, variando
de 0,005 a 0,03 construiu-se um conjunto de dados, apresentados na Tabela 1, para
instalações com Rv intermediárias.
A massa de água total, existente no circuito primário antes de ocorrer o “LOCA”,
os volumes da contenção e do primário para dez razões Rv diferentes também
encontram-se na Tabela 1. Estas razões de volume são representativas de instalações
de grande porte, médio porte e navais [2,3,4].
O comportamento temporal da descarga foi tomado das Refs. 6 e 7; as descargas
em função do tempo são tais que integradas no tempo reproduzem as massas de água
apresentadas na Tabela 1. Algumas das descargas encontram-se na Figura 1, onde
o tempo de descarga é de cerca de 13 s. Nota-se que a vazão atinge valores muito
elevados no início e depois cai numa taxa mais lenta até atingir valores nulos, o valor
máximo de vazão atinge cerca de 80000 kg/s para reatores de grande porte e 4000 kg/
s para reatores navais.
Foram feitas simulações para os dez casos apresentados Tabela 1, cada um
correspondente à uma razão de volumes. Tentando reproduzir as condições
apresentadas na Seção 3, não foram consideradas a troca de calor com as estruturas
presentes ou qualquer dispositivo de segurança para promover a supressão do pico
de pressão durante o acidente postulado. Considerou-se um tempo total de transiente
de 25 s com cálculos sendo feitos em intervalos de tempo de 0,05 s.
TABELA 1 – Volumes da contenção e do circuito primário, massas de água do
circuito primário para dez razões de volume Rv escolhidas.
Rv
Vcont
0,005
[ft ]
2,6+6*
[ft ]
1,3+4
0,006
1,97+6
1,18+4
0,007
1,49+6
9,17+3
0,008
1,13+6
9,05+3
0,010
6,5+5
6,49+3
0,015
1,62+5
2,43+3
0,020
4,06+4
8,11+2
0,023
1,77+4
4,06+2
0,025
1,014+4
2,53+2
0,030
2,54+3
7,62+1
* 2,6+6 lê-se 2,6x106.
3
Vprimari
3
252
Pesquisa Naval Nº 16, Outubro de 2003
As evoluções temporais da pressão e da temperatura na contenção em função
do tempo para 6 casos diferentes são apresentadas nas Figuras 2 e 3. Os
comportamentos são semelhantes para ambas as variáveis, atingindo um patamar de
máximo, assintoticamente, a partir de 13 s. Como não há troca de calor com o ambiente,
situação adiabática, a temperatura e a pressão se estabilizam nesses valores elevados.
A consideração destes fenômenos faria com que elas atingissem um pico mais baixo e
caíssem a seguir.
Para grandes contenções, como para Rv de 0,005, a pressão máxima atinge 52
psia enquanto que para contenções pequenas, como Rv de 0,03, a pressão máxima
atinge 198 psia.
Os valores de temperatura e pressão máximas no ambiente da contenção, após o
período de descompressão, em função da razão de volumes são apresentadas nas
Figuras 4 e 5. Em relação a temperatura vê-se que a medida que a contenção se torna
menor (maior razão de volume) seus valores aumentam com menor intensidade.
Em relação ao comportamento da pressão em função da razão de volume, este
se parece linear conforme foi estimado anteriormente na Seção II a partir dos resultados
de reatores grande fornecidos por Slaughterbeck [2]. Nota-se na Figura 6, entretanto,
que as curvas obtidas na Seção 2 e com o programa CONTEMPT-LT se cruzam em
torno de uma razão de volume de 0,017, indicando que os resultados de pressão do
programa crescem numa taxa menor com relação a Rv. Os resultados do CONTEMPTLT de pressão máxima na contenção são maiores para reatores de grande porte e
menores para reatores de pequeno porte e navais.
FIGURA 1 – Vazões de descarga devido a um “LOCA” para várias razões entre
volumes do circuito primário e da contenção.
Pesquisa Naval Nº 16, Outubro de 2003
253
4 - Conclusões
Estudou-se o comportamento da pressão e da temperatura em função do tamanho
da contenção do reator devido acidentes tipo “LOCA”. Considerou-se contenções de
acordo com o porte do reator, isto é, grande porte, médio porte e naval.
FIGURA 2 – Pressão na contenção em função do tempo para várias razões entre
volume do primário e contenção.
FIGURA 3 – Temperatura nacontenção em função do tempo para várias razões
entre volume do primário e contenção.
254
Pesquisa Naval Nº 16, Outubro de 2003
360
Temperatura Máxima[F]
340
320
300
280
260
240
0,005
0,010
0,015
0,020
0,025
Razão de Volume
FIGURA 4 Temperaturas máximas em função da razão entre volumes do primário
e da contenção para acidentes tipo “LOCA”.
FIGURA 5 – Pressões máximas em função da razão entre volumes do primário e da
contenção para acidentes tipo “LOCA”.
Pesquisa Naval Nº 16, Outubro de 2003
255
Utilizando resultados calculados para contenções com grandes volumes livres,
onde nenhuma troca de calor foi considerada, extrapolou-se para contenções de
volumes pequenos. Para uma razão de volumes Rv de 0,025 obteve-se uma pressão
máxima em torno de 185 psia. Utilizando o programa CONTEMPT-LT para condições
semelhantes obteve-se uma pressão máxima em torno de 162 psia e temperatura
máxima em torno de 350 oF. A consideração de troca de calor diminuiria os valores
máximos de pressão e temperatura na contenção. Reatores de grande porte apresentam
pressões máximas na contenção na ordem de 52 psia.
Os resultados extrapolados da Seção 2 e os obtidos com o programa
CONTEMPT-LT para a pressão máxima em função da razão de volumes apresentam
um comportamento quase linear. Entretanto, as inclinações são diferentes e os
resultados do CONTEMPT-LT são inferiores que os extrapolados para reatores
pequenos. A temperatura máxima na contenção aumenta com menor intensidade a
medida que a contenção se torna menor (maior razão de volume), tendendo a um
valor máximo assintoticamente.
Referências
1.
2.
3.
4.
US NUCLEAR REGULATORY COMMISSION, Standard Technical Specification,
Westinghouse Plants, Revision 1, NUREG-1431, Abril de 1995.
LEWIS, E.E., Nuclear Power Reactor Safety, cap. 9, pag.434, John Wiley & Sons,
New York, 1977.
SLAUGHTERBECK, D.C., Correlations to Predict The Máximum Containment
Pressure Following a Loss of Coolant Accident in Large Pressurized Reactors
with Dry Containments, Idaho Nuclear Corporation Report, IN-1468, 1971.
WHEAT, L.L., WAGNER, R.J., NIEDERAUER, G.F., OBENCHAIN, C.F.,
CONTEMPT-LT, A Computer Program For Predicting Containment PressureTemperature Response To Loss Of Coolant Accident, Aerojet Nuclear Company,
TID 4500, 1975.
5.
MINGS, W. J., MILLS, J. I., Containment code developmental verification at
INEL, Proceedings of the Topical Meeting on Thermal Reactor Safety, Eastern
Idaho Section, American Nuclear Society, 1978.
6.
SOUZA, A L., Análise da contenção da INAP, Rel. Técnico PSE.RAT.COPESP.002,
RELT.001.R01, 1996.
7.
DUTRA, A. S., Memorial de cálculo para contenção, Rel. Técnico CTMSP,
1997.
256
Pesquisa Naval Nº 16, Outubro de 2003
MUNIÇÃO NAVAL
A Marinha do Brasil, atualmente, fabrica, no País, toda a munição naval
de médio e grosso calibres utilizada pelas Forças Navais brasileiras.
A Fábrica de Munição da Marinha - FMM, que tem suas origens ligadas à
antiga Fábrica de Armamento da Marinha FAM (que funcionou até o final da década
de 70 em instalações situadas no Arsenal de Marinha do Rio de Janeiro), teve suas
instalações inauguradas em 9 de julho de 1982, no Guandu do Sapê - Campo Grande
- Rio de Janeiro, e é a única planta fabril da América Latina em operação nos dias atuais,
com capacidade para fabricação de munição completa de grosso e médio calibres.
Ocupando aproximadamente 4.500.000m² no km45 da Avenida Brasil, com
área construída de 20.000m², a FMM utiliza para sua operação 300 empregados militares e civis, altamente qualificados, sendo 20 de nível superior, 62 de nível médio e 218
de nível auxiliar.
A FMM é diretamente subordinada à Diretoria de Sistemas de Armas da Marinha e está sendo gerenciada e operada, desde 1996, pela Empresa Gerencial de Projetos Navais - EMGEPRON.
Atuando dentro de elevados padrões de qualidade e atendendo a rígidos requisitos de segurança e ao cumprimento rigoroso das especificações técnicas estabelecidas
para atingimento do nível de qualidade exigido pelo mercado internacional, a FMM
vem executando um contínuo trabalho de aperfeiçoamento da infra-estrutura do seu
parque industrial, dos recursos humanos disponíveis e das técnicas de fabricação.
A importância da atuação da FMM para a Marinha do Brasil e para o País, tanto
no aspecto econômico, quanto no aspecto estratégico, e o seu posicionamento como
única fábrica de munição na América Latina que opera na produção de munição completa de médio e grosso calibres, refletem o exato valor desse trabalho.
XX
Capítulo
DETERMINAÇÃO DO FATOR DE PICO UTILIZANDO SINAIS DE DETECTORES
OUT-OF-CORE EM REATORES NAVAIS
Rose Mary Gomes do Prado Souza, MSc
*Centro de Desenvolvimento da Tecnologia Nuclear – CDTN-CNEN/BH
Caixa Postal 941. 30123-970, Belo Horizonte, MG, Brasil
João Manoel Losada Moreira, PhD
Centro Tecnológico da Marinha em São Paulo - CTMSP
Av. Prof. Lineu Prestes, 2468
05508-000 Cidade Universitária, São Paulo, SP, Brasil
Resumo
O trabalho pretende mostrar que o fator de pico das distribuições de potência
de um reator naval pode ser correlacionado com a diferença axial de potência
obtida de detectores out-of-core e com a posição das barras de controle. As respostas
dos detectores out-of-core para estados do reator com diferentes distribuições de
potência foram medidas em experimentos realizados no reator IPEN/MB-01,
operando a 10 W, com as barras de controle em diversas posições. As distribuições
de potências para estes estados do reator foram obtidas por meio de cálculos
tridimensionais do núcleo com o programa CITATION. Os resultados obtidos mostram
que existe correlação entre os parâmetros citados para um reator naval. As análises
mostram que há um padrão complexo (com maior dispersão de pontos) entre o fator
de pico da distribuição de potência do reator e a diferença axial de potência. Concluise que o fator de pico deve ser determinado em função da diferença axial de potência
e da diferença de potência por quadrante do reator.
Abstract
This paper aims to show that in naval reactors the power density peak factor
can be determined from the power axial offset, measured from out-of-core detector
258
Pesquisa Naval Nº 16, Outubro de 2003
signals, and from signals indicating the control rod positions in the core. The response
of out-of-core detector signals were measured in experiments performed in the IPEN/
MB-01 zero-power reactor. Several reactor states with different power density
distribution were obtained by positioning the control rods in different configurations.
The power distribution and its peak factor were calculated with the CITATION
code for each of these reactor states. The obtained results show that for the naval
reactors there is a correlation between the peak factor, the control rod position and
power axial offset. The analysis shows that a complex pattern exist between the peak
factor and the power axial offset. In order to improve the accuracy, the results indicate
that the peak factor should be determined through a correlation which takes into
account the power axial offset and the quadrant power tilt.
1 – Introdução
Em reatores nucleares o controle da distribuição de fluxo neutrônico ou
da densidade de potência durante a operaçãot: é importante para se determinar
condições seguras de operação, inclusive quanto ao fluxo de calor crítico ou DNBR.
Uma das formas de estimar o fluxo de calor crítico durante a operação é através dos
valores de densidade de potência local, ou seja, do fator de pico, obtidos utilizando
a diferença axial de potência (DAP) e a distribuição por quadrante ou octante
fornecida pelos detectores out-of-core. A diferença axial de potência é estimada
de forma indireta a partir dos sinais desses detectores, localizados nas partes
superior e inferior do núcleo. Para reatores navais a estimativa da densidade de
potência axial é mais complicada devido ao pequeno tamanho do núcleo do reator,
em relação ao tamanho dos detectores, e às pequenas distâncias envolvidas
Neste trabalho, mede-se a diferença axial de potência com detectores outof-core de forma a se obter dados experimentais que a correlacionem com o fator de
pico da distribuição de potência do reator. Esta é a informação que se deseja para
implementação no sistema de proteção do reator contra fluxo de calor crítico ou
DNBR. Para isto, foram realizados experimentos na unidade crítica IPEN/MB-01,
colocando quatro detectores de nêutrons externamente ao tanque do reator, dois
na face norte e dois na face oeste, em posições simétricas em relação ao centro do
núcleo. O reator foi colocado crítico com as barras de controle em diversas posições
pré-fixadas e foram obtidas, para cada caso, as diferenças axiais de potência, das
respostas dos detectores. A partir de cálculos com o código CITATION, obteve-se
também a distribuição de potência no núcleo em função das posições das barras
de controle.
Na Seção II é apresentado o reator IPEN/MB-01 onde foram realizados os
experimentos, na Seção III são apresentadas as medidas e os cálculos de
distribuição de potência realizados. Na Seção IV são apresentados os principais
resultados já obtidos e, finalmente, na Seção V são apresentadas as conclusões.
Pesquisa Naval Nº 16, Outubro de 2003
259
2 – Reator IPEN/MB-01
Os experimentos foram realizados no reator IPEN/MB-01. A Figura 1 mostra,
esquematicamente, o núcleo do reator e o tanque circular que contem água leve utilizada
como moderador e refletor. O reator é constituído de um conjunto de varetas de
combustível de aço inoxidável contendo pastilhas de UO2 levemente enriquecido,
semelhantes a um reator PWR. Estas varetas são posicionadas no núcleo por meio de
placas espaçadoras formando um conjunto semelhante a elementos combustíveis de
PWR. Na figura, apresenta-se uma configuração equivalente a 4 elementos combustíveis.
O controle de reatividade é feito por barras compostas de varetas absorvedoras de
nêutrons de Ag-In-Cd e B4C. As letras “A” e “B” denotam as barras de Controle, a
letra “S” as barras de Segurança. O retângulo escuro no lado direito do núcleo
representa um conjunto de placas de aço que podem ser colocadas no refletor lateral
do reator para simular os internos de reatores PWR, tais como a barreira térmica, o
baffle ou outra estrutura interna. Os círculos numerados representam a instrumentação
nuclear do reator.
Figura 1 - Diagrama Esquemático do Núcleo do Reator IPEN/MB-01
260
Pesquisa Naval Nº 16, Outubro de 2003
3 – Metodologia para medir a diferença axial de potência
Os detectores da instrumentação out-of-core de um reator monitoram a potência
nuclear do reator e podem fornecer, também, outras informações como período e
diferença axial de potência, DAP. Esta última informação é obtida da diferença entre o
sinal de detectores out-of-core localizados em cotas acima e abaixo do centro do
reator, dividida pela soma destes sinais:
DAP =
S s − Si
.
S s + Si
(1)
onde Ss e Si denotam o sinal dos detectores que monitoram a parte superior e inferior
do núcleo. Esta grandeza é utilizada para se inferir a distribuição axial de densidade de
potência de um reator durante a operação.
Os experimentos realizados visam determinar a precisão com que se infere a
distribuição axial de densidade de potência por intermédio da DAP [1,2,3]. Nos
experimentos foram colocados quatro detectores de nêutrons juntos à face externa do
tanque do reator. Dois detectores foram colocados na face norte e os outros dois na
face oeste, conforme indicado na Figura 1 por “Detector Out-of-Core Face Norte” e
“Detector Out-of-Core Face Oeste”, respectivamente. Estas posições simulam a
localização destes detectores em reatores de potência. Os detectores de nêutrons
utilizados nas medidas foram de 10B.
Para obter um maior número de estados do reator com diferentes configurações
de barras de Controle e Segurança foi necessário aumentar o excesso de reatividade do
núcleo. Assim, o núcleo do reator IPEN/MB-01 foi colocado na forma cilíndrica, retirando
combustíveis dos cantos do núcleo quadrado original e colocando-os nos centros
dos lados e também removeu-se as placas de aço na lateral oeste. Com este
procedimento houve um ganho de aproximadamente 700 pcm em reatividade.
O reator foi então colocado crítico a 10 W com as duas barras de Segurança
(denominadas BS1 e BS2) e as duas de Controle (BC1 e BC2) à mesma altura (67,10 %
retiradas). Foram tomadas as contagens nos quatro detectores considerando-as como
referência.
A seguir, o reator foi colocado crítico no mesmo nível de potência, com as
barras de Controle e de Segurança em diversas posições distintas, totalizando 56
estados diferentes de posições de barras de controle e de segurança e de distribuição
de densidade de potência.
As extrações das barras de controle foram realizadas a partir das barras
posicionadas à mesma altura (67,1% retiradas), e depois extraindo-as 77,1%, 87,1% e
finalmente 100%, ou, totalmente fora do núcleo. Em cada situação, foram feitas
compensações com outras barras a fim de manter a criticalidade do reator.
Pesquisa Naval Nº 16, Outubro de 2003
261
O seguinte procedimento foi seguido:
• Compensação cruzada de barras;
• Compensação paralela de barras;
• Compensação de barras emparelhadas duas a duas;
• Compensação emparelhada tripla de barras.
As contagens nos diversos detectores foram registradas para os cálculos das
respectivas DAP’s, com a seguinte nomenclatura:
• DAPN - diferença axial de potência calculada a partir das respostas dos detectores
colocados na face norte;
• DAPO – diferença axial de potência obtida das respostas dos detectores colocados
na face oeste.
Concomitantemente, foram registradas as correntes de detectores colocados
sob o tanque e pertencentes à instrumentação do reator, através de medidores
chamados de Canal 0 e Canal 1. A partir das medidas das correntes destes detectores,
obteve-se, pela técnica de Ruído, os valores da potência do reator.
As medidas foram feitas para distribuições axiais de potência bem pronunciadas
para simular as condições do reator da INAP, Instalação Nuclear a Água Pressurizada.
4 – Resultados e análises
Para cada um dos 56 estados diferentes do reator foi calculada a distribuição de
densidade de potência do reator IPEN/MB-01 utilizando o programa CITATION [4] e
seções de choque obtidas com o programa HAMMER/TECHNION [5]. Dos resultados
do código CITATION foram obtidos os valores de densidade de potência local máxima
(fator de pico - FP) e sua localização para as diversas posições das barras de Controle
e de Segurança em que foram realizadas as medidas.
A partir das medidas de diferença axial de potência norte e oeste (DAPN, DAPO,
respectivamente) e posição das barras de Controle e Segurança e de cálculos do fator
de pico e sua localização no reator, um conjunto de dados pôde então ser obtido
relacionando as DAP’s e Fator de Pico (FP) e sua localização no núcleo do reator.
Nas Figuras 2 a 5, tomadas como exemplo, tem-se, as diferenças axiais de potência
norte e oeste (DAPN e DAPO) e os valores calculados de FP em função dos valores de
retirada da barra BS1 e BS2, sem considerar os pontos em que elas ficaram sem
movimentar. Nota-se que os vários estados do reator, conseguidos por meio da
movimentação das barras de controle, causaram fatores de pico entre aproximadamente
2 e 2,3. As distribuições das DAP’s e FP’s obtidas a partir da retirada da barra BC1 e
BC2 apresentam comportamento semelhantes.
262
Pesquisa Naval Nº 16, Outubro de 2003
Figura 2. DAPN, FP em Função da Posição da Barra de Segurança BS1
Figura 3. DAPO, FP em Função da Posição da Barra de Segurança BS1
Como pode ser observado dos gráficos, há uma correlação entre as DAP’s, os
FP’s e a posição das barras BC1, BC2, BS1 e BS2. Há um padrão em todas as figuras que
pode ser descrito como a seguir. Com as barras em torno da posição de 60% retirada,
mas chegando em alguns casos até mais de 70% retirada, obtém-se os maiores valores
Pesquisa Naval Nº 16, Outubro de 2003
263
de diferença axial de potência, em torno de 18%. A medida que qualquer das barras é
inserida mais para dentro do reator, como até a posição de 50% retirada, a DAP diminui;
a medida que uma das barras é retirada do reator, até a posições de 100% retirada, a
DAP também vai diminuindo. Há uma dispersão de pontos nas curvas porque pode-se
obter o mesmo valor de DAP com barras posicionadas em diferentes posições.
Isto se deve ao fato de que a medida que uma barra absorvedora é inserida no
reator ela empurra o fluxo de nêutrons ou a densidade de potência para baixo, e aumenta
a DAP. Após certa altura de inserção, o fluxo de nêutrons tende a ir para os quadrantes
ao lado, onde não há barras absorvedoras, ou mesmo a voltar para a parte superior se
a inserção da barra for muito grande. No presente experimento verifica-se que na
posição de barra de 60% retirada ocorre a transição de “empurrar o fluxo de nêutrons
para baixo” para “empurrar o fluxo nêutrons para os quadrantes laterais”.
Figura 4. DAPN, FP em Função da Posição da Barra de Segurança BS2
Determinação do Fator de Pico a Partir de Sinais de Posição de Barra.
Nas Figuras 2 a 5, a um dado valor da abcissa encontram-se vários valores na
ordenada, isto é, para uma dada posição da barra BS1 ou BS2 existem vários valores de
diferença axial de potência e fator de pico. Isto ocorre porque foram conseguidos nos
experimentos vários estados críticos do reator com a mesma posição da barra BS1, mas
com posições diferentes para as barras BS2, BC1 e BC2. O mesmo foi conseguido para
a barra BS1, BC1 e BC2. Cada um dos pontos apresentados para a mesma abcissa
corresponde a um desses diferentes estados críticos.
264
Pesquisa Naval Nº 16, Outubro de 2003
Assim, correlacionar o fator de pico e a posição de apenas uma das barras não
é suficiente para se ter uma boa estimativa. As figuras indicam que, neste caso, devese correlacionar o fator de pico a posição das 4 barras de controle, pois todas elas
afetam a distribuição de potência do reator.
Figura 5. DAPO, FP em Função da Posição da Barra de Segurança BS2
Os resultados apresentados nas Figuras 2 a 5 mostram que há uma correlação
forte entre o fator de pico da distribuição de densidade de potência e a posição das
barras de controle. Os sinais de posição da barra de controle, durante a operação do
reator, podem ser utilizados para inferir o valor do fator de pico a ser utilizado no
sistema de proteção de um reator.
Determinação do Fator de Pico a Partir da Diferença Axial de Potência.
A diferença axial de potência obtida a partir dos sinais de detectores out-ofcore pode ser utilizada para se determinar o fator de pico da distribuição de densidade
de potência. As Figuras 6 e 7 apresentam o fator de pico em função das diferenças
axiais de potência obtidas dos detectores localizados nas faces norte e oeste. Nestas
figuras os pontos apresentados são aqueles em que a barra BS1 foi movimentada (elas
se referem às Figuras 2 e 3).
Os resultados das Figuras 6 e 7 mostram que a correlação entre fator de pico e
as diferenças axiais de potência não é tão clara, pois existem vários estados do reator
que apresentam valores diferentes de fator de pico para a mesma diferença axial de
potência.
Pesquisa Naval Nº 16, Outubro de 2003
265
Há duas razões principais para este comportamento. A primeira, está ligada ao
fato que os detectores out-of-core, localizados longe do núcleo, não são capazes de
diferenciar alterações pequenas na distribuição de potência. Assim, pequenas variações
de fator de pico não são percebidas pela diferença axial de potência. A segunda razão
está ligada ao fato de existir distribuições de potência com valores de fator de pico
diferentes, mas que apresentam a mesma diferença axial de potência.
Figura 6. Fator de Pico em Função da Diferença Axial de Potência da Face Norte.
Figura 7. Fator de Pico em Função da Diferença Axial de Potência da Face Oeste
266
Pesquisa Naval Nº 16, Outubro de 2003
Observando a Figura 1, nota-se que, por exemplo, ao se introduzir a barra de
controle A (BC1), próxima a face norte, e compensar esta reatividade negativa retirando
a barra B (BC2) próxima a face oeste (estando as barras BS1 e BS2 paradas) obtém-se
um dado fator de pico e uma dada diferença axial de potência na face norte (DAPN). Ao
se compensar a reatividade negativa com a barra S (BS2), próxima a face sul, (barras
BC2 e BS1 paradas) pode-se obter, para a mesma diferença axial de potência na face
norte, pois as respostas dos detectores out-of-core são as mesmas, um fator de pico
diferente localizado em outro ponto do reator. As Figuras 6 e 7 mostram claramente
este comportamento.
As Figuras 8 e 9 representam subconjuntos da Figura 6. A Figura 8 mostra o
comportamento do fator de pico em função da diferença axial de potência na face norte
do reator considerando somente os estados em que a barra BS1 foi inserida e a barra
BS2 foi retirada (para manter a criticalidade) enquanto as barras BC1 e BC2 não se
movimentaram. Observando a Figura 8 nota-se que o fator de pico varia pouco situandose entre 2,24 e 2,27 no intervalo de 14,5 a 18 % de diferença axial de potência. Isto é
esperado pois as barras BC1 e BC2 (A e B na Figura 1) encontram-se em posições
simétricas no núcleo fazendo com que a distribuição de potência não mude muito na
posição central do reator.
Figura 8. FP em Função da DAPN para Estados do Reator com Movimentação da
Barra BS1, Compensada pela Barra BS2
Pesquisa Naval Nº 16, Outubro de 2003
267
A Figura 9 mostra o comportamento do fator de pico em função da diferença
axial de potência da face norte para outros estados do reator com configurações de
barras diversas. Neste caso, enquanto as barras BC1 e BC2 são inseridas no reator, a
criticalidade é mantida retirando-se as barras BS1 e BS2, não havendo, portanto, simetria.
Conforme mostra a figura, o fator de pico aumenta de 2,08 a 2,24 para uma diferença
axial de potência variando de aproximadamente 14,5 a 17,5 %.
As Figuras 8 e 9 mostram que existe uma correlação entre o fator de pico e a
diferença axial de potência, entretanto, para se encontrá-la é necessário uma análise
criteriosa dos dados. Se esta análise não for realizada as incertezas na correlação serão
muito grandes, conforme pode ser visto nas Figuras 6 e 7 onde a dispersão dos dados
é muito grande.
Figura 9. FP em Função da DAPN para Estados do Reator com Movimentação das
Barras BC1 e BC2, Compensadas pelas Barras BS1 e BS2.
A abordagem que se apresenta melhor para resolver este problema é considerar
na correlação para se determinar o fator de pico as informações de diferença axial de
potência das faces norte e oeste do reator. Isto é equivalente a se considerar informações
de distribuição de potência por quadrante. Desta forma, o fator de pico é determinado
em função da diferença axial de potência e da diferença de potência por quadrante do
268
Pesquisa Naval Nº 16, Outubro de 2003
reator. A correlação para se determinar o fator de pico será realizada segundo esta
abordagem e será o próximo passo deste trabalho.
5 – Conclusões
Os resultados experimentais obtidos no reator IPEN/MB-01, um reator de
pequeno porte de proporções similares aos reatores navais, mostram que há uma
correlação entre a posição das barras absorvedoras, a diferença axial de potência e o
fator de pico. Há um padrão claro que permite dizer que há correlação entre a distribuição
de potência do reator e as posições das barras de controle. Consequentemente, podese afirmar que para um reator naval os sinais de indicação de posição da barra de
controle, durante a operação do reator, podem ser utilizados para inferir o valor do
fator de pico a ser utilizado no sistema de proteção de um reator.
As análises mostraram também que há um padrão mais complexo (com maior
dispersão de pontos) entre o fator de pico da distribuição de potência do reator e a
diferença axial de potência. Neste caso, o fator de pico deve ser determinado em
função da diferença axial de potência e da diferença de potência por quadrante do
reator. A correlação para se determinar o fator de pico em função desses parâmetros,
obtidos dos sinais de detectores out-of-core, será obtida na continuação deste trabalho.
Referências
[1] MOREIRA, J.M.L., e SOUZA, R.M.G.P. Rotina Experimental - Determinação de
Fator de Pico Utilizando Detectores Externos ao Tanque de Moderador. Relatório
Técnico Interno, CTMSP, abril de 2001.
[2] MOREIRA, J.M.L., e SOUZA, R.M.G.P. Determinação de Fator de Pico Utilizando
Detectores Externos ao Tanque de Moderador - Plano de Trabalho. Relatório
Técnico Interno, CTMSP, novembro de 2000.
[3] MOREIRA, J.M.L., e SOUZA, R.M.G.P. Determinação da Densidade de Potência
Local Utilizando Sinais da Instrumentação Nuclear. Relatório Técnico Interno,
CTMSP, rev. 01, maio de 2001.
[4] FOWLER, T. B., VONDY, D. R., CUNNINGHAN, G. W. Nuclear Reactor Core
Analysis Code: CITATION, ORNL-TM-2496, 1971.
[5] BARHEN, J., et al., The HAMMER Code System Technion, EPRI-NP-565, 1978.
XXI
Capítulo
ANÁLISE DA DISTRIBUIÇÃO E IDENTIFICAÇÃO DE “OUTLIERS” DE UM
CONJUNTO DE DADOS DE PRIMEIRA DETECÇÃO RADAR UTILIZANDO A
FERRAMENTA “BOXPLOT”
Capitão-de-Corveta Cleber Almeida de Oliveira, MSc
Centro de Apoio a Sistemas Operativos – CASOP
[email protected] ou [email protected]
Resumo
Este trabalho resume os resultados da aplicação da metodologia de desenho
esquemático denominado “boxplot” a dados extraídos dos Exercícios Operativos
(EXOP) relativos às distâncias das primeiras detecções RADAR de alvos de superfície
de oportunidade registradas pelos diversos meios da Marinha do Brasil (MB),
visando a análise e verificação da distribuição dos dados. Esta análise permite a
identificação de valores atípicos, denominados “outliers”, devido a erros de
anotação das medidas ou devido a observações discrepantes e, posterior, inferência
estatística. A comparação dos resultados obtidos de média e desvio padrão após a
identificação dos “outliers” utilizando o “boxplot” com os resultados obtidos pela
metodologia aplicada aos dados de 2002, complementa a análise dos dados.
Abstract
This paper synthesizes the results of a research aimed to analyze and verify
the data distribution obtained from operations exercises related to the distances of
first RADAR detection in the naval environment. This Analysis allows the identification
of outliers. The comparison of the results obtained of mean and standard deviatiom
after using boxplot with the results obtained by the methodology applied to the data
in 2002, complements the data analysis.
Keywords: Boxplot - Outliers
270
Pesquisa Naval Nº 16, Outubro de 2003
INTRODUÇÃO
Este trabalho baseou-se em dados extraídos dos Exercícios Operativos (EXOP)
relativos às distâncias das primeiras detecções RADAR de alvos de superfície de
oportunidade registradas pelos diversos meios da Marinha do Brasil (MB), colhidos
de jan/2001 a dez/2002. Esses dados permitem o estabelecimento de valores padrões
de detecção para cada conjunto Navio/RADAR/Tamanho do alvo, visando ao
planejamento de missões de esclarecimento.
Os alvos de superfície foram separados em função do seu tamanho, a saber:
Ø Alvo Pequeno – deslocamento < 3000 t. (ex.: Pesqueiro);
Ø Alvo Médio – deslocamento entre 3000 e 6000 t. (ex.: Navio Mercante); e
Ø Alvo Grande – deslocamento > 6000 t. (ex.: Navio Petroleiro).
A detecção RADAR depende de diversos fatores tais como: seção reta RADAR
do alvo, parâmetros de operação do transmissor e receptor RADAR, condições de
propagação, etc. Como as condições de propagação reinantes durante as detecções
não foram consideradas durante a coleta dos dados, faz-se mister o emprego de
ferramenta para a identificação de dados com valores atípicos “outliers” que possam
influenciar a grande massa de dados.
Figura 1.1 - Diagrama esquemático - “boxplot”
Pesquisa Naval Nº 16, Outubro de 2003
271
O emprego do “boxplot” permite a identificação desses valores atípicos com maior
facilidade e rapidez, dispensando a interferência do especialista na redução da amostra
para a análise e, conseqüente, inferência estatística.
“Boxplot” é um diagrama que traduz, graficamente, as informações de cálculo da
mediana, quartis, e pontos extremos, desenvolvida e aprimorada por pelos autores,
tais como Tukey (1977), Tukey e Larsen (1978) e McGill (1978).
Os valores observados que não estiverem dentro da área delimitada pelos limites
superior e inferior descritos na figura 1.1 serão caracterizados como “outliers” e
desconsiderados no cálculo da média e desvio padrão da primeira detecção RADAR.
A identificação dos “outliers” é imprescindível em virtude do cálculo da média e do
desvio padrão serem afetados, de forma exagerada, por valores discrepantes da maioria
dos dados.
Os dados compreendidos entre o quartil inferior (Q1) e o quartil superior (Q3)
representam 50% das observações da amostra.
A justificativa para utilizarmos os limites descritos na figura acima para definir as
detecções atípicas é a seguinte: considere uma curva normal com média zero e, portanto,
com mediana zero. Utilizando a tabela de distribuição normal, é fácil verificar que Q1=0,6745, Q3= 0,6745 e portanto IQR=1,349. Segue-se que os limites são: LI= -2,698 e
LS=2,698. A área entre estes dois valores, embaixo da curva normal, é 0,993, ou seja,
99,3% da distribuição está entre estes dois valores. Isto é, para dados com distribuição
normal, os pontos exteriores constituirão cerca de 0,7% da distribuição.
As distribuições de freqüência de um conjunto de dados podem diferir não só em
termos das medidas de posição e de dispersão, mas também com relação à forma das
medidas de posição e de dispersão. Utilizaremos o coeficiente quartílico de assimetria
dado por:
eq =
(Q3 − Md ) − (Md − Q1) = Q3 − 2Md + Q1
(Q3 − Md ) + (Md − Q1)
Q3 − Q1
, onde: -1 ≤ eq ≤ 1
O módulo de eq, indica o grau de enviesamento e o seu sinal indica o lado de
inclinação: positivo, a inclinação é a esquerda; negativo, a inclinação é a direita.
A curtose, afilamento ou achatamento das curvas, é medida em relação a uma curva
normalmente achatada, denominado mesocúrtica. Uma curva mais achatada do que ela
é denominada platicúrtica e uma menos achatada (ou mais afilada) leptocúrtica. Para
medir o grau de curtose utilizaremos o coeficiente percentílico de curtose que é a
relação entre o desvio quartílico e o percentílico dos dados, dado por:
K=
Q3 − Q1
2(C 90 − C10)
se k > 0,263, a curva é platicúrtica;
se k = 0,263, a curva é mesocúrtica; e
se k < 0,263, a curva é leptocúrtica
272
Pesquisa Naval Nº 16, Outubro de 2003
Nas análises realizadas anteriormente, os dados que não pertencessem ao intervalo
determinado pela média ± 2σ calculados a partir da amostra total eram identificados
como valores atípicos e expurgados da amostra. Com base na amostra reduzida, eram
calculados os valores de média e desvio padrão e, novamente, identificados os valores
atípicos e expurgados. Este artifício era utilizado até que mais nenhum dado fosse
identificado como valor atípico. Entretanto, a média e o desvio padrão não são medidas
resistentes, ou seja, são afetadas caso haja uma pequena porção de dados com valores
atípicos, dificultando a identificação dos “outliers” por este artifício, sendo, então,
necessária a interferência do analista.
A comparação dos resultados obtidos de média e desvio padrão após a identificação
dos “outliers” utilizando o “boxplot”, com os resultados obtidos pela metodologia de
verificação dos dados aplicada anteriormente, complementa a análise dos dados.
Como o número de registros de algumas amostras eram relativamente grandes, foi
desenvolvida uma planilha em EXCEL para o cálculo da mediana e quartis e plotagem
do “boxplot” e dos valores atípicos (“outliers”).
Na Seção 2, aplicamos a ferramenta “boxplot” ao conjunto dos dados de jan/2001
a dez/2002 e comparamos os resultados obtidos através desta metodologia com os
obtidos anteriormente, e na Seção 3, apresentamos as conclusões e comentários finais.
DADOS E PRIMEIROS CÁLCULOS DO “BOXPLOT”
Para evitar que informações operacionais comprometessem o sigilo do trabalho
tanto os navios quanto os sensores utilizados não foram identificados. Este estudo se
restringe aos dados computados de quatro (4) meios da MB no período de jan/2001 a
dez/2002. Os diagramas esquemáticos apresentados na figura 2.1 referem-se aos
“boxplot” dos dados dos navios analisados.
Figura 2.1 – Boxplot – Dados dos Navios
Pesquisa Naval Nº 16, Outubro de 2003
273
Os navios N1 e N2 pertencem a classe de navio A, enquanto que os navios N3 e N4
pertencem a classe de navio B. Consequentemente, os navios pertencentes a
determinada classe possuem sensores similares.
As ordenadas dos gráficos representam a distância de detecção em milhas naúticas
e apresentam escalas diferenciadas, porque as observações atípicas ou “outliers”
foram plotadas. A figura 2.1 b) apresenta a plotagem da detecção de um alvo de porte
médio a mais de 200 milhas de distância.
Ao observarmos o diagrama da figura 2.1 b) podemos observar que a distribuição
dos dados para alvos médios e grandes do navio N2 dificulta a discriminação das
distâncias médias de alvos médios e grandes.
A distribuição dos dados para os alvos médios dos navios N1 e N2 são bastante
similares, corroborando o fato de possuírem os mesmos sensores.
As distribuições dos dados para todos os tamanhos de alvo dos navios N3 e
N4 estão bastante similares quanto a simetria, conforme podemos evidenciar na
tabela 2.1.
Tabela 2.1 – Análise da Distribuição
Alvos
Alvos
Al
Navio/Dados
Pequenos
Médios
Gra
Curtose
0,419 Plati
0,277 Plati
0,219
N1
Assimetri 0,246 Esquerda
0,109
A
-0,374
a
Esquerda
Curtose
0,291 Plati
0,273 Plati
0,163
N2
Assimetri 0,126 Esquerda
0,218
A
-0,329
a
Esquerda
Curtose
0,259 Lepto
0,323 Plati
0,257
N3
Assimetri 0,054 Esquerda
0,0
B
-0,058 Direita
a
Esqu
Curtose
0,130 Lepto
0,229 Lepto
0,198
N4
Assimetri -0,022 Direita
0,0
B
a
u
274
Pesquisa Naval Nº 16, Outubro de 2003
A Tabela 2.2 apresenta um quadro comparativo das variáveis de mediana, média,
desvio padrão e quantidade de detecções, baseadas nas observações dos dados
iniciais, sem filtro; e dos dados filtrados utilizando a metodologia anterior pelo cálculo
da média ± 2σ dos dados iniciais e com a aplicação da ferramenta “boxplot”.
Tabela 2.2. Quadro comparativo
Alvos Pequenos
Alvos Médios
Alv
DadosMe Médi DP Obs Med Média DP Obs Med M
Navio
d
a
Iniciai 11, 13,5
17 17,
23,
8,7
19,2 9,7 50
s
4
9
8
N1 Antes 11 12,1
16 17,
23,
6,8
18,3 7,2 49
A
8
5
Boxpl 11, 13,5
17 17,
23,
8,7
18,3 7,2 49
2
ot
4
8
6
Iniciai 13 14,4
11 21,
18, 16 20,
8
23
s
7
5
1
4
8
N2 Antes 12, 13,7
11 21,
16 20,
7,1
21,8 7,6
A
9
3
4
3
7
Boxpl 13 14,1
11 21,
16
7,5
21,9 7,4
20 1
ot
6
5
2
Iniciai 18, 19,8
61 29,
15 30,
8,5
29,7 9,6
s
5
5
2
1
N3 Antes 18 18,4
57 29,
15
7
29,3 8,3
35
B
3
1
Boxpl 18, 19,4
60 29,
15 35,
8,1
29,3 8,3
3
ot
4
3
1
1
Iniciai 14 15
56 25,
20 27,
6,5
26
7
s
5
0
4
51 25,
15
N4 Antes 13, 13,4
4,1
25,4 6
34
1
1
0
B
Boxpl 13, 12,9
49 25,
19 34,
3,2
25,6 6,3
3
ot
1
3
4
1
Cabe ressaltar as seguintes considerações observando a tabela 2.2:
A variação da mediana calculada com os dados iniciais e com os dados após a
filtragem é bem menor do que a variação do cálculo da média. Isto corrobora o fato
da mediana ser uma medida bem mais resistente à introdução de valores atípicos
(“outliers”) do que a média e o desvio padrão;
2. O desvio padrão calculado após a filtragem dos dados foi, consideravelmente,
menor do que o calculado com os dados iniciais;
3. A média calculada de detecções de alvos médios foi maior do que a média calculada
para alvos grandes para os meios N1 e N3. Entretanto, quando analisamos o
1.
Pesquisa Naval Nº 16, Outubro de 2003
4.
5.
6.
275
cálculo da mediana, observamos que as diferenças entre os valores de detecção
de alvos médios e grandes são menores;
Excetuando-se nas ocasiões em que houve interferência direta do analista na
filtragem dos dados utilizando a metodologia anterior, o número de observações
da amostra após a filtragem dos dados aplicando o “boxplot” é geralmente menor.
Entretanto, os resultados obtidos de média e desvio padrão através das duas
metodologias são bem próximos, conforme podemos evidenciar na tabela 2.2 para
os dados de alvos médios do navio N5;
Nas detecções dos meios N1 e N3 para alvos médios e grandes, observou-se que
o aspecto do alvo da maioria das detecções de alvos médios considerados eram
de través enquanto que a grande maioria das detecções dos alvos grandes
apresentavam aspecto de proa ou de popa. Foi considerado aspecto de través
quando o alvo estivesse marcando o navio da MB no arco 045º a 135º ou 225º a
315º relativos e de proa/popa nos outros intervalos; e
A metodologia anterior para o filtro dos dados utilizando a média ± 2σ dos dados
iniciais necessita da interferência do analista visto que as duas medidas calculadas
baseadas nos dados iniciais são afetadas, de forma exagerada, por valores atípicos,
enquanto que a metodologia do “boxplot” independe do analista.
CONCLUSÕES E COMENTÁRIOS FINAIS
Este trabalho desenvolveu-se no sentido de aplicar a ferramenta “boxplot” para a
análise da distribuição, visando a fornecer medidas mais resistentes a valores extremos
e a minimizar a interferência do analista na identificação e filtro dos valores atípicos
denominados “outliers”. Ficou evidenciado que o enfoque baseado no diagrama
esquemático aplicado facilita a avaliação da distribuição, a identificação dos “outliers”,
e a identificação de conflitos de dados. Por outro lado, a classificação das distâncias
de detecção no banco de dados quanto ao aspecto que o alvo estiver apresentando
por ocasião da detecção, ou seja, de través, de proa ou de popa, tornaria os resultados
mais realistas, visto que consideraria a seção reta RADAR do alvo, que é fundamental
na determinação da distância de detecção.
REFERÊNCIAS BIBLIOGRÁFICAS
[1] Tukey, J. W. “Box-and-Whisker Plots in Exploratory Data Analysis”. Reading,
MA: Addison-Wesley, pp. 39-43, 1977.
[2] Chambers, J.; Cleveland, W.; Kleiner, B.; and Tukey, P. “Graphical Methods for
Data Analysis”. Belmont, CA: Wadsworth, 1983.
[3] Hoaglin D. C., Mosteller F. & Tukey J. W. “Understanding Robust and Exploratory
Data Analysis”. John Wiley and Sons, New York, 1983.
[4] Morettin P. A. & Bussab W. O., “Estatística Básica”, Atual editora, São paulo,
1987.
276
Pesquisa Naval Nº 16, Outubro de 2003
Instituto de Pesquisas da Marinha
(IPqM)
O IPqM vem realizando, apoiando e incentivando atividades de pesquisa científica e desenvolvimento tecnológico, contribuindo, dessa forma, para a obtenção de
sistemas, equipamentos, componentes, materiais e técnicas apropriadas às atividades
da Marinha do Brasil. Duas áreas fundamentais exercem influência diretamente sobre
atividades de Pesquisa e Desenvolvimento (P&D): - a primeira delas, o Material, possui como objetivo primordial a nacionalização dos meios, possibilitando a criação e
desenvolvimento de capacitação no setor da indústria, seja ele privado ou governamental, de modo a atingir a provisão de materiais com especificações militares; - a
segunda, a de Pessoal, tem por meta o estabelecimento de um quadro de competência,
que venha a possibilitar o desenvolvimento das atividades-fim constantes nos projetos estipulados, criando sistemas e controlando as demais tarefas que constam da
primeira área. Em ambas, o Instituto tem por norma enfatizar o intercâmbio e colaboração com instituições privadas e governamentais congêneres.
O Departamento de Pesquisa do IPqM exerce a atividade-fim do Instituto e conta
com os seguintes Grupos no desenvolvimento de suas atividades científicas: Grupo
de Armas; Grupo de Guerra Eletrônica; Grupo de Acústica Submarina; Grupo de Sistemas Digitais; e Grupo de Materiais.
PRINCIPAIS PROJETOS
* Foguete de Chaff
* Alvo Sonar
* Classificação de Contato Sonar
* Equipamento de Contramedidas Eletrônicas Radar CME
* BOROC / FAS 375 mm
* Gerador de Alvos Radar
* Testador de Martelo Acústico
* Mina de Fundeio de Contato MFC-100
* Sistema de Previsão de Alcance Sonar
* Sistema de Controle Tático SICONTA
* Sistema de Simulação Tática e Treinamento SSTT
* Elementos Transdutores Piezoelétricos
* Unidades de Varredura e Morse Automáticas UVA e UMA
Instituto de Pesquisas da Marinha
Rua Ipirú, s/nº - Praia da Bica – Ilha do Governador
CEP 21931-090 – Rio de Janeiro – RJ – Brasil
Fone: (021) 3396-2004 – Fax: (021) 3396-2240
E-mail: [email protected] - Telex: (021) 53113/4/5
XXII
Capítulo
COMPLEMENTANDO DEA COM O CÁLCULO PROBABILÍSTICO DE
PRODUTIVIDADES GLOBAIS NA COMPARAÇÃO DE DESEMPENHOS EM UM
SEGMENTO DO SETOR PÚBLICO
CC CLEBER ALMEIDA DE OLIVEIRA
Centro de Apoio a Sistemas Operativos – CASOP
e-mail: [email protected] ou [email protected]
ANNIBAL PARRACHO SANT’ANNA
Universidade Federal Fluminense
Tel: 5521-27291803 Fax: 5521-2748731
e-mail: [email protected]
1. RESUMO
Neste trabalho, se analisa a estrutura de avaliação do desempenho em um
segmento do setor público, o Sistema de Saúde da Marinha, no que diz respeito aos
serviços odontológicos. A Análise Envoltória de Dados (DEA) e o cálculo
probabilístico de produtividades globais são propostos como formas de introduzir
os aspectos da produtividade na avaliação. A comparação das duas abordagens é
interessante neste contexto, pela grande variabilidade das unidades de prestação
de serviços analisadas.
Palavras-chave: Análise Envoltória de Dados – Cálculo de Probabilidades Produtividades Globais
ABSTRACT
Efficiency in the public sector, frequently, rather involves applying every
available resource and reasonably serving all kind of demand than optimizing specific
output production or specific input consumption. From this point of view, Data
278
Pesquisa Naval Nº 16, Outubro de 2003
Envelopment Analysis (DEA) is here compared to the probabilistic calculation of
global productivity, as a tool for evaluation of dentists services in units of very
different dimensions. The results obtained show the potential of the techniques applied
to detect heterogeneity in the set of evaluated units and stochastic errors in the
registers.
Keywords: Data Envelopment Analysis – Probability – Productivity
2. INTRODUÇÃO
DEA pode ser complementada com o cálculo probabilístico de produtividades
globais, como ferramenta para avaliação de unidades prestadoras de serviços. Isto é
feito neste trabalho para avaliar a produtividade em serviços odontológicos em
unidades de dimensões muito diferentes. Os dados utilizados se referem a apenas três
variáveis: número de dentistas, número de consultórios e consultas realizadas e são
extraídos de relatórios do Sistema de Saúde da Marinha Brasileira dos anos de 1996 a
2000. Na Seção 3, são apresentados os conceitos e os modelos básicos da DEA, são
desenvolvidos os princípios do cálculo probabilístico de produtividades globais, e
descrevem-se os aspectos do Sistema de Saúde da Marinha, relevantes para a análise
de produtividade do setor odontológico; na Seção 4, aplicam-se a metodologia da
DEA e o cálculo probabilístico das produtividades globais aos dados disponíveis; na
Seção 5, são apresentados comentários finais.
3. METODOLOGIA
3.1 ANÁLISE ENVOLTÓRIA DE DADOS
3.1.1 Introdução
No caso de um único produto de um único insumo, a avaliação da produtividade
de cada unidade de produção pode ser feita comparando com a produtividade média.
Isto corresponde a tomar como medida de eficiência a distância ou magnitude do
desvio da unidade à reta de regressão linear simples. Em vez disto, DEA usa programação
matemática para medir a eficiência em termos de distância a uma fronteira de eficiência.
No caso de mais de um produto ou mais de um recurso, a idéia da DEA é a mesma.
DEA pode ser usada sempre que houver interesse em avaliar a produtividade
relativa de unidades comparáveis que utilizem um mesmo tipo de entradas (insumos),
com o propósito de produzir um mesmo tipo de saídas (produção efetiva), ou seja,
quando se possa partir do pressuposto de que é possível medir o desempenho de
unidades que, possuindo diferentes gerenciamentos, almejam objetivos semelhantes
e operam sob as mesmas condições.
O foco da DEA está nas observações individuais. A busca da fronteira de
melhores práticas onde se identificam as referências de desempenho para cada unidade
tomadora de decisão (DMU), individualmente, fornece novas formas de organizar e
Pesquisa Naval Nº 16, Outubro de 2003
279
analisar dados, podendo revelar relações não captadas por outras técnicas. As unidades
produtivas na fronteira de eficiência constituem benchmarks para as demais unidades.
As principais características da DEA são: os modelos podem ter múltiplos
insumos e múltiplos produtos; outliers não são vistos como desvios acidentais, mas
como possíveis benchmarks a serem tomados como referência pelas demais DMUs;
para cada observação individual se resolve um problema de programação linear com o
objetivo de determinar uma fronteira linear por partes que compreende o conjunto das
DMUs eficientes.
3.1.2. Modelos Básicos de DEA
A Análise Envoltória de Dados possui três modelos básicos: o modelo de
retornos constantes de escala (CRS), de Charnes, Cooper e Rhodes (1978), o modelo
de retornos variáveis de escala (VRS), de Banker, Charnes e Cooper (1984) e o modelo
aditivo, de Charnes et alii (1985). Os dois primeiros modelos podem ser orientados para
a redução das quantidades empregadas de insumos (e inputs) ou para o aumento das
quantidades resultantes de produtos (outputs).
Na sua essência, os vários modelos de DEA determinam o subconjunto das
DMUs que compõem a superfície envolvente ou fronteira de eficiência dos dados
observáveis. Como será visto posteriormente, a forma geométrica desta superfície
envolvente é determinada pelo modelo de DEA utilizado. Uma DMU é considerada
eficiente se pertencer a essa fronteira extrema. As DMUs que não pertencem a essa
envolvente são ditas ineficientes e recebem uma medida de eficiência relativa.
Podemos imaginar os modelos DEA como mecanismos de projeção, assim a
solução do problema de programação linear de uma determinada DMUk, representada
pelo seu par de vetores de inputs e outputs,
(xk ,y k ) ,
fornecerá um ponto
projetado ( xˆ K , yˆ K ) na fronteira de eficiência. Quando (xk ,y k ) = ( xˆ K , yˆ K ) , a DMUk
é eficiente. Caso contrário, pode, teoricamente, ser substituída por combinação linear
de DMUs eficientes. Modelos diferentes obtêm pontos de projeção distintos para as
unidades ineficientes.
3.1.3. Modelo CRS
O modelo CRS, proposto por Charnes, Cooper e Rhodes (1978), é o que deu
origem às técnicas de DEA. Neste modelo, a eficiência é o quociente de uma soma
ponderada dos outputs por uma soma ponderada dos inputs. Na orientação para a
minimização do input, a projeção na fronteira se movimenta para a superfície da
envoltória para, fixos os outputs, minimizar os inputs, enquanto, na orientação para a
maximização do output, objetiva, fixos os inputs, maximizar os outputs. Apresentamos
abaixo o problema de programação linear utilizado para determinar a eficiência no
modelo CRS orientado para a mimização do input.
280
Pesquisa Naval Nº 16, Outubro de 2003
s
Max Pk = ∑ u rk y rk
r =1
Sujeito a :
m
∑v
i =1
ik
xik = 1
s
m
r =1
i =1
∑ u rk y rj − ∑ vik xij ≤ 0
j = 1, K , n
u r , vi ≥ 0 ∀ r ,
onde j, variando de 1 a n, representa DMU do conjunto observado, r, variando de 1 a
s, representa saída, i, variando de 1 a m, representa entrada, Y rj representa quantidade
observada da saída r produzida pela unidade j e X ij representa quantidade observada
da entrada i usada pela unidade j.
2Os pesos achados, ur e vi são próprios da DMU em análise. Este processo é repetido
para cada uma das n DMUs, obtendo-se diferentes valores para ur e vi.
3.1.4. Modelo CRS para Minimização dos Inputs (CRS-MI)
Na formulação CRS-MI, a eficiência da uma DMU qualquer é calculada
determinando os vetores de multiplicadores ur e vi para os quais esta unidade aparece
mais próxima da fronteira determinada pelos quocientes de inputs e outputs agregados.
O problema consiste em achar os valores das variáveis ur e vi que maximizam a soma
ponderada das saídas (saída virtual) dividida pela soma ponderada das entradas
(entrada virtual) da DMU em estudo, sujeito à restrição de que esse quociente seja
menor ou igual a 1 para todas as DMU’s. Deste modo as DMU’s eficientes serão as que
obtiverem o valor 1.
O problema de programação linear abaixo representa a versão dual, conhecido
como modelo do Envelope, do problema dos multiplicadores. Embora ambos cheguem
ao mesmo resultado no que diz respeito à produtividade relativa, P k no problema dos
multiplicadores e Tk no problema do envelope (Pk=Tk), a versão primal enfatiza os
multiplicadores virtuais u e v, enquanto a versão dual enfatiza as folgas e a relação
entre a unidade que está sendo avaliada com as outras unidades.
Pesquisa Naval Nº 16, Outubro de 2003
Min Tk = hk − ε
m
∑ Fik− − ε
i =1
281
s
∑F
r =1
+
rk
Sujeito a :
n
∑λ
j =1
jk
y rj − Frk+ = y rk
jk
xij + Fik− = hk xik
n
∑λ
j =1
r = 1, K, s
i = 1, K, m
λ jk ≥ 0,
j = 1,K, n
Fik− ≥ 0
i = 1,K, m
+
rk
F ≥0
r = 1, K, s
Aqui, hk representa a redução proporcional dos inputs, λjk representa o peso
+
da j-ésima unidade de referência, Frk representa a folga para a restrição do r-ésimo
output e
Fik−
representa a folga para a restrição do i-ésimo input.
3.1.5. Modelo VRS
A distinção essencial do modelo VRS, em relação ao modelo CRS, é a proibição
de produzir unidades de referência apenas expandindo ou apenas encolhendo unidades
observadas. Isto é obtido através da inclusão da restrição de convexidade nos
coeficientes das unidades de produção de referência. Enquanto no modelo CRS estes
coeficientes podem ser números positivos λjk quaisquer, no modelo VRS devem
n
satisfazer a restrição
∑λ
j =1
jk
=1 .
3.1.6. Modelo Aditivo
No modelo aditivo se maximiza a soma das diferenças entre as coordenadas
(X k ,Yk )
da unidade avaliada e do ponto projetado
( Xˆ K , YˆK ) na fronteira de
eficiência.
Nos modelos orientados, são reduzidos ou aumentados na mesma proporção
todos os fatores até à superfície envolvente. O modelo aditivo só mede o excesso dos
inputs e o déficit dos outputs em que uma determinada DMU opera. Se o ponto projetado
282
Pesquisa Naval Nº 16, Outubro de 2003
( Xˆ K , YˆK ) e o ponto em análise (X k ,Yk )
forem coincidentes, então este ponto
pertence à fronteira de eficiência. Neste caso, as folgas serão nulas e, por conseguinte,
o valor ótimo encontrado para o problema de programação linear será nulo. Uma DMU
será eficiente no modelo aditivo se e somente se for eficiente nos modelos VRS.
3.2 CÁLCULO PROBABILÍSTICO DE PRODUTIVIDADES GLOBAIS
e:3.2.1 Introdução
A DEA não leva em conta a possibilidade de erros aleatórios nas medidas dos
recursos e produtos. As medidas de eficiência apresentadas nesta seção preenchem
esta lacuna. São constituídas, basicamente, na orientação da maximização do output,
pela probabilidade de a unidade de produção apresentar o volume máximo em algum
produto e não apresentar o volume mínimo em nenhum insumo e, na orientação para a
minimização do input, a probabilidade de a unidade de produção apresentar o menor
volume em algum insumo e não apresentar o maior volume em nenhum produto.
Variantes destas medidas que se afastam mais do critério básico da DEA se
aplicam melhor aos casos em que não se lida com variáveis associadas entre si como
recursos e produtos. Uma delas é a probabilidade de apresentar o melhor desempenho
em algum critério, seja através da maximização do volume de algum output ou da
minimização do volume de algum input, e aplica-se melhor ao caso de uma coleção de
critérios independentes. Outra alternativa é mais bem aplicável ao caso em que se
deseja otimizar o desempenho em cada um de dois ou mais blocos de critérios, sejam
estes blocos constituídos um de recursos e outro de produtos ou constituídos de
outra forma qualquer. Neste caso, a medida global seria dada pelo produto das
probabilidades de apresentar o melhor desempenho em algum dos critérios de cada
bloco.
Finalmente, a alternativa mais adequada à maior parte das situações do setor
público considera importante evitar o desperdício de todo recurso incluído no modelo
assim como evitar a insatisfação da demanda por qualquer produto. Neste caso, a
preocupação em exibir o desempenho ótimo é substituída pela de maximizar o
afastamento da fronteira dos desempenhos a evitar, quais sejam, os de maiores valores
de inputs e de menores valores de outputs.
Dependendo do critério e do número de unidades de decisão consideradas,
estas probabilidades podem ficar todas longe de 1. Para evitar isto, utilizamos medidas
padronizadas, dividindo pela medida de eficiência da unidade mais eficiente.
3.2.2. Maximização dos Outputs
O critério de maximização dos outputs se aplica às situações freqüentes na
administração pública em que dotações orçamentárias são estabelecidas
antecipadamente em montantes reduzidos para o atendimento de toda a demanda de
serviços enfrentada pela unidade de decisão. O gerenciamento do consumo de recursos
consiste simplesmente em evitar ultrapassar os limites estabelecidos pelas dotações
Pesquisa Naval Nº 16, Outubro de 2003
283
orçamentárias recebidas, em torno das quais a margem de manobra é muito estreita. A
eficiência na administração dos recursos está, neste caso, em elevar a produtividade
de modo a atender o máximo das solicitações recebidas.
Se desejamos, como na DEA, assegurar ao tomador de decisão plena flexibilidade
na escolha da mistura de produtos que prefere oferecer, a abordagem probabilística
combinará as condições aqui descritas na exigência, de um lado, de elevar a
probabilidade de atingir a fronteira de produção em algum produto e, de outro, de
reduzir a probabilidade de ultrapassar os tetos de utilização de todos os recursos.
Formalmente a medida de produtividade global orientada para a maximização
do output é, então, dada, para a unidade j-ésima, por Π(1-Qkj) * [1- Π(1-Plj)], onde k,
indicando um insumo genérico, é o índice dos fatores do primeiro produtório, l indica
um produto genérico e é o índice dos fatores do segundo produtório, Qkj representa a
probabilidade de o volume do k-ésimo input na j-ésima unidade ser o maior de todos e
Plj representa a probabilidade de o volume do l-ésimo output na j-ésima unidade ser o
maior de todos.
3.2.3. Minimização dos Inputs
Ao contrário do critério de maximização dos outputs, o de minimização dos
inputs se aplica às situações que ocorrem em outras áreas do setor público nas quais
é a demanda que precisa ser atendida que é fixada antecipadamente, variando em uma
faixa de valores sobre a qual o administrador não tem controle. Neste caso, é o
gerenciamento dos resultados que não admite preocupação de ordem quantitativa
com a eficiência. A produtividade se eleva, neste caso, reduzindo o consumo de
recursos.
Neste caso, se desejamos assegurar ao tomador de decisão plena flexibilidade
na composição dos volumes de recursos que prefere oferecer, a abordagem
probabilística combinará as condições aqui descritas na exigência, de um lado, de
elevar a probabilidade de atingir a fronteira de eficiência em algum recurso e, de outro,
de reduzir a probabilidade de ficar abaixo dos patamares de produção relativamente a
todos os produtos.
Formalmente a medida de produtividade global orientada para a minimização
dos inputs é, então, dada, para a unidade j-ésima, por [1- Π(1-Pkj)] * Π(1-Qlj), onde k e l
são como no caso anterior, Pkj representa a probabilidade de o volume do k-ésimo input
utilizado pela j-ésima unidade ser o menor de todos e Qlj representa a probabilidade de
o volume do l-ésimo output produzido pela j-ésima unidade ser o menor de todos.
3.2.4. Maximização dos Outputs e Minimização dos Inputs
Para combinar os objetivos de maximizar os outputs e minimizar os inputs, a
abordagem probabilística oferece duas alternativas. A primeira, a ser aplicada quando
há também interesse em cada um dos objetivos isolados de maximização dos outputs e
de minimização dos inputs, consiste em calcular uma média da produtividade global
orientada para a maximização dos outputs com a produtividade global orientada para a
minimização dos inputs.
284
Pesquisa Naval Nº 16, Outubro de 2003
A segunda é mais simples e é naturalmente aplicada quando, não podendo
ocorrer as situações de limitada margem de manobra na utilização dos recursos nem na
produção de resultados, os índices anteriores não terão sido calculados. Consiste em
maximizar simultaneamente a probabilidade de atingir a fronteira de máxima produção
de saídas e a fronteira de mínima utilização de entradas. Formalmente, esta medida será
dada [1- Π(1-Pkj)] * [1- Π(1-Plj)], onde, no primeiro produtório, temos um fator para cada
recurso, representado pelo índice k, e, no segundo produtório, um fator para cada
produto, representado pelo índice l, Pkj e Plj como acima.
3.2.5. Maximização em algum Critério
Podemos considerar, ainda, o caso em que se deseja oferecer ao administrador
plena liberdade na escolha da estratégia de elevação da produtividade, podendo fixarse tanto na simples minimização de um input quanto na maximização de um output. A
medida probabilística de produtividade global para este caso será dada pela
probabilidade de atingir o valor mais alto em algum output ou atingir o valor mais baixo
em algum input.
Formalmente, esta medida será dada por Π(1-Pij), onde i é o índice do produtório
e varia ao longo de todo o conjunto de variáveis representativas tanto de insumos
quanto de produtos considerados e Pij indica a probabilidade de atingir o valor mais
alto observado para a variável i-ésima se esta representar um produto ou o valor mais
baixo se esta representar um insumo.
3.2.6. Afastamento da Fronteira de Ineficiência
A última situação, mais distante da perspectiva da DEA, é mais comum quando
se trata de administrar os recursos disponibilizados pelo setor público, nenhum dos
quais pode ser empregado acima dos limites orçamentários, para atender uma demanda
que não pode ser negligenciada quanto a nenhum produto. Nestes casos, nas variáveis
mais difíceis de administrar eficientemente, deverá aparecer assimetria, com
concentração e valores próximo ao patamar de eficiência mínima permitida.
Com a rarefação da distribuição no lado eficiente, torna-se mais seguro medir
o desempenho pelo afastamento da fronteira de eficiência que pela proximidade da
fronteira de eficiência. Por exemplo, um único valor, equivocadamente registrado na
vizinhança de um valor para a mesma variável em uma unidade de fato muito eficiente,
afetará fortemente a probabilidade desta atingir a fronteira de eficiência, enquanto
afetará muito pouco sua probabilidade de ocupar a fronteira de ineficiência. Um critério
adequado a esta situação deve, então, basear-se nas probabilidades de se afastar da
fronteira de ineficiência em vez de nas probabilidades de atingir a fronteira de excelência.
A medida global será, então, o produto das probabilidades de não apresentar o pior
desempenho, isto é, a probabilidade de não atingir o valor mais alto em nenhum input
e não atingir o valor mais baixo em nenhum output.
Formalmente, esta medida será dada por Π(1-Pij), onde i é o índice do produtório
e varia ao longo de todo o conjunto de variáveis representativas tanto de inputs
quanto de outputs considerados e Pij indica a probabilidade de atingir o valor mais alto
Pesquisa Naval Nº 16, Outubro de 2003
285
observado para a variável i-ésima se esta representar um input ou o valor mais baixo se
esta representar um output.
3.3. SISTEMA DE SAÚDE DA MARINHA – SSM
3.3.1. Introdução
O avanço mais recente das organizações estatais em direção à qualidade tem
características próprias, discutidas, no que afeta os sistemas de saúde, em Anderson
(1997) ou Pauley (1998), por exemplo. Esse movimento esbarra, principalmente, na falta
do referencial de lucratividade e no caráter abstrato e de longo prazo dos resultados a
serem alcançados. Procura-se suprir tal falta com indicadores parciais de desempenho.
Exemplos de tais indicadores, atualmente calculados na Diretoria de Saúde da Marinha
são taxas de ocupação, mortalidade, infecção hospitalar, nº procedimentos médicos e
odontológicos, etc, e indicadores de custo das unidades. A avaliação dos setores
odontológicos das unidades hospitalares leva em conta, no momento, apenas, a
evolução do número de consultas. Neste contexto, indicadores de produtividade global
oferecem subsídios para análises mais completas.
3.3.2. Dados Utilizados
Para tentar evitar que particularidades operacionais comprometessem a
homogeneidade do conjunto de DMUs, este estudo se restringe às unidades que
assistem os militares e seus dependentes. Isto reduz o conjunto analisado a nove
unidades, 3 unidades ambulatoriais no Rio de Janeiro: HCM, OCM, PNNSG e 6 hospitais
fora do Rio de Janeiro: HNSA, HNRE, HNNA, HNBE, HNLA, HNBR.
3.3.3. Variáveis Consideradas
Há um total de 26 indicadores disponíveis, relativamente ao período analisado,
de 1996 a 2000.Estas variáveis, embora estivessem disponíveis, não foram usados na
análise de produtividade do setor odontológico naqueles anos. Segue a relação dos
mesmos: Média mensal do número de cirurgiões dentistas; Média mensal do número
de cirurgiões dentistas efetuando atendimento; Total de dias úteis de efetivo
atendimento; Média mensal do número de consultórios odontológicos operantes;
Média mensal do número de aparelhos de raios-X odontológicos operantes; Prazo
médio mensal de marcação de consultas; Percentual médio mensal de absenteísmo;
Média mensal de cirurgiões-dentistas pertencentes ao Corpo de Saúde da Marinha;
Número médio mensal de cirurgiões-dentista da reserva não-remunerada; Média mensal
do efetivo de cirurgiões-dentista civis; Número médio mensal de cirurgiões-dentista
com tempo certo de contrato; Média mensal do efetivo de técnicos dentais; Total de
recursos financeiros, em reais, alocados para a unidade; Total de altas gerais de
pacientes; Total de altas das clínicas; Total de procedimentos efetivamente realizados;
Total de consultas realizadas; Número de perícias odontológicas realizadas; Número
de procedimentos radiológicos realizados; Total de pacientes atendidos; Total de
pacientes militares da ativa atendidos; Total de pacientes militares da inativa atendidos;
Total de pacientes dependentes de militares atendidos; Total de pacientes civis
286
Pesquisa Naval Nº 16, Outubro de 2003
atendidos; Total de pacientes pensionistas atendidos; Total de pacientes não
cadastrados atendidos.
4. EFICIÊNCIA DOS SETORES ODONTOLÓGICOS
4.1. Introdução
A modelagem aqui desenvolvida permite preencher algumas lacunas na análise
dos desempenhos das unidades prestadoras de serviço, contribuindo na gerência de
processos do Sistema de Saúde da Marinha. Com a introdução do conceito de
produtividade relativa, fornece novos subsídios para o planejamento.
A metodologia proposta segue as seguintes etapas: 1) elaboração de um
quadro resumo das DMUs analisadas, com seus insumos e produtos considerados,
formando um conjunto de entradas e de saídas; 2) identificação da orientação a ser
dada ao modelo: minimização dos inputs ou maximização dos outputs; 3) determinação
da produtividade relativa de cada unidade em cada ano.
4.2. Entradas e Saídas
Consideramos aqui que, quanto maior o valor dos outputs de uma determinada
unidade, melhor será a sua performance. Da mesma forma, foram consideradas insumos
todas as variáveis cujos valores devem ser os menores possíveis para que a performance
seja melhor. Com esse raciocínio, as treze primeiras variáveis foram consideradas como
insumos, e as treze últimas como produtos.
A relevância e a confiabilidade dos dados disponíveis determinam a seleção
das variáveis. Examinando os dados e ouvindo especialistas, chegamos às seguintes
conclusões:
i) Os efetivos médios de dentistas militares e civis em determinada unidade
só seriam úteis se fossem disponíveis os números de horas trabalhadas. Algumas
unidades trabalham com profissionais vinculados a cooperativas e com tempo certo
de contrato dificultando a análise dos indicadores representados pelos números de
cirurgiões dentistas de cada classe. A média de dentistas atendendo envolve a contagem
dos profissionais nos turnos da manhã, tarde e noite, mas, alguns profissionais
trabalham em um único turno enquanto outros em dois. Alguns hospitais trabalham
com cooperativas onde teoricamente não ocorrem folgas ou faltas.
ii) A variável Total de Procedimentos engloba os procedimentos
radiológicos, tornando esta última variável dispensável, e o fator Total de Aparelhos
de Raios-X Odontológico Operantes é irrelevante, porque, na maioria dos hospitais,
ocorre um rodízio no funcionamento desses aparelhos.
Total de Pacientes Atendidos é a soma dos atendimentos dos militares da ativa e
inativa, dependentes, civis, pensionistas e outros não cadastrados; visto que não
importa a composição da população atendida, mas apenas o volume do atendimento,
estas últimas variáveis também são dispensáveis. Por seu turno, o total de recursos
alocados só pode ser medido globalmente, sem discriminar o montante aplicado somente
no setor odontológico, não sendo, por isto, elucidativo para o nosso estudo.
Pesquisa Naval Nº 16, Outubro de 2003
287
iii) Algumas variáveis julgadas importantes para o estudo, tais como efetivo
de técnicos, total de perícias odontológicas e totais de altas, não podem ser incluídas
na análise devido à não padronização da coleta dos dados pelas unidades avaliadas
ou a particularidades dos hospitais.
iv) O prazo médio de marcação de consultas não deve ser considerado na
avaliação da produtividade porque só depende da demanda. Onde haja grande número
de usuários, certamente haverá necessidade de marcação de consultas para organizar
o atendimento. O absenteísmo só ocorrerá se houver marcação de consultas e será alto
quando o prazo de marcação de consultas for longo.
v) Os dados coletados referentes a número de dias úteis de alguns meses
são nulos em várias unidades, embora conste atendimento de dentista nestes
meses. Em outros meses, os dados relativos a dentistas atendendo são nulos,
indicando omissão do registro. Alguns dados de procedimentos ora são nulos, ora
muito elevados. Além disto, os dados relativos ao total de consultas no ano e total
de pacientes no ano são iguais, sendo necessário uma melhor operacionalização
desta última variável.
Após a eliminação em decorrência desses fatores, da lista inicial
permanecemos com apenas duas variáveis de entrada, o efetivo médio de cirurgiões
dentistas e o número de consultórios odontológicos operantes, e uma de saída, o
total de consultas no ano. A tabela 4.1, a seguir, apresenta as correlações entre as
variáveis. As correlações entre as duas variáveis de entrada são elevadas, indicando
que recursos humanos especializados e instalações são utilizados em proporções
semelhantes. Observam-se, também, correlações elevadas entre as variáveis de
entrada e a variável de saída.
Tabela 4.1 – Análise de Correlação entre Variáveis
Nº Dentistas
Nº Dentistas
Nº Consultórios
Nº Consultas
1
0,97
0,98
Nº Consultórios
Nº C
1
0,97
As figuras 4.1 e 4.2 apresentam as eficiências parciais no modelo DEA VRS,
em relação a cada um dos inputs, considerando-se os dados coletados, anualmente, de
cada unidade hospitalar avaliada. Ao calcularmos a eficiência parcial em relação ao
número de dentistas, Figura 4.1, verificamos que as DMUs HCM-96, OCM-00, HNRE00 e HNLA-96 pertencem à fronteira de eficiência. No cálculo da eficiência parcial em
relação ao número de consultórios, Figura 4.2, verificamos que as DMUs HNRE-00 e
OCM-00 pertencem à fronteira de eficiência.
288
Pesquisa Naval Nº 16, Outubro de 2003
Figura 4.1 - Eficiência Parcial em Relação ao Nº de Dentistas
Figura 4.2 - Eficiência Parcial em Relação ao Nº de Consultórios
4.3. Orientação dos Modelos e Determinação das Eficiências
Estabelecemos nossos objetivos em termos de maximização dos outputs que
poderão ser obtidos com um dado nível dos inputs. Isto se justifica porque, para as
unidades analisadas, alterações nos insumos não são fáceis, dependendo de ações
fora do controle das unidades.
Pesquisa Naval Nº 16, Outubro de 2003
289
Todos os cálculos foram feitos empregando o ‘software’ Efficiency
Measurement System (EMS) versão 1.3, que utiliza o algoritmo de pontos interiores. O
EMS está disponível para download no site http://www.wiso.uni-dortmund.de/lsfg/
or/schell/ems/.
Como o mecanismo de projeção escolhido tem por objetivo a maximização
dos outputs, o aplicativo empregado segue a norma de apresentar os resultados das
ineficiências em valores superiores a 1, com a eficiência crescendo à medida que nos
aproximamos de 1. Esses resultados são aqui apresentados invertidos para facilitar a
sua comparação com os obtidos através da abordagem probabilística.
4.4. Resultados dos Modelos CRS e VRS
A tabela abaixo resume os valores de eficiência relativa obtidos nas análises
dos modelos CRS para as 9 unidades hospitalares, nos anos de 1996 a 2000.
Tabela 4.2 – Eficiências no Modelo CRS
ANO
1996
1997
1998
1999
2000
HCM
100%
100%
96,9%
89,0%
57,6%
HNBE
69,7%
46,6%
33,5%
64,3%
55,0%
HNBR
100%
91,1%
42,8%
50,9%
39,6%
HNLA HNNA
95,9% 100%
86,1% 69,6%
100% 69,9%
100% 76,7%
67,4% 66,8%
HNS
93,2%
94,0%
56,7%
71,6%
62,2%
Quando o aumento de produção é proporcional ao dos inputs, há rendimentos
constantes à escala (CRS). Se o aumento dos outputs for superior ao aumento
proporcional, há rendimentos crescentes à escala (IRS) e, se o aumento for inferior, há
rendimentos decrescentes à escala (DRS). O tipo de rendimento à escala fica determinado
no modelo CRS pelo somatório dos pesos das unidades de referência (Banker e Thrall,
1992): se a soma dos λ for maior que 1 para todas as soluções ótimas alternativas,
então prevalecem rendimentos decrescentes à escala (DRS) no ponto projetado da
DMUk; se for menor que 1 para todas as soluções ótimas alternativas, então prevalecem
rendimentos crescentes à escala (IRS) no ponto projetado da DMU k; se for igual a 1
para alguma dessas soluções, então prevalecem rendimentos constantes à escala (CRS)
no ponto projetado da DMUk.
No modelo VRS, o rendimento à escala é determinado pelo coeficiente linear
do hiperplano suporte da unidade avaliada (Banker et alii, 1984). Banker e Thrall (1992)
mostraram que o sinal de
µ ok*
é igual ao sinal de 1 −
medida pelo modelo CRS for menor que 1.
∑
n
j =1
λ jk , quando a eficiência
290
Pesquisa Naval Nº 16, Outubro de 2003
Tabela 4.3 – Somatório dos Lambdas
DMU
HCM
HNBE
HNBR
HNLA
HNNA
HNSA
HNRE
PNNSG
OCM
1996
1
1,5
1
0,5
1
1,25
0,82
2,25
8
1997
1
1,61
1,33
0,67
1,01
1,41
1
2,49
7,73
1998
0,89
2
2
1
1,11
1,78
1,22
2,67
9,67
1999
1,1
1,8
2
1
1,1
1,5
1
3,5
9,7
A Tabela 4.3 sugere que algumas unidades operam em faixa de rendimentos
decrescentes de escala, sobretudo as duas unidades de maiores dimensões.
Rendimentos decrescentes de escala podem ocorrer devido às unidades maiores
realizarem procedimentos de maior complexidade ou possuírem mais funções de
administração geral, a serem exercidas por cirurgiões-dentistas. A análise dos resultados
da DEA, isoladamente, não permite, entretanto, avaliar estes possíveis fatores.
O caso extremo é o de OCM, que, com dimensões muito maiores que as dos
demais hospitais, pode ter sua ineficiência atribuída a rendimentos decrescentes de
escala. É o que se verifica, ao aplicar o modelo VRS, que, conforme explicado acima,
atribui eficiência 1 a todas as unidades com valores extremos. As eficiências segundo
o modelo VRS são mostradas na Tabela 4.4.
Tabela 4.4 – Eficiências no Modelo VRS
ANO HCM HNBE HNBR HNLA HNNA HNSA HNR
1996 100%
74,0%
100%
100%
100%
95,1% 53,7%
1997 100%
48,0% 99,9%
100%
69,7% 96,1%
1998 100%
38,8% 61,9%
100%
70,2% 63,1% 91,7%
1999 90,8% 71,3% 65,6%
100%
78,3% 77,4%
100%
2000 64,1% 65,3% 58,7% 67,4% 72,8% 77,2%
100%
100%
4.5. Comparação dos Resultados
Comparando-se os resultados obtidos, verifica-se variação expressiva de um
ano para o outro em determinadas unidades hospitalares. Isto pode ter ocorrido por
mudança na administração ou forte variação no número de militares destacados em
outras organizações militares, em licenças especiais ou em funções administrativas.
Pesquisa Naval Nº 16, Outubro de 2003
291
Pode, também, ser atribuído aos erros de registro. O que mais chama a atenção,
entretanto, são as mudanças nos resultados quando se passa da abordagem CRS para
a abordagem VRS, principalmente nas unidades que apresentam os dados dos inputs
bem acima da média das outras unidades tais como PNNSG e OCM. A Tabela 4.5.
aprofunda a análise dessas diferenças. Refere-se ao ano de 2000, mas a análise dos
anos anteriores produz resultados similares.
Tabela 4.5 – Pontos projetados e Percentuais das Folgas nos modelos CRS e VRS em
2000
MODELO CRS
Dent. Cons.o Cons.as
1
14
17
17,127
14
5,6
29,750
0,0% - 67,1% 73,7%
2 HNBE 55,0
18
12
21,025
18
7,2
38,244
0,0% - 40,0% 81,9%
3 HNBR 39,6
24
8
16,819
20
8
42,502
0,0%
152,7%
4 HNLA 67,4
10
5
14,332
10
4
21,254
0,0% - 20,0% 48,3%
5 HNNA 66,8
13
8
18,448
13
5,2
27,635
0,0% - 35,0% 49,8%
6 HNSA 62,2
20
11
26,420
20
8
42,510
0,0% - 27,3% 60,9%
7 HNRE 100% 10
4
21,250
10
4
21,250
0,0%
0,0%
0,0%
8 PNNSG 61,8
38
27
49,907
38
15,2
80,749
0,0% - 43,7% 61,8%
9 OCM 68,1
94
66
135,964
94
37,6
199,731
0,0% - 43,0% 46,9%
DMU
HCM
Efic.
57,6
MODE
Efic. Dent.
64,1% 14
14
0,0%
65,4% 18
18
0,0%
58,7% 24
15,4
67,4% 10
10
0,0%
72,5% 13
13
0,0%
77,2% 20
19,5
-2,5%
100% 10
10
0,0%
83,9% 38
38
0,0%
100% 94
94
0,0%
Na análise da eficiência parcial no modelo VRS em relação a cada input,
apresentada nas figuras 4.1 e 4.2, verificou-se que as DMUs HNRE-00 e OCM-00
292
Pesquisa Naval Nº 16, Outubro de 2003
pertenciam à fronteira de eficiência em ambos os gráficos. Assim, a análise do modelo
VRS nos conduz à conclusão de que HNRE deve ser considerada um benchmark para
as demais unidades do mesmo porte, enquanto OCM deve ser considerada um
benchmark dentre as unidades hospitalares de grande porte.
O estudo dos resultados obtidos até aqui revela, também, que a produtividade
calculada em termos de consultas realizadas relativamente ao número de dentistas
efetivo da unidade ainda é uma medida sujeita a distorções. Verificamos que o número
de consultórios disponíveis modifica substancialmente os resultados da comparação
que fosse feita exclusivamente em termos de produtividade dos recursos humanos.
Realmente, verifica-se, na Tabela 4.5, que é na eliminação das folgas na utilização dos
consultórios disponíveis que a eficiência da maior parte das DMUs poderia ser
aumentada. Logo, uma estratégia para elevar a eficiência envolveria, possivelmente, a
elevação do número médio de dentistas nas unidades, ao contrário do que a análise em
termos de produtividade simples indicaria.
4.6. Avaliações Probabilísticas
A análise dos resultados da DEA e das suas possíveis causas já nos permitiu
detectar os efeitos da inclusão no mesmo grupo de unidades de dimensões muito
diferentes. Há também a possibilidade de que distorções sejam devidas a efeitos de
erros nos registros. Esta última possibilidade sugere que se estenda a análise,
incorporando a avaliação probabilística. Tal análise não poderá eliminar o efeito da
estrutura, mas, reduzindo a influência das perturbações aleatórias, poderá atenuar ou
acentuar as diferenças registradas, conforme estas possam ou não ser atribuídas a
pequenas perturbações.
Realizamos apenas o cálculo da avaliação probabilística da produtividade global
do ponto de vista do afastamento da fronteira de ineficiência e do ponto de vista da
maximização do output. Como consideramos no modelo um único produto, a primeira
medida será calculada simplesmente multiplicando a probabilidade de não minimizar o
output pelas probabilidades de não maximizar cada um dos dois inputs. Na segunda,
no lugar da probabilidade de não minimizar o output entra a probabilidade de maximizálo.
Para estimar o desvio-padrão das distribuições, dado o pequeno volume de
dados disponíveis, assumimos idêntica distribuição para todas as perturbações da
mesma variável. A estimativa do desvio-padrão foi então produzida pelas médias das
estimativas para os desvios-padrão derivadas das séries de observações de cada
unidade para a variável considerada. Para derivar estas estimativas de pequenas
amostras utiliza-se a divisão das amplitudes amostrais pelo fator de conversão d2 =
2,326. As estimativas afinal obtidas são as da Tabela 4.6 abaixo.
Tabela 4.6. Estimativas para os Desvios-Padrão
Média de Dentistas
Consultórios
7,6
1,4
Pesquisa Naval Nº 16, Outubro de 2003
293
A Tabela 4.7 apresenta as medidas probabilísticas de afastamento da fronteira
de ineficiência e a Tabela 4.8 as de produtividade global do ponto de vista da maximização
dos outputs. Nas Tabelas 4.7 e 4.8 aparecem mais claramente as fortes diferenças
existentes entre as unidades comparadas. Ficam também acentuadas as diferenças
entre anos consecutivos em algumas unidades. Isto remete a busca de explicação a
duas possíveis causas: erros grosseiros nos registros ou mudanças radicais na atuação
de unidades relativamente pequenas. Fica também clara a posição de OCM e PNNSG
como unidades não comparáveis com as demais, pelas suas dimensões. A adição de
outras informações objetivas e a revisão dos dados incorretos deverá deslocar a análise
em outras direções.
Tabela 4.7 - Afastamento Probabilístico da Fronteira de Ineficiência
ANO HCM HNBE HNBR HNLA HNNA HNS
1996 100% 98,9% 100% 72,8% 100% 98,
1997 100% 82,2% 96,5% 49,5% 77,6% 84,
1998 83,5% 62,5% 83,2% 99,8% 76,9% 94,
1999 100% 90,6% 78,9% 77,7% 77,1% 86,
2000 78,8% 87,4% 100% 99,0% 82,5% 93,
Tabela 4.8 – Probabilidades de Maximização dos Outputs
ANO HCM HNBE HNBR HNLA HNNA HNS
1996 100%
1%
96%
0
61%
1997 100%
2%
5%
2%
2%
5
1998
1%
1%
1% 37%
1% 35
1999
97%
2%
1%
1%
1%
2000
0
1% 100% 27%
1%
2
5. CONCLUSÕES E DESENVOLVIMENTOS FUTUROS
Este trabalho desenvolveu-se essencialmente no sentido de desenvolver uma
metodologia de análise de eficiência relativa e fornecer subsídios para a gestão da
qualidade. No setor público, freqüentemente, é mais importante evitar o desperdício
de qualquer recurso disponível e o atendimento à mais ampla variedade de demandas
possível que otimizar o emprego de particulares recursos na produção de produtos
escolhidos. Neste contexto, uma estratégia de avaliação que obrigue a considerar,
ainda que com limites sujeitos a certa margem de imprecisão estatística, todas as
294
Pesquisa Naval Nº 16, Outubro de 2003
variáveis consideradas relevantes pode ser mais adequada que a orientação para
premiar os melhores desempenhos determinísticos de acordo com a estrutura de
produção mais conveniente para a unidade cuja eficiência se deseje avaliar. Os novos
enfoques aplicados demonstraram seu poder de facilitar a avaliação das decisões de
planejamento e contribuir para a revisão das técnicas de coletas de dados e
operacionalização das variáveis.
Destaca-se entre os resultados, mais que a formulação de uma estrutura para
a análise do desempenho do setor estudado, a demonstração do potencial de técnicas
quantitativas de avaliação de detectar aspectos importantes para a gestão da qualidade,
tais como a necessidade da classificação em grupos homogêneos e de tratamento
estatístico dos dados. Os resultados obtidos poderão, ainda, ser utilizados pela Diretoria
de Saúde da Marinha nas decisões de planejamento, por exemplo, priorizando a
liberação de recursos para a manutenção dos consultórios das unidades na fronteira
de eficiência.
6. REFERÊNCIAS BIBLIOGRÁFICAS
[1] ANDERSON, G. F. (1997). In search of value: an international comparison of cost,
access and outcomes, Health Affairs, vol. 16, pp. 163-171.
[2] BANKER, R. D. E THRALL, R. M. (1992). Estimation of returns to scale using Data
Envelopment Analysis, European Journal of Operational Research, vol. 62, pp.7484.
[3] BANKER, R. D., CHARNES, A. E COOPER, W. W. (1984). Some models for estimating
technical and scale inefficiencies in Data Envelopment Analysis, Management Science,
vol. 30, pp.1078-1092.
[4] CHARNES, A., COOPER, W. W. E RHODES E. (1978). Measuring the efficiency of
Decision Making Units, European Journal of Operations Research, vol. 2, 429-444.
[5] CHARNES, A. H., COOPER, W. W., GOLANY, B., SEIFORD, L. M., AND STUTZ, J.
(1985). Foundations of data envelopment analysis for Pareto-Koopmans efficient
empirical production functions, Journal of Econometrics, vol. 30, 91-107.
[6] COOPER, W. et al. Data Envelopment Analysis: A Comprehensive Text with Models,
Applications, References, and DEA-Solver Software, Kluwer Academic Publishers,
2000.
[7] PAULEY, M. V. (1998). Managed care, market power and monopsony, Health Services
Research, v. 37, 1439-1460.
XXIII
Capítulo
DIMENSIONAMENTO DO NÚMERO ÓTIMO DE EQUIPAMENTOS “STAND BY”
EM UMA REDE LOCAL DE MICROCOMPUTADORES
Solange Fernandes Pinheiro – Universidade Federal Fluminense
CF(IM) Antonio Carlos Bodini Junior –Diretoria de Finanças da Marinha
Resumo
O estudo pretende analisar a confiabilidade de um sistema de
microcomputadores, estabelecendo a taxa de falhas e de manutenção do mesmo,
visando dimensionar o número ótimo de equipamentos que deverão ficar em reserva
para substituir aqueles que falharem, de forma a prover continuidade aos serviços.
Abstract
This essay intends to analyse the reliability of a computer system, stablishing
rates for either fails and repairs, with proposal of reveal the ideal amount of
equipament that should be kept stand by for replacement in case of failure, in order
to mantain system services disponibility.
1. Introdução
O uso de microcomputador em uma Organização é imprescindível para o
desempenho das mais variadas funções. A popularização da informática fez surgir uma
ferramenta de grande aplicação em todos os aspectos das lides humanas.
Atualmente, não se admite a existência de equipamento desconectado de
outros, nem que o compartilhamento e transmissão dos dados sejam feitos através da
gravação e cópia de disquetes. Há que se trabalhar em rede, cobrindo uma área geográfica
grande com comunicação remota de dados, envolvendo neste mister uma gama de
equipamentos e sistemas com os mais diversos propósitos.
A paralisação da rede deve ser evitada e uma solução é a contratação de
terceiros para fazer a manutenção preventiva, que pretende se antecipar à falha, mas
não consegue eliminá-la. Outra possibilidade é a manutenção corretiva, impondo à
296
Pesquisa Naval Nº 16, Outubro de 2003
empresa contratada a obrigação de colocar um equipamento semelhante, que
substituísse aquele danificado, enquanto efetua-se o reparo. Isto minimiza o problema,
pois haverá um lapso de tempo entre o diagnóstico e a solução. Este ínterim conduzirá
o usuário a procurar um equipamento ocioso ou solicitar o compartilhamento a fim de
prosseguir suas atividades. Estas alternativas são inadequadas, já que não evitam
soluções de continuidade.
Isto posto, pode-se afirmar que o problema é como prover maior eficiência a
uma rede de modo a evitar que o funcionário com o equipamento em pane fique
procurando outro para trabalhar e repasse ou compartilhe a situação.
2. Metodologia
Observe-se que o sistema é uma rede de microcomputadores, onde se define
que o sistema está em pane quando um de seus componentes falha, caracterizando um
sistema com componentes conectados em série. Este é tolerante a falha, pois sua
função não é totalmente comprometida, mas sua eficiência diminui a cada pane de um
dos componentes.
Uma alternativa contra a espera do diagnóstico e reparo é se estabelecer um
número ideal de microcomputadores a serem colocados “na prateleira” ou “stand by”,
de forma que na ocorrência da pane em um computador, possa-se, imediatamente,
substituí-lo por um existente “na prateleira” e possibilitar, desta maneira, a continuidade
das lides dos funcionários. Estes equipamentos em “stand by” deverão ser em número
suficiente de modo a garantir uma confiabilidade do sistema com um custo suportável.
§
§
§
§
§
Para dimensionar este número deve-se :
levantar a função de probabilidade de falha e de reparo do sistema;
estabelecer suas taxas de falha e reparo;
criar os diagramas de transição de estado (falho ou operando);
obter a confiabilidade do sistema para cada situação (de acordo com o número de
equipamentos em “stand by”); e
comparar custos.
Dois conceitos permeiam esta análise, confiabilidade e disponibilidade do
sistema. Por confiabilidade entende-se a probabilidade de que o sistema opere
perfeitamente durante um período de tempo determinado, tornando uma medida
apropriada para sistemas que não podem tolerar paradas para reparos. A disponibilidade
visa estabelecer a probabilidade que um sistema esteja operando satisfatoriamente em
um determinado momento no tempo, sendo uma medida apropriada para sistemas que
operam continuamente e podem suportar alguns momentos de inoperância.
O sistema em tela permanece entre os dois conceitos, pois ele suporta tempos
sem operação, o que levar-se-ia a buscar sua disponibilidade, mas o que se pretende é
Pesquisa Naval Nº 16, Outubro de 2003
297
evitar sua parada, aumentando o seu período de operação, o que força uma busca de
medida de confiabilidade.
Desta forma, opta-se pelo estabelecimento dos parâmetros da confiabilidade,
uma vez que se busca maximizar o período de utilização do sistema. O grau de confiança
no sistema existente deverá, então, ser levantado, e propostas medidas que elevem
este patamar para um valor superior a 95%, medida de qualidade proposta pela maioria
dos teóricos neste mister.
Assim, função de confiabilidade é determinada através da probabilidade de
um componente funcionar durante um tempo especificado t, adequando-se, assim, à
função de densidade exponencial e, desta forma, temos
R(t ) = e − λ .t
Neste sistema, a possibilidade de cada um equipamento estar funcionando
constitui um conjunto de eventos independentes e, desta forma, a confiabilidade
resultante será o produto das confiabilidades individuais de cada componente:
RTOTAL = Ra .Rs .Rc ..Rn
Depreende-se disto, que ao aumento da complexidade do sistema corresponde
uma diminuição de sua confiabilidade, se não houver nenhuma ação que a compense,
neste caso, dispor-se de equipamento em reserva. Neste caso, a confiabilidade total
evolui para
R TOTAL
=
 2 R

A1

−
R A
1
2
  ∏n R

 i= 2
aumentado seu resultado, conforme se disponha de maior redundância .
Para estabelecer a confiabilidade do sistema tem-se, primeiramente, obter os
parâmetros que configuram seu comportamento, que são :
λ) - representa a probabilidade de um item funcionando em um
§ a taxa de falhas (λ
momento T venha a falhar entre o momento T e o T + dt; e
§ taxa de manutenção (γγ ) - representa a probabilidade do componente estar
inoperante em um momento e vir a ser reparado em um momento seguinte.
Para estabelecer os estimadores da taxa de falha e da taxa de manutenção, utilizarse-á a igualdade entre os momentos amostrais da população ao da amostra, ou seja :
primeiro momento da população :
primeiro momento da amostra :
m1 = E (X )
 n

 ∑ X 

i
i = 1 
=x
M =
1
n
298
Pesquisa Naval Nº 16, Outubro de 2003
Após isto, valida-se a estimativa utilizando o teste de aderência CHI –
QUADRADO com o software BEST-FIT.
Normalmente, parte-se de uma suposição de que a pane em um equipamento
e seu reparo são eventos mutuamente independentes. Neste estudo, há uma
dependência entre a pane e o reparo, pois o equipamento substituto deverá ficar
operando até que o item falho seja reparado e posto, novamente, em operação.
Neste mister, a análise através do diagrama de Markov é de grande ajuda
para verificar-se o relacionamento entre os dois eventos. Para possibilitar seu uso,
duas condições devem ser satisfeitas :
§ sistema deve ser estacionário; e
§ seus estados têm de ser perfeitamente identificáveis, isto é, as condições que
levam o sistema estar operando ou falho.
Satisfeitos estes itens, pode-se projetar o diagrama de transição de estados,
onde serão representados os estados discretos do sistema e suas probabilidades de
transição e seus sentidos.
Assim, considere-se um sistema com um único componente, onde sua taxa
de falha e de reparo sejam constantes, caracterizadas por distribuição exponencial. O
componente só pode estar em um dos dois estados possíveis, operando ou falho. No
instante t = 0, o sistema está funcionando e que este passe do estado “operando” para
o estado “falho” à uma taxa constante λ, a probalidade de que o item falhe no instante
(
)
∆t é : P 0 < t ≤ ∆t = ∫ λdt = λ∆t
Ao contrário, a probabilidade de que, em t = 0, o componente esteja
(
)
funcionando e continua operando no instante ∆t, é : P 0 < t ≤ ∆t = 1 − λ∆t
De igual forma, para análise da fase de manutenção tem-se a probabilidade
de que o componente esteja sendo reparado em t = 0 e volta a operar no instante ∆t
(
)
igual a : P 0 < t ≤ ∆t = γ .∆t
E a probabilidade de esteja em reparo no instante t = 0 e continue em ∆t é :
P (0 < t ≤ ∆t ) = 1 − γ∆t
Assim, convencionando x(t) como a função que representa o estado do
componente, teremos:
1 onde, x(t) igual a 1 significa o componente no
x (t ) = 
operando.
0 estado falho e igual a 0 ,
Pesquisa Naval Nº 16, Outubro de 2003
299
Assim, estabelecemos o diagrama da forma abaixo :
λ∆t
1-λ∆t
0
operando
1
falho
γ∆t
A probabilidade, então, estar indisponível, isto é, falho no instante ∆t
dependerá do seu estado presente :
P[ x(t+∆t) = 1 ] = P [componente estar operando em t e falhar em ∆t ou estar falho em t
e permanecer falho em ∆t]
[
] [
] [
] [
] [
P [x (t + ∆t ) = 1] = P [x (t ) = 0]λ∆t + P [x (t ) = 1](1 − γ∆t )
P x (t + ∆t ) = 1 = P x (t ) = 0 .P x (∆t ) = 1 + P x (t ) = 1 .P x (∆t )
Para facilitar, denotemos Po(t), a probabilidade do componente estar operando
no instante t e Pf(t), a probabilidade do componente estar danificado no mesmo instante,
chegando ao seguinte resultado :
Pf (t + ∆t ) = Po (t )λ∆t + Pf (t )(1 − γ .∆t )
Po(t + ∆t ) = (1 − λ∆t )Po(t ) + γ .∆tPf (t )
Pf (t + ∆t ) − Pf (t )
= λPo (t ) − γ .Pf (t )
∆t
Po(t + ∆t ) − Po(t ) = −λ∆tPo (t ) + γ .∆tPf (t )
Pf (t + ∆t ) = Po (t )λ∆t + Pf (t ) − Pf (t )γ .∆t
∆t → 0
dPf (t )
= λPo (t ) − γ .Pf (t )
dt
Po(t + ∆t ) = Po(t ) − λ∆tPo (t ) + γ .∆tPf (t )
Po(t + ∆t ) − Po (t )
= −λPo(t ) + γ .Pf (t )
∆t
∆t → 0
dPo(t )
= −λPo (t ) + γ .Pf (t )
dt
300
Pesquisa Naval Nº 16, Outubro de 2003
Assim, podemos representar tais probabilidades em notação matricial :
 dPo (t ) dPf (t )
− λ λ 

 = Po (t ) Pf (t )  γ − γ 
dt 


 dt
[0 0] = Po (t ) Pf (t ) −γλ −λγ 


[
[
]
]
A matriz acima pode ser construída diretamente do diagrama de transição de
estado, tendo-se o cuidado de observar as seguintes regras :
• A dimensão da matriz é igual ao número de estados do modelo;
• A soma das linhas é igual a zero;
• O elemento (i,j) representa a taxa de transição do estado i para o
estado j;
• Os elementos da diagonal principal representam as taxas de
permanência no estado.
Entretanto, o sistema de equações é indeterminado, mas sabendo-se que
somatório das probabilidades é igual a 1 :
A possibilidade de pane pode ser minimizada através da redundância, onde
mais um estado é estabelecido, ficando, então, com três fases : “stand by” (S), falho (F)
e operação(O). A inclusão do componente “stand by” leva a uma associação em
paralelo, aumentando a confiabilidade do sistema, através da substituição daquele
danificado pelo “stand by”.
Os estados do sistema, neste caso, serão representados por um bigrama,
conforme abaixo :
Estado
AO B S
AO B F
A
F
BF
Significado
O sistema está em operação e o equipam
by” está parado, aguardando a ocorrên
pane, quando substituirá o equipamento
fim de manter a operação do sistema.
O sistema está em operação, mas o e
“stand by” foi colocado em linha para s
componente danificado. Assim, o sistema
operando, não tem nenhum equipamento e
O sistema entra em colapso, pois houve
sem que se tivesse um equipamento “sta
atender esta demanda
Pesquisa Naval Nº 16, Outubro de 2003
301
Assim, das conclusões anteriores e considerando que os componentes em
reserva não falham quando chamados a operar, tem-se o seguinte diagrama de transição,
com as taxas de λ e γ :
γ
1
A O BS
λ
2γ
λ
3
AF B F
O sistema, no estado 1, está operando (AO) e o equipamento “stand by”
aguardando (B S ). Em um determinado momento, um componente do sistema falha, mas
o sistema continua a operar (AO), pois o equipamento reserva substitui o danificado,
caracterizando, assim, o estado 2 (o equipamento falho aguardará o reparo). Não há
diferença entre os equipamentos e, assim, tudo se passa como se o sistema continuasse
a operar sem o componente de “stand by” (B F ). Se o sistema falhar (AF)e o equipamento
“stand by “ não tiver sido reparado (BF) , o sistema entra no estado 3, que constitui a
paralisação do mesmo, portanto a condição indesejável.
Entretanto, o equipamento falho (BF) pode ser reparado ou um equipamento
falho em linha (AF) pode vir a ser reparado, retornando, assim, ao estado 2. Neste
estado, sistema paralisado por duas panes, ter-se-á ambos os equipamentos falhos
sendo submetidos a manutenção. O sistema voltará a funcionar quando qualquer um
dos dois componentes voltar a ser operacional, como a manutenção de um não interfere
na do outro (eventos independentes, com taxa γ de manutenção) conclui-se que a taxa
de transição para o estado 2 é 2γ. Eventualmente, o equipamento em reserva danificado
pode ser reparado e voltar do estado 2 ao estado 1.
Po (t ) + Pf (t ) = 1
⇒

− λPo (t ) + γ .Pf (t ) = 0
Po (t ) =
γ
γ +λ
λ
Pf (t ) =
γ +λ
302
Pesquisa Naval Nº 16, Outubro de 2003
Assim, entendido os estados e suas transições, chega-se à seguinte matriz
de transição de estado :
− λ
[P1 P2 P3 ] γ
 0
λ
− (γ + λ )
2γ
P1 + P2 + P3 = 1
como ,
− λP1 + γP2 =

λP1 − (γ + λ )

λP2 − 2γP3 =
P1 + P2 + P3

λP1 − (γ + λ )

λP2 − 2γP3 =

λ =0⇔

− 2γ 
0
⇒
Resolvendo Resolvendo o sistema acima, obter-se-á o valor de P3 , a probabilidade do
sistema falhar.
Pode-se afirmar que o sistema adquire uma confiabilidade alta com a
existência dos equipamentos em “stand by”, mas há a possibilidade do item redundante
falhar quando iniciar sua operação, cuja influência deve ser analisada.
Desta forma, considere-se como p a probabilidade do componente iniciar
sua operação quando solicitado e, portanto, (1-p), a probabilidade de falhar no início
de sua operação. Assim, teríamos :
Situação
Prob
sistema falhar e o equipamento “stand by” operar
sistema falhar, o 1º equipamento “stand by” falhar
e o 2º operar
sistema falhar e os equipamentos “stand by”não
operarem
O diagrama de transição de estados com um equipamento em “stand by” ficaria :
γ
1
A
O
B
p λ
S
2γ
(1-p).λ
λ
3
AF B F
Pesquisa Naval Nº 16, Outubro de 2003
303
Analogamente à análise anterior, tem-se a seguinte matriz das transições de
estado :
P1 + P2 + P3 =
λp
(1 − p )λ 
− λ
[P1 P2 P3 ] γ − (γ + λ ) λ  = 0 ⇒ λpP1 − (γ + λ )

− 2γ 
2γ
0
λ (1 − p )P1 + λ
Neste caso, o estado a evitar é o estado 3, colapso do sistema.
Da mesma forma, com dois equipamentos em reserva, tem-se o diagrama de
transição de estados :
γ
AO
1
BSBS
pλ
(1-p)pλ
(1-p)λ
(1-p)(1-p)λ
2
4
A F BS BS
λ
3γ
A
Analogamente, tem-se a seguinte matriz das transições de estado:
− λ
(1 − p )pλ (1 − p )2 λ 
pλ

(1 − p )λ  = 0 ⇒
[P1P2P3P4 ] γ − (γ + λ ) pλ
− (2γ + λ )
λ
2γ

 0
 0
− 3γ 
0
3γ
P1 + P2 + P3 + P4 = 1

 pλP1 − (γ + λ )P2 + 2γP3 = 0
⇒
(1 − p )pλP1 + pλP2 − (2γ + λ )P3 + 3γP4 = 0

2

(1 − p ) λP1 + (1 − p )λP2 + λP3 − 3γP4 = 0
304
Pesquisa Naval Nº 16, Outubro de 2003
Com 3 equipamentos em “stand by “, teremos o diagrama das transições de
estado e sistema de equações abaixo:
2
− λ
(1 − p ) pλ (1 − p ) pλ
pλ

(1 − p )pλ
− (γ + λ )
γ
pλ
[P1 P2 P3 P4 P5 ] 0 2γ − (2γ + λ ) pλ
0
− (3γ + λ )
0
3γ

0
0
4γ
0


P1 + P2 + P3 + P4 + P5 = 1

λpP − (γ + λ )P + 2γP = 0
1
2
3

⇒ (1 − p ) pλP + pλP − (2γ + λ )P + 3γP = 0
2
3
4


2
(1 − p ) pλP1 + (1 − p )pλP2 + pλP3 − (3γ + λ )P4 + 4γP5 =


(1 − p )3 λP1 + (1 − p )2 λP2 + (1 − p )λP3 + λP4 − 4γP5 = 0

γ
A
O
1
BSBS B
pλ
A
O
BF
S
(1-p)pλ
(1-p)(1-p)(1-p)λ
A
F
5
BF BF B
2γ
(1-p)(1-p)pλ
3
AO B
F
λ
pλ
4γ
3γ
A
O
4
BF BF B
F
(1-p
Pesquisa Naval Nº 16, Outubro de 2003
305
3. Resultados
Para testar-se a solução teórica proposta, buscou-se dados de uma rede
com 150 estações de trabalho, reafirmando a premissa de que este sistema tolera que
alguns equipamentos fiquem inoperantes, mantendo sua funcionalidade.
Assim, estabelece-se que :
§ o sistema está em operação com mais de 145 equipamentos funcionando,
isto é, ele é tolerante até 5 equipamentos falhos em um mesmo momento, que representa
uma tolerância menor de 4% em relação ao total de equipamentos. A partir do sexto
microcomputador danificado, o sistema entra em colapso, caracterizando o estado de
sistema inoperante;
§ nenhum componente do sistema é utilizado durante as 24 horas do dia,
mas durante um expediente de 8 às 18 horas, média de trabalho de todos os
equipamentos de dez horas diárias;
§ o parâmetro de qualidade (sua confiabilidade) para aferir a eficiência do
sistema, será maior que 95%.
Isto posto, considerando os dados obtidos, pode-se estabelecer os seguintes
quadros de distribuição :
FAIXA
FAIXA
INÍCIO FIM
1
12
22
33
44
54
65
75
11
21
32
43
53
64
74
85
Distribuição de freqüência do sistema
operando
SISTEMA PARADO
SISTEMA
OPERANDO
FAIXA
INÍCIO
9
2
1
0
1
0
1
1
1
10
20
30
40
50
60
70
10
8
6
4
2
0
FREQ.
FIM
9
19
29
39
49
59
69
78
11
2
0
0
0
0
0
1
1
2
3
4
5
6
7
8
9
10
Distribuição de freqüência de pane do
sistema
10
8
6
4
2
0
1
2
3
4
5
6
7
8
Vê-se que as curvas apresentam um comportamento exponencial e, assim,
precisamos estabelecer o parâmetro característico de cada curva. Para isto utilizar-se a
igualdade entre o momento amostra e o da população, conforme exposto anteriormente
(para o estabelecimento da taxa de manutenção, descartar-se-á os 56 dias parados por
ser apenas uma ocorrência e ter sido motivado por equipamento muito antigo e forçar
uma tendência indevida):
1
λ
= x = 188,67 ⇒ λ =
1
188,67
= 0,0053
1
γ
= x = 29,231 ⇒ γ =
1
29,231
= 0,03421
306
Pesquisa Naval Nº 16, Outubro de 2003
Estes valores provaram ser aceitáveis, utilizando-se o "software BEST FIT".
Assim, resolvendo-se os sistemas de equações, tem-se confiabilidade sistema sem redundância de 0,8659 e confiabilidade do sistema com redundância:
.
com
c
com
um
e sq u ip a m e n t o
e m r e se r v a
0 ,9 8 8 5 6 3
d o is
e sq u ip a m e n t os
e m r e se r v a
0 ,9 9 8 9 4 0
0 ,9 8 8 5 4 4
0 ,9 9 8 9 4 0
0 ,9 8 6 9 7 1
0 ,9 9 8 9 3 8
0 ,9 8 6 9 7 1
0 ,9 9 8 9 3 8
0 ,9 8 5 3 9 0
0 ,9 9 8 9 3 7
0 ,9 8 5 3 9 0
0 ,9 9 8 9 3 7
0 ,9 8 5 4 3 7
0 ,9 9 8 9 3 8
0 ,9 8 5 4 3 7
0 ,9 9 8 9 3 4
0 ,9 8 3 8 7 1
0 ,9 9 8 9 3 6
0 ,9 8 3 8 7 1
0 ,9 9 6 8 0 9
0 ,9 8 2 3 1 6
0 ,9 9 6 8 0 9
0 ,9 7 9 3 3 3
0 ,9 9 5 7 4 1
0 ,9 7 0 5 4 3
0 ,9 9 2 5 6 2
tr ê s
e sq u ip a m e
e m r e se r
,9 9
,9 8
,9 7
,9 6
,9 5
,9 4
,9 3
,9 2
,9 1
,9 0
,8 9
,8 3
0 ,9
,7 0
§
§
§
Pode-se observar, claramente, que a influência de p é diminuta.
Considerando o exposto, deve-se, então, analisar a solução sob os critérios de:
adequabilidade, isto é, solução proposta resolverá o problema, o que foi
demonstrado, pois garantirá que o sistema esteja operando em mais de 95% das
vezes em que for solicitado;
exequibilidade, isto é, tem-se os meios para implementá-la. Quando há um parque
de 150 equipamentos, a aquisição de mais um, dois ou três é perfeitamente factível;e
aceitabilidade, que se refere ao custo-benefício da solução, se esta, além de resolver
o problema, economizará recursos. Assim, considerando o custo de um
equipamento, R$ 3.000,00, a menor taxa de juros existente , 0,5 % a.m., vê-se que se
a despesa mensal maior ou igual a R$ 258,20 justificaria a aquisição de um
equipamento1.
1
3 . 000 , 00
=
12
∑
n =1


m









1
0 ,5 

1 +

100 

n



 ⇒
 

m
= 258 , 20
Pesquisa Naval Nº 16, Outubro de 2003
307
4. Conclusão
Confiabilidade é a expectativa de que um sistema estando em operação continue nesta
situação por um tempo determinado. Para tal, o raciocínio foi reverso, obteve-se o
valor da probabilidade da falha e ações que evitassem tal ocorrência, estabelecendose para tanto a quantidade ideal de componentes "stand by".
Baseando-se nos diagramas de transição de estados e partindo de conceitos comprovados estabeleceu-se equações para se obter a confiabilidade do sistema, modelandose a situação atual (sem redundância) e três alternativas, com um, dois ou três equipamentos em reserva.
Após estabelecer os parâmetros do sistema, pôde-se verificar que o sistema adquire
uma grande confiabilidade com a disposição de equipamentos em reserva para substituir os danificados.
Testou-se a modelagem, com dados de uma rede com 150 computadores, estabelecendo-se seus parâmetros e aferindo-se sua confiabilidade, superior a 95%.
As alternativas provaram ser adequadas, exeqüíveis e aceitáveis, verificando-se que
todas as alternativas levam a uma redução de custos.
5. Referências Bibliográficas
1. ANDREWS, J.D.; MOSS T.R, Reliability and Risk Assessment. Inglaterra : Longman
Scientific & Technical, 1993.
2. ASCHER, H. E, Improving Computer Reliability by antecipating Failures. IEEE
Transactions on Reliability 1992. Estados Unidos da América.
3. BILLINTON, Roy; ALLAN, Ronald N. Reliability Evaluation of Engineering Sistems,
Concepts and Techniques. 2º Ed. Estados Unidos da América : Plenum Publishing
corporation, 1992
4. CLARKE, Bruce A . e DISNEY, Ralph, Probabilidade e Processos Estocáticos. Rio de
Janeiro : Livros Técnicos e Científicos Editora S.A., 1980
5. HOYLAND, Arnljot, RAUSAND, Marvin. System reliability theory models and
statistical methods. Estados Unidos da América : John Wiley & Sons Inc, 1994.
6. LARSON, H.J. Introduction to Probability Theory and Statistical Inference. New
York: John Wiley & Sons, 1982.
7. LEWIS, E. E. Introduction to Reliability Engeneering. Estados Unidos da América :
John Wiley & Sons, Inc. 1987.
8. OLIVEIRA, Luiz Fernando Seixas, Introdução à Engenharia da Confiabilidade de
Sistemas Notas de aula. UFF 1995.
308
Pesquisa Naval Nº 16, Outubro de 2003
TERMINAL TÁTICO INTELIGENTE - TTI
O TTI 2900 é um sistema de controle tático, baseado em arquitetura PC, robustecida e
de baixo custo, projetado e desenvolvido pelo Instituto de Pesquisas da Marinha - IPqM para ser
empregado em plataformas de superfície e aéreas. Tem como finalidade o uso mais eficiente dos
sistemas embarcados em tarefas como: compilação do cenário tático, avaliação de ameaças e
resposta tática. O TTI pode operar tanto em modo "stand alone", quando todas as entradas de
dados e comandos são processados por uma única CPU, quanto integrado em um sistema distribuído, com vários consoles TTI 2900 conectados entre si ou com outros sistemas através de uma
rede local.
CARACTERÍSTICAS PRINCIPAIS
Processamento e apresentação de múltiplos sensores.
Link automático de dados com outras plataformas e bases de terra.
Exibição do cenário tático de ambientes aéreo, superfície e submarino.
Solução de problemas táticos e de navegação.
Compatibilidade com ARPA.
Apresentação de movimento verdadeiro/relativo.
Acompanhamento de alvos manuais/ automáticos.
Interface com GPS, Giro, Odômetro, Anemômetro e sistemas de Guerra Eletrônica.
Arquitetura aberta com projeto baseado em orientação a objetos.
INTERFACE HOMEM-MÁQUINA
Sua IHM foi projetada para reduzir a carga de operação através do uso de técnicas simples de
gerenciamento de dados, tais como, estrutura de diálogo interativo e entrada por múltiplos
dispositivos (como teclado dedicado, trackball, etc.).
CARACTERÍSTICAS OPCIONAIS
Acompanhamento automático de dados .
Link de dados com capacidade de até 1200 bps, empregando equipamentos VHF/ UHF/ HF
convencionais.
Módulo de Carta Náutica Eletrônica.
Integração total com sistema GPS/DGPS.
Interface padrão Ethernet.
Monitor LCD com resolução de 1280 x 1024.
XXIV
Capítulo
MODELO DE PROGRAMAÇÃO LINEAR EM DOIS NÍVEIS
PARA OTIMIZAÇÃO DE ESTOQUES DE SOBRESSALENTES
CC (EN) Júlio César Silva Neves , DSc.
Cap QEM Alexandre Laval Silva , M.C.
Instituto Militar de Engenharia, praça Gal. Tibúrcio 80,
Urca, Rio de Janeiro, RJ.Email [email protected]
Resumo
O objetivo principal da gestão de estoques de sobressalentes é conseguir
um patamar satisfatório de nível de serviço com o mínimo custo. As cadeias de
distribuição de sobressalentes normalmente estão escalonadas em níveis distintos.
Cada nível tem objetivos próprios e controla algumas variáveis específicas, mas tem
seu espaço de decisão total ou parcialmente determinado por outros níveis. Sendo
assim, nem sempre as decisões ótimas de cada nível hierárquico conduzem ao ótimo
global da cadeia de distribuição. Este trabalho propõe um Modelo de Programação
Linear em Dois Níveis para Otimização de Estoques de Sobressalentes em uma cadeia
de distribuição de sobressalentes. O primeiro nível de decisão (dos centros de
manutenção) busca otimizar o número de pedidos atrasados e o desbalanceamento
entre os níveis de serviço dos centros de manutenção e o segundo nível (o depósito
central) busca minimizar os custos de transporte e de manutenção dos estoques na
cadeia de distribuição.
Abstract
The mainly goal in the management of spare parts stock is to attain a good
service level with minimum costs. The spare parts distribution is usually structured
in different levels. Each one represents a level of decision, having its own goals and
controlling specific variables. The decisions made in one level touch the boundaries
imposed by the existence of the others and, even if each level make an optimal
decision, there is no guarantees that the global optimal of the distribution chain
will be attained. This works proposes a Model of Linear Bilevel Programming that
310
Pesquisa Naval Nº 16, Outubro de 2003
aims the spare parts store optimization in a chain of distribution. The first level of
decision (maintenance centers) aims to optimize the number of delayed orders and
balance its several levels of service. The second one (central store) search for
minimizing the transportation and maintenance costs of storage in the spare parts
distribution chain.
1 Introdução
Segundo Ballou (1997), tem havido uma busca por melhorias no desempenho
operacional das empresas, visando oferecer qualidade no atendimento ao cliente,
aproveitando ao máximo os recursos disponíveis, de forma a minimizar os custos do
processo logístico.
Um aspecto fundamental da logística é a gestão de sobressalentes. Pois
os elevados custos de aquisição, os longos tempos de resposta de fornecimento
e os baixíssimos giros, característicos das peças de reposição, são armadilhas
freqüentes encontradas na definição de políticas de estoques de sobressalentes.
Segundo Huiskonen (2001), o principal objetivo do gerenciamento de estoques
de sobressalentes é conseguir um patamar satisfatório de nível de serviço
(confiabilidade e disponibilidade) com o mínimo custo.
Modelos matemáticos são freqüentemente utilizados para otimização de
estoques de sobressalentes, considerando os investimentos em estoques, custeio
dos bens e serviços, níveis de serviço, classificação de itens, políticas de gerenciamento
e utilizando sistemas com múltiplos escalões hierárquicos mantendo estoques
(Sherbrooke,1992).
Na prática¸ os estoques de sobressalentes têm sido gerenciados aplicando
apenas os princípios gerais da administração de estoques, desconsiderando as
diferenças específicas da gestão de sobressalentes e geralmente os estoques de
sobressalentes são gerenciados localmente, não considerando a cadeia de distribuição
de forma sistêmica. (Huiskonen,2001).
Esta falta de enfoque sistêmico reduz a competitividade, pois cada elemento
da cadeia de suprimentos age independentemente, buscando maximizar suas vantagens
atuando sobre os seus custos de forma a aumentar sua margem no processo
(Novaes,2001).
Embora o problema de estoques de sobressalentes tenha sido estudado no
contexto de múltiplos escalões em alguns modelos encontrados na revisão bibliográfica,
em nenhum modelo foi considerada a participação dos diferentes níveis de tomada de
decisão inseridos em uma estrutura hierárquica de poder ou influência.
Na realidade, cada nível desta estrutura hierárquica tem objetivos próprios e
controla algumas variáveis específicas, mas tem seu espaço de decisão total ou
parcialmente determinado por outros níveis (Campêlo,1999). Sendo assim, nem sempre
as decisões ótimas de cada nível hierárquico conduzem ao ótimo global da cadeia de
distribuição.
Este tipo de problema, envolvendo vários níveis de tomada de decisão, é
tratado na Programação Multi-Nível que considera a interdependência e a integração
Pesquisa Naval Nº 16, Outubro de 2003
311
dos níveis decisórios. A Programação Linear em Dois Níveis é um caso particular da
Programação Multi-Nível, cujo objeto de estudo são exatamente problemas de
otimização envolvendo dois níveis hierárquicos (Campêlo, 1999).
Neste contexto, o Modelo de Programação Linear em Dois Níveis para
Otimização de Estoques de Sobressalentes proposto visa calcular uma solução ótima
global que compatibilize as decisões de cada nível hierárquico com os objetivos dos
centros de manutenção (minimizar os atrasos e o desbalanceamento dos níveis de
serviço dos centros de manutenção) e com o objetivo do depósito (minimizar os custos
de transporte e os custos de manutenção do estoque da cadeia de distribuição).
2 Programação Linear em Dois Níveis (PLDN)
Muitos processos decisórios envolvem a participação de agentes que estão
inseridos em uma estrutura hierárquica de poder ou influência. Freqüentemente, cada
nível nesta hierarquia tem objetivos próprios (conflitantes ou não) e controla algumas
variáveis específicas, mas tem seu espaço de decisão total ou parcialmente determinado
por outros níveis (Campêlo, 1999).
A Programação Linear em Dois Níveis é uma área da programação matemática
cujo objeto de estudo são exatamente problemas de otimização envolvendo dois níveis
hierárquicos com as características acima descritas, sendo que o agente do segundo
nível (o seguidor) está subordinado ao do primeiro nível (líder).
Ao seguidor, que controla a variável y ,está associado o seguinte problema de
otimização:
R (x) max f2 (x , y ) s.a y Î W2 (x)
(2.1)
onde f2 : ‘n1´‘n2 ®‘ e W2 (x) é o conjunto viável parametrizado pelas variáveis
x controladas pelo líder.
O problema do primeiro nível é definido em função do conjunto de soluções
Y(x) do problema paramétrico R (x) , do seguinte modo :
max f1 (x , y ) s.a (x , y ) Î W1 , y Î U(x) Í Y(x)
(2.2)
onde f1 : ‘n1´‘n2 ®‘, W1 Í ‘n1´‘n2 é um conjunto fechado , e U(x) um
subconjunto de soluções do problema do seguidor.
A escolha da multifunção U leva em conta a expectativa do líder em relação à
resposta do seguidor. As duas principais opções são:
(2.3)
U(x) = argmax {f1 (x , y ) : y Î Y(x)}
U(x) = argmin {f1 (x , y ) : y Î Y(x)}
(2.4)
onde argmax é o conjunto dos pontos que realizam o máximo e argmin o
conjunto de ponto que realizam o mínimo. Definindo respectivamente os problemas
cooperativos e não cooperativo. No primeiro caso , supõe-se que o líder é capaz de
induzir o seguidor a escolher dentre suas soluções aquela que seja mais conveniente
ao primeiro nível . No segundo caso, adota-se a estratégia mais conservadora possível
e se considera que o seguidor reage com a pior resposta para o líder.
O caso cooperativo equivale a tornar equivalente U(x) º Y(x), gerando o
problema:
max f1 (x , y )
(2.5)
312
Pesquisa Naval Nº 16, Outubro de 2003
(2.6)
s.a (x , y ) Î W1
(2.7)
y Î arg max {f2 (x , y ) : y Î W2 (x)}
Considerando a formulação acima, onde as funções f1 e f2 são lineares e os
conjuntos W1 e W2 (x), poliedros, o problema de programação linear em dois níveis é
definido da seguinte forma por Campêlo (1999):
(2.8)
(PLDN) max f1 (x , y ) = cT1 x + cT2 y
s.a B1 x + B2 y d• b
(2.9)
x e• 0, y solução de
(2.10)
(2.11)
max y f2 (x , y ) = dT y
s.a A1 x + A2 y d• a
(2.12)
y e• 0
(2.13)
onde x, c1 Î ‘n1, y, d, c2 Î ‘n2 , a Î ‘m2 , b Î ‘m1, A1 Î ‘m2 x n1, A2 Î ‘m2 x
n2
, B1 Î ‘m1 x n1 e B2 Î ‘m1 x n2 .
Por associação ao decisor do primeiro nível, diz-se que x é a variável do
líder e as expressões (2.8) e (2.9) são respectivamente a função objetivo e as restrições
explícitas. Analogamente, y é denominada a variável do seguidor e (2.11) e (2.12), sua
função objetivo e suas restrições.
O problema de programação linear em dois níveis (PLDN) tem sido estudado
em diversos campos de aplicação, todavia, não foi identificado na literatura pesquisas
referentes à aplicação da PLDN ao problema de controle de estoques.
3 O Modelo Proposto
O modelo proposto neste trabalho visa otimizar os estoques e a distribuição
de sobressalentes em sistemas com múltiplos escalões considerando a participação
dos diferentes níveis de tomada de decisão. Estes níveis estão inseridos em uma
estrutura hierárquica de poder ou influência, visando compatibilizar as decisões de
otimização do nível de serviço e custo do sistema logístico de cada nível hierárquico.
Neste sentido, o modelo desenvolvido deve calcular a quantidade ótima de
sobressalentes em cada ponto da cadeia de distribuição (depósito e os centros de
manutenção) em cada período do horizonte de tempo considerado.
Convém observar que cada depósito é responsável pelo abastecimento de
um conjunto de centros de manutenção e que, em princípio, não há transferência de
sobressalentes entre depósitos ou entre centros de manutenção.
A demanda em cada centro de manutenção é determinada pelo planejamento
dos centros de manutenção que estimam as suas necessidades conforme o histórico
de fornecimento e com base nas manutenções programadas para o horizonte de tempo
em estudo.
O nível de serviço é definido como sendo o número total de sobressalentes
fornecidos pelo centro de manutenção dividido pelo total de demandas deste centro
de manutenção no horizonte de tempo considerado (ver restrição f da seção 3.4).
É desejável que os centros de manutenção não possuam níveis de serviço
desbalanceados, ou seja, é desejável que os níveis de serviço dos centros de
manutenção não sejam muito diferentes. O desbalanceamento é medido pelo índice de
Pesquisa Naval Nº 16, Outubro de 2003
313
desbalanceamento dos níveis de serviço que está definido na seção 3.4 deste artigo
como sendo o somatório das diferenças dos níveis de serviço dos centros de
manutenção. Ou seja, quanto menor for este somatório, menor será a diferença entre os
níveis de serviço dos centros de manutenção e menor será o índice de
desbalanceamento. Sendo assim, este índice mede as diferenças entre os níveis de
serviço dos centros de manutenção.
Na otimização dos níveis de estoques devem ser considerados os custos de
transporte do depósito para os centros de manutenção e o custo de manutenção de
estoques no depósito e centros de manutenção, que é composto pelo custo de capital
investido, pelos impostos e seguros, pelo custo de obsolescência e pelo custo de
armazenagem dos sobressalentes na cadeia de distribuição.
O “Modelo de Programação Linear em Dois Níveis para Otimização de
Estoques de Sobressalentes” deve focar o atendimento ao cliente, considerando no
primeiro nível de influência do problema o escalão dos centros de manutenção (CMnt)
e definindo o escalão depósito como segundo nível de influência do problema existente.
Neste contexto, o escalão dos centros de manutenção (primeiro nível) está
objetivando minimizar os atrasos e minimizar o desbalanceamento dos níveis de serviço
dos centros de manutenção. Sendo assim, o primeiro nível controla as variáveis
relacionadas ao total de atrasos de sobressalentes nos centros de manutenção e o
índice de desbalanceamento dos níveis de serviço dos centros de manutenção no
horizonte de tempo considerado. Por outro lado, o escalão do depósito (segundo
nível) está preocupado com os custos de transporte e manutenção de estoques do
sistema logístico, ou seja, para o segundo nível é desejável que os custos sejam
minimizados. Sendo que o segundo nível controla as demais variáveis de decisão.
Em cada período do horizonte de tempo considerado, o depósito recebe um
fornecimento de sobressalentes, de fabricantes e fornecedores de peças recuperadas.
A capacidade de fornecimento dos fabricantes é definida no planejamento de
fornecimento.
Neste modelo, baseando em contratos com transportadoras existentes no
mercado, definiu-se que os sobressalentes são expedidos do depósito num período e
chegam nos centros de manutenção no período seguinte, caso seja utilizado o
transporte normal ou no mesmo período, caso seja utilizado o transporte de emergência.
O transporte tanto na modalidade normal como emergencial são aéreos, sendo que na
modalidade emergencial os sobressalentes são transportados por uma pessoa que
viaja acompanhando a bagagem. Os custos de transporte são definidos contratualmente
e obviamente a modalidade emergencial possui um custo mais elevado que a modalidade
normal.
O depósito e os centros de manutenção possuem um estoque inicial e existem
expedições de sobressalentes programadas para chegarem nos centros de manutenção
no primeiro período do horizonte de tempo considerado.
O Modelo de Programação Linear em Dois Níveis para Otimização de Estoques
de Sobressalentes foi desenvolvido no software Mathematica 4.0, utilizando o algoritmo
“Kth-Best” (Bialas,1984) implementado por Neves (2002).
314
Pesquisa Naval Nº 16, Outubro de 2003
3.1 Parâmetros
Foram estabelecidos os seguintes parâmetros para realização desta
modelagem:
§ Cj: Custo unitário (em reais) de transporte do Depósito para o CMnt j Centro de Manutenção j , para j = 1, 2, 3...J . Existem as modalidades de
transporte normal (CNj) e de emergência (CEj).
§ Djt : Demanda de sobressalentes do CMnt j no período t , para j =1,2,3...I
e t = 1, 2 ,3 ...T.
§ HD : Custo unitário por período (em reais) de manutenção do estoque no
Depósito em cada período.
§ HCj : Custo unitário por período (em reais) de manutenção do estoque no
CMnt j em cada período , para j = 1, 2, 3 ...J.
§ Wj0: Estoque existente no CMnt j no período 0, para j = 1, 2, 3...J.
§ X0: Estoque existente no Depósito no período 0 (inicialmente).
§ Yj0: Quantidade de sobressalentes expedida do Depósito para a CMnt j no
período 0 , prevista para chegar no CMnt j no período 1, para j = 1, 2, 3...J .
§ Kt: Quantidade de sobressalentes prevista para ser fornecida ao Depósito no
período t , para t = 1, 2, 3 ...T .
§ Vjt: Quantidade de sobressalentes que pode ser transportada do Depósito
para o Centro de Manutenção j no período t, para j =1,2,3...I e t = 1, 2 ,3 ...T.
3.2 Variáveis Independentes
Sejam as variáveis independentes descritas abaixo, que representam a
quantidade de sobressalentes nas seguintes situações:
§ yjt : Quantidade de sobressalentes transportada do Depósito para o CMnt j
no período t na modalidade de transporte normal , para j = 1, 2, 3...J e t = 1, 2, 3 ...T.
§ ejt : Quantidade de sobressalentes transportada do Depósito para o CMnt j
no período t na modalidade de transporte de emergência , para j = 1, 2, 3...J e t = 1, 2,
3 ...T .
§ xt : Estoque no Depósito no período t , para t = 1, 2, 3 ...T .
§ fjt : Quantidade de sobressalentes fornecidos pelo CMnt j no período t, para
j = 1, 2, 3...J e t = 1, 2, 3 ...T .
§ zjt : Atrasos de sobressalentes nos CMnt j no final do período t, para j = 1,
2, 3...J e t = 1, 2, 3 ...T .
§ a : Total de atrasos nos CMnt j no horizonte de tempo considerado.
§ sj : Nível de Serviço dos CMnt j no horizonte de tempo considerado, para 0
d•sj d•1 e j = 1, 2, 3...J. É definido pelo somatório dos fornecimentos do Centro de
Manutenção j dividido pelo somatório das demandas do mesmo CMnt no horizonte
de tempo, conforme definido na equação 3.10 na seção 3.4.
§ bj’j e bj j’: Diferença entre os níveis serviço de dois CMnt distintos., para
j = 1, 2, ,...J e para j’ = 1, 2 ,...J’ conforme definido nas equações 3.3, 3.12 e 3.13 na
seção 3.4
Pesquisa Naval Nº 16, Outubro de 2003
315
§ b : Representa um índice de desbalanceamento dos níveis de serviço dos
CMnt e é definido pelo somatório de todas diferenças entre os níveis de serviço dos
CMnt no horizonte de tempo considerado, conforme definido nas equações 3.3, 3.12 e
3.13 na seção 3.4.
Ou seja, quanto menor for o índice de desbalanceamento, menor será a
diferença entre dos níveis de serviço dos centros de manutenção. Se b = 0, significa
que os centros de manutenção possuem níveis de serviço iguais no horizonte de
tempo considerado.
3.2 Funções Objetivo do Modelo de Programação Linear em Dois Níveis para
Otimização de Estoques de Sobressalentes
O “Modelo de Programação Linear em Dois Níveis para Otimização de
Estoques de Sobressalentes” tem como funções-objetivo F1 e F2 , definidas nas
equações abaixo: (3.1) e (3.2). Sendo que neste caso, as funções-objetivo estão inseridas
no contexto do problema de programação linear em dois níveis, que pode ser definido
da seguinte forma: Minimizar { F1 } do primeiro nível, tendo como variáveis a e b,
submetida ao conjunto de restrições definidas em 3.4, sendo a função objetivo do
segundo nível: Minimizar { F2 }, tendo como variáveis x, y, e, w, z, f e s , submetida ao
conjunto de restrições definidos na seção 3.4. Onde :
Seja F1 a variável dependente do primeiro nível que está relacionada com o
total de atrasos nos centros de manutenção e com o desbalanceamento entre os níveis
de serviço dos centros de manutenção. Desta forma:
(3.1)
F1 = a + b
Minimizar { F1 } , tendo como variáveis a e b, considerando as restrições do
tópico 4.4. Sendo a e b solução da função objetivo do segundo nível e são definidas
da seguinte forma:
T
J
a = ∑ ∑ zjt
(3.2)
t =1 j =1
J
J'
b = ∑ ∑ bj j '
j =1 j ' =1
(3.3)
Sendo j e j’ definidos pela combinação de J dois a dois.
Onde o primeiro termo da equação (3.1) representa o número total de atrasos
- a - ocorridos nos Centros de Manutenção no horizonte de tempo considerado, sendo
definido na equação (3.2) e o segundo termo – b – representa o índice de
desbalanceamento entre os níveis de serviço dos centros de manutenção. A equação
(3.3) representa matematicamente o índice de desbalanceamento como sendo o
somatório das diferenças entre os níveis de serviço dos CMnt combinados dois a dois,
ou seja, são contabilizadas todas as diferenças de níveis de serviço dos centros de
manutenção. A implementação da equação (3.3) é apresentada novamente na restrição
h) da seção 3.4.
Sendo assim, a (atrasos nos centros de manutenção) tem domínio nos inteiros
positivos e b (desbalanceamento de níveis de serviços) tem domínio entre zero e um.
316
Pesquisa Naval Nº 16, Outubro de 2003
Considerando-se a soma dessas variáveis está-se, na prática, dando um peso maior ao
primeiro fator, que realmente é o mais importante.
Seja F2 a variável dependente do segundo nível que está relacionada com os
custos de transporte, com os custos de manutenção dos estoques no Depósito i e nos
CMnt j. Desta forma:
F 2 = ∑ HD (x t )
T
t =1
+ ∑ ∑ HC j ( w jt )
T
J
t =1
j =1
+ ∑ ∑ [ C Nj ( y jt ) + C Ej ( e jt )
T
J
t =1
j =1
(3.4)
]
Minimizar { F2 } , tendo como variáveis x, y, e, w, z, f e s . Sendo submetida ao
conjunto de restrições definidas na seção 3.4. Onde :
O primeiro termo da equação (3.4) representa o custo de manter o estoque no
depósito ao longo do tempo, o segundo termo representa o custo de manter o estoque
nos Centros de Manutenção ao longo do tempo e o terceiro termo representa o custo
de transporte ao longo do tempo, supondo que os custos não mudam no horizonte de
tempo considerado.
3.4 Restrições
As funções objetivo apresentadas na seção 3.3 estão sujeitas às seguintes
restrições:
a) Estoques no Depósito: A quantidade de sobressalentes estocada
no depósito em cada período t é igual ao estoque existente no período
anterior (t - 1) mais o que foi recebido no período t menos o que foi
expedido ( nas duas modalidades de transporte) para os Centros de
Manutenção no período t :
T
J
xt = x(t − 1) + kt − ∑∑( yjt + ejt)
t =1 j =1
(3.5)
Para t = 1,2,3..T e j = 1,2,3...J.
Observa-se que o estoque do depósito, xt, não pode ser negativo, ou seja,
não se pode enviar mais sobressalentes do que se tem em cada período t .
b) Capacidade de transporte: A quantidade de sobressalentes
transportada do depósito para cada Centro de Manutenção não
pode ser maior que a capacidade de transporte para esse CMnt em
cada período t :
yjt ≤ Vjt
Para t = 1,2,3..T e j = 1,2,3...J.
(3.6)
Pesquisa Naval Nº 16, Outubro de 2003
317
Esta restrição pode ser aplicada para as duas modalidades de transporte ( y t
e/ou ejt), normal e de emergência, conforme o contexto de aplicação do modelo.
c) Estoques nos Centros de Manutenção: O estoque em cada CMnt j
no período t é igual ao estoque do CMnt j no período anterior mais
a quantidade que foi expedida pelo depósito no período anterior
(modalidade normal) e a quantidade que foi expedida pelo depósito
no mesmo período (modalidade de emergência) menos o
fornecimento do período t :
wjt = wj ( t − 1) + yj ( t − 1) + ejt − fjt
(3.7)
Para t = 1,2,3..T e j = 1,2,3...J.
d) Atrasos nos Centros de Manutenção: Os atrasos ocorridos no CMnt
j no período t são definidos pela diferença entre a demanda existente
no CMnt j no período t e o fornecimento realizado no CMnt j no
período t , acrescentando os atrasos já existentes no período
anterior (t – 1) :
zjt = ( Djt − fjt ) + zj ( t − 1)
(3.8)
Para t = 1,2,3..T e j = 1,2,3...J.
Esta restrição possibilita a contabilização dos atrasos de forma acumulativa,
ou seja, caso haja um atraso no período t ,esse atraso será repassado para o período
seguinte até que seja atendido. Convém destacar que esta restrição complementa a
restrição c) , definindo também a quantidade fornecida fjt no CMnt j no período t .
e) Fornecimentos nos Centros de Manutenção: A quantidade de
sobressalentes fornecidos em cada CMnt j não pode ser maior que o
somatório das demandas do CMnt j no horizonte de tempo
considerado:
T
T
∑ f ≤ ∑d
jt
t =1
(3.9)
jt
t =1
Para j = 1, 2,3...J
As restrições definidas a seguir [f) , g) e h)] são definições de algumas
variáveis a serem otimizadas pelo modelo:
f) Nível de Serviço: O nível de serviço de cada CMnt j é definido como
sendo o somatório dos sobressalentes fornecidos no CMnt j dividido
pelo somatório das demandas ocorridas no CMnt j no horizonte de
tempo considerado:
T
sj = ∑ f jt
t =1
Para j = 1, 2,3...J.
T
∑d
t =1
jt
(3.10)
318
Pesquisa Naval Nº 16, Outubro de 2003
Analisando as restrições e) e f), observa-se que o nível de serviço pode variar
entre os seguintes valores:
(3.11)
0 ≤ sj ≤ 1
Multiplicando o sj por 100 obtém-se o nível de serviço percentual.
g) Atrasos dos Centros de Manutenção: O total de atrasos de
fornecimento dos Centros de Manutenção é definido como sendo o
somatório dos atrasos ocorridos em todos CMnt j em todos períodos
t:
T
J
a = ∑ ∑ zjt
t =1 j =1
(3.2)
Convém observar que os atrasos são contabilizados de forma acumulativa.
Sendo assim, a variável a representa o total de atrasos (saldos negativos de estoques)
ocorridos em todos os CMnt j em todos os períodos t do horizonte de tempo
considerado.
h) Índice de Desbalanceamento do Nível de Serviço dos CMnt: O índice
de desbalanceamento do nível de serviço dos centros de manutenção
é definido como sendo o somatório das diferenças entre os níveis de
serviço dos CMnt permutados dois a dois:
J
J'
b = ∑ ∑ bj j '
j =1 j ' =1
(3.3)
Sendo j e j’ definidos pela combinação de J dois a dois.
Para implementar a equação (3.3) foi necessário desenvolver as seguintes
equações:
bj j ' ≥ sj − sj '
bj ' j ≥ s j ' − s j
(3.12)
(3.13)
Sendo j e j’ definidos pela combinação de J dois a dois.
As equações (3.3), (3.12) e (3.13) contabilizam as diferenças entre os níveis de
serviço dos centros de manutenção combinados dois a dois. Somente será computada
a diferença entre maior nível de serviço subtraído do menor nível de serviço. Pois, caso
contrário, quando for subtraído o menor nível de serviço do maior nível de serviço,
esta subtração seria negativa e o modelo atribuiria o valor zero para esta diferença,
pois as variáveis ˜:bj’j e b j j’ são não negativas. Exemplificando:
Considerando-se dois centros de manutenção com níveis de serviços
distintos: s1 = 0,70 (70%) e s2 = 0,50 (50%). Neste caso, as equações (3.12) e (3.13)
contabilizariam respectivamente as diferenças da seguinte forma: b12= 0,20 e•0,70 – 0,50
e b21 = 0 e•0,50 – 0,70. Sendo assim, a equação (3.3) atribuiria o seguinte valor para o
índice de desbalanceamento: b = 0,20 + 0 = 0,20. Ou seja, calcularia o índice de
desbalanceamento ( b = 0,20) desta distribuição de sobressalentes.
Pesquisa Naval Nº 16, Outubro de 2003
319
i)
Variáveis Não Negativas: As quantidades de sobressalentes são
não negativas, conforme mostra o conjunto de equações (3.14)
abaixo:
(3.14)
x j ≥ 0 ;
y jt ≥ 0 ;
w jt ≥ 0
z jt ≥ 0 ;
b ≥ 0 ;
f
s
j
jt
e
≥ 0 ;
z ≥ 0
s j ' ≥ 0 ; b jj ' e b
jj '
≥
0
Para t =1,2,3..T e j = 1, 2,3...J .
Convém observar que na realidade na realidade as variáveis que tem como
unidade de medida quantidades de sobressalentes são inteiras e não negativas. Todavia,
esta condição foi simplificada neste modelo.
Com o intuito de possibilitar a coerência dos dados obtidos e proporcionar o
entendimento da otimização de cada função objetivo do modelo proposto, foram
desenvolvidos outros dois modelos em programação linear que otimizam isoladamente
cada função objetivo do modelo proposto: o “Modelo de Programação Linear para
Minimizar Custos de Sobressalentes” e o “Modelo de Programação Linear para
Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de
Sobressalentes”.Neste sentido, definiu-se que os parâmetros, as variáveis e as
restrições descritas são aplicáveis aos três modelos apresentados, ou seja, apenas as
funções objetivo são diferentes.
4 Aplicação do Modelo
O modelo proposto foi aplicado, utilizando dados reais referentes ao sistema
de gerenciamento de sobressalentes de reposição da IBM-Brasil, que possui um sistema
com múltiplos escalões para atender às demandas de sobressalentes de reposição de
informática para as suas filiais (Curitiba ,São Paulo, Rio de Janeiro, Porto Alegre,
Recife, Salvador, Brasília, Fortaleza, Vitória, Belém e Manaus).
Resumidamente, o fluxo de sobressalentes acontece da seguinte forma: as
filiais informam semanalmente as necessidades de sobressalentes, estipulando as
demandas diárias de acordo com o planejamento de atendimentos a clientes e históricos
de fornecimento existentes. Recebendo os pedidos, o Depósito Central, com base nos
estoques existentes e no planejamento de fornecimento de sobressalentes dos
fabricantes (nacionais e internacionais) e dos fornecedores de reparo, providencia o
transporte dos sobressalentes.
Durante a visita técnica no cliente, os técnicos definem se as peças são
recuperáveis ou não. Nas filiais as peças recuperáveis ou não, são reunidas e enviadas
ao Depósito Central, que realiza uma triagem e providencia a destruição ou a recuperação
das peças junto aos fornecedores de reparo. Após a recuperação, os sobressalentes
recuperados retornam para a cadeia de distribuição.
n:Nesse contexto, as filiais objetivam otimizar o atendimento ao cliente,
buscando minimizar os atrasos de fornecimento e reduzindo o desbalanceamento dos
seus níveis de serviço, enquanto que o Depósito Central está preocupado com a
minimização dos custos de transporte e manutenção dos estoques.
320
Pesquisa Naval Nº 16, Outubro de 2003
Conforme ilustrado na Figura 4.1, a área tracejada delimita a aplicação do
modelo proposto. Os fluxos eventuais entre as filiais não serão considerados. Foram
escolhidas três filiais (Porto Alegre, Rio de Janeiro e Recife) com distâncias variadas
em relação ao Depósito Central localizado em Hortolândia-SP e um sobressalente (placamãe para computador Pentium III) para aplicação do modelo proposto.
FIG 4.1: Estrutura da Cadeia de Suprimentos de Sobressalentes IBM
4.1 Parâmetros do Problema
São os seguintes os parâmetros da aplicação:
i. Planejamento de Fornecimento ao Depósito (Número de placas-mãe):
Período
Quantidade
1
K1=65
2
K2=0
3
K3=0
Pesquisa Naval Nº 16, Outubro de 2003
321
ii. Demanda de Sobressalentes nas Filiais ( Número de placas-mãe):
Período
Filial POA
1
D11= 10
2
D12= 0
3
D13= 3
D
Filial RIO
D21= 9
D22=0
D23= 12
D
Filial REC
D31= 15
D32= 10
D33= 0
D
iii.Custos de Manutenção do Estoque ( Reais/período ):
Depósito
Filial POA
Filial RIO
HD= 0,73
HC1= 1,05
HC2= 1,58
Neste cálculo foram considerados o custo do capital investido, seguros,
impostos e os custos de armazenagem.
iv.Custos de Transporte do Depósito para as Filiais ( Reais/placa-mãe ):
Transporte
Filial POA
Filial RIO
Normal
CN1= 5,58
CN 2= 4,09
Emergência
CE 1= 52,50
CE 2= 31,40
Os custos de transporte foram calculados considerando os custos médios
unitários em cada modalidade de transporte para as filiais (normal e de emergência). O
tempo para o transporte normal é de um dia e na modalidade emergencial o sobressalente
chega no mesmo dia, sendo definido contratualmente que a empresa contratada para o
transporte deve levar uma hora e meia para pegar o primeiro vôo, mais o tempo da
viagem de avião, mais uma hora para entregar os sobressalentes no local de destino,
ou seja, totalizando duas horas e trinta minutos mais o tempo de viagem aérea para a
entrega no local de destino na modalidade de emergência.
v. Estoques Iniciais Existentes (Número de placas-mãe) :
Depósito
X0=3
Filial POA
W10= 3
Filial RIO
W20= 9
vi. Expedições Iniciais para as Filiais (Número de placas-mãe) :
Filial POA
Filial RIO
Filial RE
Y10= 0
Y20= 0
Y30= 10
322
Pesquisa Naval Nº 16, Outubro de 2003
vii. Restrições Capacidade de Transporte de Sobressalentes do Depósito
para as Filiais: Não podem ser transportados mais do que 20 placas-mãe na modalidade
de emergência ( ejt d•20, para j = 1,2 e 3 e t = 1,2,3,4 e 5).
4.2 Resultados Obtidos
A Tabela 4.1 mostra os principais resultados obtidos pelo modelo na aplicação:
TAB 4.1: Resultados Obtidos
MIN CUSTOS
F1
( a + b)
211,32
ATRASOS
(a)
211
NS
POA
0,09
NS
RIO
0,23
PLDN
22,16
22
0,78
0,86
MIN ( a + b)
22
22
0,80
0,80
MODELO
Onde PLDN refere-se ao Modelo de Programação Linear em Dois Níveis para
Otimização de Estoques de Sobressalentes (proposto), MIN CUSTOS refere-se ao
Modelo de Programação Linear para Minimizar Custos e MIN (a + b) refere-se ao
Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos
Níveis de Serviço de Sobressalentes. Sendo que os dois modelos em Programação
Linear foram desenvolvidos para aprimorar a análise de resultados do modelo proposto,
utilizando-se isoladamente as funções objetivo do modelo proposto e as mesmas
restrições da seção 3.4.
5. Análise de Resultados
O custo calculado pelo Modelo de Programação Linear para Minimizar Custos
de Sobressalentes apresentou a solução com o menor custo (c = 198,56), mas não
otimizou os atrasos da distribuição (a = 211).
Os valores encontrados para os atrasos foram iguais para o Modelo de
Programação Linear em Dois Níveis para Otimização de Estoques de Sobressalentes e
para o Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento
dos Níveis de Serviço de Sobressalentes (a = 22). Todavia, observou-se que o custo
encontrado pelo Modelo de Programação Linear em Dois Níveis para Otimização de
Estoques de Sobressalentes (c = 1.210,92) foi menor do que o valor encontrado pelo
Modelo de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos
Níveis de Serviço de Sobressalentes (c = 1.957,85).
Ou seja, o Modelo de Programação Linear para Minimizar Atrasos e o
Desbalanceamento dos Níveis de Serviço de Sobressalentes apresentou uma solução
otimizada para o atraso (a = 22), mas não otimizou os custos envolvidos na distribuição
(c = 1.957,85), enquanto que o Modelo de Programação Linear em Dois Níveis para
Pesquisa Naval Nº 16, Outubro de 2003
323
Otimização de Estoques de Sobressalentes apresentou o menor atraso (a = 22) e
otimizou também os custos (c = 1.210,92), apresentando distribuição de
sobressalentes com índice de desbalanceamento (b = 0,16) maior do que o Modelo
de Programação Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis
de Serviço de Sobressalentes (b = 0) e menor do que o Modelo de Programação
Linear para Minimizar Custos (b = 0,32) .
Quanto aos níveis de serviço, o Modelo de Programação Linear para Minimizar
Atrasos e o Desbalanceamento dos Níveis de Serviço de Sobressalentes apresentou
uma solução com níveis de serviço iguais ( s1 = s2 = s3 = 0, 80 ), optando por
simplesmente proporcionar o mesmo nível de serviço as filiais, todavia, não otimizou o
custo. Enquanto que o Modelo de Programação Linear em Dois Níveis para Otimização
de Estoques de Sobressalentes apresentou uma solução com níveis de serviço iguais
para as Filiais de Porto Alegre e Recife ( s1 = s3 = 0,78 ) e optou por aumentar o nível de
serviço da Filial do Rio de Janeiro (s2 = 0,86), tendo em vista a minimização dos custos.
Sendo assim, verificou-se nesta aplicação que o Modelo de Programação
Linear para Minimizar Atrasos e o Desbalanceamento dos Níveis de Serviço de
Sobressalentes otimizou o atraso e o balanceamento dos níveis de serviço das filiais
e otimiza os custos de transporte e de manutenção de estoques, ou seja, foi evidenciada
a minimização dos atrasos e do desbalanceamento da função objetivo do primeiro
nível F1 e a otimização dos custos da função objetivo do segundo nível F2. Observando
que os resultados apresentados pelo Modelo de Programação Linear em Dois Níveis
para Otimização de Estoques de Sobressalentes (O Modelo Proposto) apresenta
desempenho eficaz na solução do problema e que os resultados apresentados são
coerentes com a contextualização do problema.
6. Conclusões
Neste trabalho demonstrou-se que a Programação Linear em Dois Níveis é
uma ferramenta poderosa na otimização de estoques de sobressalentes em cadeias
com múltiplos níveis. Conforme verificado nos resultados apresentados na aplicação
do modelo proposto conclui-se que a Programação Linear em Dois Níveis é uma
ferramenta aplicável com sucesso ao gerenciamento de estoques, evidenciando um
desempenho eficaz na solução do problema apresentado
Na aplicação verificou-se que o Modelo de Programação Linear em Dois
Níveis para Otimização de Estoques de Sobressalentes otimizou os atrasos e o
balanceamento dos níveis de serviço dos centros de manutenção obtendo o menor
atraso possível e um índice de desbalanceamento baixo, por outro lado, otimizou também
os custos de transporte e de manutenção de estoques. Ou seja, os resultados
apresentados pelo modelo proposto evidenciam um desempenho eficaz na solução do
problema apresentado.
Sendo assim, a proposta deste trabalho de desenvolver um modelo para
otimizar os estoques de sobressalentes utilizando a Programação Linear em Dois Níveis
324
Pesquisa Naval Nº 16, Outubro de 2003
foi atingida com sucesso, possibilitando a consideração da participação dos níveis de
tomada de decisão inseridos em uma estrutura hierárquica, contribuindo com o
aprimoramento das soluções referentes ao problema do gerenciamento de estoques.
Uma outra colaboração expressiva do trabalho foi o desenvolvimento de um
modelo que permita uma nova abordagem para o cálculo do nível de serviço, pois na
implementação do modelo proposto não foi necessário utilizar métodos tradicionais,
tais como determinação prévia de um nível mínimo de serviço ou aplicação de multas
contratuais por atrasos.
Bibliografia
Ballou, R. H., Business Logistics-Importance and Some Research Oportunites,
Revista Gestão e Produção - G&P, v.4, n.2,p.117-129, ago.1997.
Bialas, W. F. E Karwan, M. H.. Two-Level Linear Programming. Management
Science, vol.30, n.8, 1984.
Bowersox, D. J. E Closs, D. J.. Logística Empresarial: o Processo de Integração da
Cadeia de Suprimento, Editora Atlas, 2001.
Campêlo, Manuel Bezerra Neto, Programação Linear em Dois Níveis: Uma
Abordagem Teórica e Computacional, Tese de Doutorado – COPPE- Universidade
Federal do Rio de Janeiro,1999.
Huiskonen, Janne, Maintenance Spare Parts Logistcs: Special Characteristics
and Strategic Choices, International Journal of Production Economics, 2001.
Kennedy, J.Wayne Patterson, Lawrence D. Fredendall, An Overview of Recent
Literature on Spare Parts Inventories, International Journal of Production Economics,
2001.
Neves, Júlio César S.. Modelo de Programação Linear Binível para Alocação
Dinâmica de Veículos. Tese de Doutorado, Universidade Federal do Rio de Janeiro,
2002.
Novaes, A. Galvão. Logística e Gerenciamento da Cadeia de Distribuição.
Editora Campos, 2001.
Sherbrooke, Craig C.. Optimal Inventory Modeling of Systems: Multi-Echelon
Techniques. John wiley&Sons,1992.
Pesquisa Naval Nº 16, Outubro de 2003
325
PUBLICAÇÃO DE TRABALHOS
A “Revista Pesquisa Naval”, Suplemento Especial da Revista Marítima Brasileira,
é editorada pela Divisão de Ciência e Tecnologia do Estado-Maior da Armada, e tem
como propósitos divulgar resultados científicos e tecnológicos de interesse da Marinha
do Brasil e servir de veículo para intercâmbio com instituições que desenvolvem
pesquisas de interesse naval. Possui tiragem anual e publica, neste ano, sua 16a edição.
É distribuída para Bibliotecas, Universidades, pesquisadores e órgãos com interesse
nos assuntos de natureza científica. A “Revista Pesquisa Naval” possui
reconhecimento internacional, constituindo veículo indexado de C&T.
REQUISITOS
1Qualquer pessoa, pertencente ou não à Marinha do Brasil, poderá submeter
trabalhos para publicação.
2Não há limite para o número de artigos por autor.
3Os trabalhos deverão ser de interesse científico, não podendo já ter sido
publicados em quaisquer revistas ou periódicos (exceção feita a anais de Congressos).
Os artigos deverão ser endereçados à Coordenação da “Revista Pesquisa Naval” até
30 de junho de cada ano, acompanhados de carta declarando não terem sido publicados
em nenhuma revista ou periódico, autorizando sua veiculação no Suplemento, e
fornecendo endereço para correspondência.
4Os trabalhos enviados serão apreciados, sendo rejeitados aqueles que, de
acordo com o julgamento da Coordenação da Revista, e após apreciação por
especialistas da comunidade científica, não possuírem interesse científico e não
obedecerem aos padrões de apresentação especificados adiante. Se a discrepância for
pequena, e houver tempo hábil, poderá ser solicitado ao autor que efetue modificações.
5No caso de haver maior número de trabalhos que um único exemplar do
Suplemento possa comportar, os artigos aceitos serão distribuídos por diversos
números.
6Os trabalhos, mesmo se rejeitados, não serão devolvidos, exceto para satisfazer
a demanda de alterações, se este for o caso.
7Os trabalhos, mesmo publicados, não serão remunerados.
8A apresentação dos originais deverá obedecer às seguintes regras:
a) O trabalho deverá ser enviado através de texto escrito, e em arquivo gravado
em meio magnético, podendo ser utilizado o meio eletrônico; deverá ser digitado
em PageMaker 7.0 ou Word 97, em espaço simples, e apresentado em 02
(duas) vias, em folhas tamanho A4, em um só lado, e uma mancha de 18cmX12
cm. Configuração da página: marg. sup. 6,3 cm, marg. inf. 5,5 cm, marg. esq. e
dir. 4,5 cm, cabeçalho 4,6 cm e rodapé 1,25, tamanho de fonte 10, formato
Times New Roman, inclusive para quadros, fotografias, etc, inclusos no texto;
326
Pesquisa Naval Nº 16, Outubro de 2003
b) Os originais não deverão exceder 12 páginas A4, incluindo anexos;
c) O nome do autor deverá vir seguido do título profissional e do nome da instituição
onde exerce atividade científica;
d) Figuras e gráficos deverão ser encaminhados em disquete à parte, em software
gráfico, com indicação de localização no texto e respectivas legendas;
e) Os trabalhos deverão conter as Seguintes seções: (1) Resumo (Português) e
“Abstract” (Inglês) com no máximo 150 palavras cada; (2) Introdução; (3)
Metodologia; (4) Resultados; (5) Discussão; (6) Conclusões e (7) Referências
Bibliográficas. Permite-se a omissão da Seção (3) e a fusão das Seções (4) e
(5), quando a natureza do trabalho assim o recomendar; e
f) Para aspectos gerais de apresentação, referências bibliográficas, notas e
demais detalhes, seguir as Normas da ABNT sobre Documentação;
especificamente as Normas NB-62, NB-66 e NB-88.
9 - Para encaminhamento dos trabalhos e quaisquer informações adicionais, contatar a
Coordenação da “Revista Pesquisa Naval” no seguinte endereço:
Coordenação da “Revista Pesquisa Naval”
Divisão de Ciência e Tecnologia
Subchefia de Logistica e Mobilização
Estado-Maior da Armada
Esplanada dos Ministerios, Bloco N, Plano Piloto
CEP: 70055-900 - Brasília, DF – Brasil
Tel: (61) 429-1086
Fax: (61) 429-1121
e-mail: [email protected] ou [email protected]
ESTADO-MAIOR DA ARMADA
Departamento Industrial Gráfico
Base de Hidrografia da Marinha em Niterói
Rua Barão de Jaceguay, s/nº – 24.048-900
Niterói – RJ – Brasil – 2003
SUPLEMENTO ESPECIAL DA
REVISTA MARÍTIMA BRASILEIRA
Nº 16
OUT
2003
PESQUISA NAVAL
Download

16ª Edição - Marinha do Brasil