Métodos de Calibração de
Modelos hidrológicos
Carlos Ruberto Fragoso Júnior
1:05
Sumário





3:50
Conceito básicos
 O que é calibração?
 Problemas comuns na calibração de modelos hidrológicos
 Ciclo da calibração
Métodos de calibração
Função objetivo
Técnicas numéricas
 Busca aleatória
 Técnicas iterativas;
 Busca direta;
 Técnicas de otimização global;
 Algoritmos genéticos
Critérios de parada
O que é calibração


3:50
Procura de valores dos
parâmetros de um
modelo matemático
que resultem em uma
boa concordância entre
dados observados e
calculados;
O erro é minimizado!!
Calibração - Otimização
Encontrar o mínimo ou o máximo de uma
função

160
140
120
100
80
60
40
20
0
0
3:50
10
20
30
Problemas comuns em modelos
hidrológicos


3:50
Encontrar um conjunto ótimo de
parâmetros que ajusta um evento de cheia
ou uma série de vazões;
Encontrar o coeficiente do reservatório
linear simples que ajusta adequadamente
uma recessão de vazão.
Problema:



3:50
Encontrar o coeficiente do reservatório linear
simples que ajusta adequadamente uma
recessão de vazão.
Q=V/k
Q(t+dt) = Q(t) . exp(-dt/k)
3:50
3:50
Q(t+dt) = Q(t) . exp(-dt/k)
Primeiro teste: k = 20
3:50
Problemas na calibração de modelos
hidrológicos




3:50
Modelos hidrológicos geralmente tem muitos
parâmetros
Não lineares
Técnicas de otimização automáticas
Usar Funções Objetivo
Ciclo da calibração
Critérios para mudança
dos parâmetros
Critérios para um “bom
ajuste” (Função objetivo)
Rodar o modelo
Ajustar os
parâmetros
Critérios de parada
3:50
Verificar o erro
Métodos de calibração
Métodos de
calibração
Tentativa e erro
(Manual)
Técnicas numéricas
Ajusta os parâmetros
manualmente
baseado nos
resultados
Usa algoritmos
numéricos para
encontrar um conjunto
de parâmetros
ótimo
Aleatório
Assume faixa de
probabilidade para
cada parâmetro
3:50
Funções Objetivo (FO)


Medida do erro – objetivo é minimizar a FO
Diferentes funções objetivo







Somatório dos erros: compensação de erros
Somatório do módulo dos erros
Somatório dos erros ao quadrado
Somatório de erros relativos
Somatório dos desvios dos inversos da vazão
Erro de volume (bias)
Coeficiente de eficiência de Nash-Sutcliffe
70
Observada
60
simulada
vazões
50
40
30
20
10
0
3:50
0
20
40
60
80
tempo
100
120
140
Funções objetivo

Raiz do Erro Médio
Quadrado (RSME)
RMSE 
3:50

n
i 1
( X obs,i  X mo del ,i ) 2
n
Funções objetivo

Raiz do Erro Médio
Quadrado Normalizado
(NRSME)
RMSE
NRMSE 
X obs,max  X obs,min
RMSE
NRMSE 
X obs
3:50
Funções objetivo

Coeficiente de correlação de Pearson
r
3:50


n
i 1
n
i 1
( xi  x)  ( yi  y )
( xi  x) 
2

n
i 1
( yi  y ) 2
Funções objetivo

Coeficiente de eficiência de Nash-Sutcliffe

E  1

n
i 1
n
( X obs ,i  X mo del ) 2
i 1
3:50
( X obs ,i  X obs ) 2
Funções Objetivo
N
F1   (QOi  QCi )
2
Função quadrática
i 1
N
F2   QO i  QC i
i 1
N
F3   (
i 1
N
1
1 2

)
QOi QCi
F4   (
i 1
3:50
QOi  QCi 2
)
QOi
Função módulo
Função para mínimos
Função relativa
Exemplo
3:50
Técnicas de otimização


Cálculo analítico
Técnicas numéricas



3:50
Busca aleatória
Busca direta
Algoritmos genéticos
Cálculo analítico

Encontrar pontos da função em que a derivada é
zero.


vantagens (pode ser rápido, é mais elegante)
desvantagens (funções de picos múltiplos, funções
descontínuas, ausência da forma analítica da função - por
exemplo no problema de calibração de um modelo chuvavazão)
160
140
F(x)  a  b.x  c.x 2
120
100
80
60
40
dF
0
dx
20
3:50
0
0
10
20
30
Cálculo analítico - Conceitos
Haverá sempre um ponto de máximo ou mínimo, seja no
interior da região delimitada pelas restrições ou nos limites,
desde que a função objetivo seja contínua.
A condição necessária para que exista um ponto de máximo ou
mínimo é a seguinte: pontos estacionários
F
 0 para i = 1,2,...n
x i
A condição suficiente para que um ponto estacionário seja
um mínimo é a seguinte
R i  0 para i = 1,2,...n
onde Ri são os menores principais da matriz Hessiana H.
3:50
 2F
x12
 2F
H  x x
2 1
...
 2F
x n x1
3:50
 2F
x1x 2
 2F
...
x1x n
 2F
 2F
...
x 2 x n
...
...
 2F
...
x 2n
x 22
...
 2F
x n x 2
Exemplo
Determine o mínimo da função
y
 2x1  x 2  14  0
x1
y  x12 14x1  2x 22  x1x 2
y
 4x 2  x1  0
x 2
2y
x12
 2;
2y
x 22
= 4;
2y
2y
=
= -1
x1x 2 x 2 x1
x1= 8
x2 = 2
H=
3:50
2 1
1
4
y = -56
Matriz positiva definida
Técnicas numéricas - Busca Aleatória


3:50
Vantagens:
funções
descontínuas;
picos múltiplos
Desvantagens:
demorado; não
existe garantia de
atingir o ponto
ótimo global
160
140
“Ótimo”
120
100
80
60
40
20
0
0
10
20
30
Características das Técnicas Numéricas

Definição do ponto de partida: o critério para inicializar o processo de
tentativa em geral depende mais do problema em questão do que do
método.


Direção de pesquisa: a direção de pesquisa identifica o vetor no qual
serão realizadas as alterações das variáveis.
Espaçamento de cada tentativa: identifica a variação que ocorrerá na
direção de pesquisa a cada tentativa.

Critérios de parada: envolve a definição dos critérios para aceitar uma
determinada solução como o ótimo de uma função.
3:50
Técnicas numéricas - Busca direta
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0

3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
Estratégia de caminhar “morro acima”
5
Função objetivo: F(x1,x2)
5
4.5
4
3.5
3
x2
2.5
2
1.5
Máximo local
1
Máximo global
0.5
0
0
0.5
1
1.5
2
x1
3:50
2.5
3
3.5
4
4.5
5
Início: ponto coordenadas (parâmetros) aleatórias
5
4.5
X2=valor
aleatório entre
ced
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
X1=valor aleatório entre a e b
3:50
Determina direção de busca: exemplo x2=x2+0,3; x1=x1
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Função objetivo melhorou? Não, então tenta no outro sentido.
3:50
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
F.O melhorou? Sim, então continua no mesmo sentido
3:50
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
F.O melhorou? Sim, então continua no mesmo sentido
3:50
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
F.O melhorou? Sim, então continua no mesmo sentido
3:50
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
F.O melhorou? Não, então volta para o ponto anterior...
3:50
...e muda a direção de busca.
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
F.O melhorou? Sim, então continua no mesmo sentido
3:50
E assim segue até encontrar um ponto em que não existe
direção de busca que melhore o valor da FO
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Método unidirecional
1. Direção de pesquisa paralela aos
eixos;
2. Pesquisa em cada direção:
espaçamento constante ou variável
3. Critério de parada desvantagens: (ao
lado)
3:50
Método da rotação das coordenadas
(Rosenbrook)
Primeiro
ciclo igual ao
univariacional
segundo ciclo com
rotação
duas alternativas para
pesquisa em cada direção:
método original que
alterna a pesquisa de
cada direção em cada
tentativa;
3:50
Primeiro ciclo direção x1
x12  x10  S1  14; y2 = 88
x13  x11  S1  14  1,5x1  12,5; y3 = 63,25
x14  12,5  1,5x1,5  10,25 ; y4 = 34,56
x15
x16
3:50
Primeiro ciclo direção x2
x12  4  1  3; y8 = -12,01
x 22  3  1,5.1,0  1,5; y9 = -33,02
 10,25  1,5x 2,25  6,88; y5 = 10,52
x 32  1,5  1,5.1,5  0,75; y10 = -47,67
 6,88  1,5x3,375  1,82; y6 = 17,16
x 42  0,75  1,5.2,25  4,13; y11= -31,67
Rosenbrock: Método um pouco mais eficiente
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Direção de busca é a que potencialmente dará maior incremento da FO
3:50
Limitação da busca direta: Ótimos locais
5
4.5
4
3.5
Região que
atrai solução
para o ótimo
local
3
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Tentativa de contornar problema: Busca direta com
inicialização múltipla
5
4.5
Várias
tentativas;
espera se que
o ótimo global
seja a melhor
solução
testada.
4
3.5
3
2.5
2
1.5
1
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Problema: Ineficiente e ineficaz quando a FO tem muitos ótimos locais
3:50
Técnicas numéricas – Busca direta

Busca direta (Rosenbrock e cia.)


3:50
vantagens: funções descontínuas; otimização
por simulação (funções que não podem ser
expressas analiticamente - calibração de
modelos)
desvantagens: funções com picos múltiplos
Técnicas numéricas – Algoritmos genéticos
Início
Inicialização da população
Cálculo da aptidão
Solução
encontrada?
Nova
população
Seleção
Reprodução
Mutação
3:50
Fim
Algumas regras gerais dos algoritmos
genéticos
•Conceitos de população, reprodução e gerações
•Filhos são semelhantes aos pais
•Os pais mais “adaptados” tem maior
probabilidade de gerar filhos
•Os filhos não são completamente iguais aos
pais
3:50
Pais mais adaptados têm maior probabilidade
de gerar filhos
(sobrevivência do mais apto = seleção natural)
Darwin
3:50
Algoritmos genéticos


3:50
Na natureza: indivíduos mais adaptados têm
maior probabilidade de sobreviver até chegar
à fase reprodutiva e de participar do
processo de reprodução.
No algoritmo: pontos com maior FO têm
maior probabilidade de serem escolhidos
para participar dos complexos.
Algoritmo genético “puro”
1 - gera população (pontos aleatórios)
160
140
120
100
80
60
40
20
0
0
3:50
10
20
30
2 - escolhe pontos para participar do processo de “reprodução”
(pontos com melhor FO tem maior probabilidade de escolha
160
140
120
100
80
60
40
20
0
0
3:50
10
20
30
2 - Exemplo de reprodução: escolhidos dois pontos
160
140
120
100
80
60
40
20
0
0
10
Xa=8
binário
3:50
Xa=01000
20
Xb=19
Xb=10011
30
Genética: filhos “recebem”
cromossomos dos pais
01000
10011
É determinado um (ou mais) ponto de “corte”
(aleatório)
01011
10000
Filho 1: parte dos “cromossomos” do pai e parte da mãe
Filhos:
3:50
Filho 2: outra parte dos “cromossomos” do pai e parte da mãe
Xa=01011 = 11
Xb=10000 = 16
160
140
120
pais
100
80
60
40
filhos
20
0
0
3:50
10
20
30
Mutação: evento de baixa probabilidade
Genética: filhos “recebem”
cromossomos dos pais
01000
10011
É determinado um (ou mais) ponto de “corte”
(aleatório)
01011
10100
Filho 1: sem mutação
Filhos:
3:50
Filho 2: mutação
Xa=01011 = 11
Xb=10100 = 20
Reprodução de todos os pontos
escolhidos resulta na nova geração
160
140
120
100
80
60
40
20
0
0
3:50
10
20
30
Depois de algumas gerações
160
140
120
100
80
60
40
20
0
0
3:50
10
20
30
Algumas desvantagens do
algoritmo genético puro
•Números binários
•Transformação de variáveis de base decimal para binária
-0,05
+180,3
Variável Y
0000000000
1111111111
Usando 10 bits; Resolução = 0,176
3:50
decimal
Algumas vantagens do algoritmo genético puro
Otimização com números inteiros
Diâmetros comerciais
3:50
Evolução de complexos misturados
(Shuffled complex evolution)


SCE - UA
Usa técnicas de





3:50
busca aleatória
algoritmos genéticos
simplex (Nelder e Mead)
Proposto por Duan, Gupta e
Sorooshian (U. Arizona)
Descrito no livro Sistemas
Inteligentes da ABRH
5
4.5
4
3.5
3
Passo 1
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 2
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 3
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 4
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 5
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 6
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 7
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 8
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 9
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 10
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5
4.5
4
3.5
3
Passo 20
2.5
2
1.5
1
0.5
0
0
3:50
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
1 - Geração aleatória de pontos
5
4.5
4
3.5
Complexos = “casais”
3
2.5
Obs.: Casais podem
ser de mais de dois
pontos.
2
1.5
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
2 - Formar complexos
5
4.5
4
3.5
Complexos = “casais”
3
2.5
Obs.: Casais podem
ser de mais de dois
pontos.
2
1.5
Exemplo: complexos
de 4 pontos
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
3 - Formar sub-complexo (exemplo)
5
Obs.: Nem todos os
pontos de um
complexo fazem parte
do sub-complexo.
4.5
4
3.5
3
Exemplo:
subcomplexo de 3
pontos extraído de um
complexo de 4 pontos.
2.5
2
1.5
A probabilidade de um
ponto do complexo
participar do sub-complexo
é proporcional à FO.
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Define pior ponto do sub-complexo
5
4.5
4
3.5
3
2.5
2
1.5
Exemplo:
sub-complexo
de 3 pontos
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Define centróide dos melhores pontos
5
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Passo de reflexão
5
4.5
Passo de reflexão:
distância a = distância b
4
3.5
a
3
Verifica valor da FO
no novo ponto,
se é melhor do que
pior ponto, novo
ponto é aceito,
se não, vai para o
passo de contração.
2.5
b
2
1.5
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Passo de contração
5
4.5
Passo de contração:
distância a = distância b
4
a
3.5
b
3
Verifica valor da FO
no novo ponto,
se é melhor do que
pior ponto, novo
ponto é aceito,
se não, cria ponto
aleatório.
2.5
2
1.5
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Ponto aleatório
5
4.5

4
3.5
3
2.5
2
1.5
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Um novo ponto é gerado
no espaço definido pelos
limites mínimo e máximo
de cada um dos
parâmetros no
complexo.
Ponto aleatório
5
4.5

4
3.5
3
2.5
2
1.5
1
0.5
0
3:500
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Um novo ponto é gerado
no espaço definido pelos
limites mínimo e máximo
de cada um dos
parâmetros no
complexo.
Nova geração
5

4.5
4
3.5
3
2.5
2
1.5
1
0.5
3:50
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Cada complexo gera um
novo ponto (filhote), seja
por um passo de
reflexão, de contração
ou aleatório. O novo
ponto substitui o pior
ponto do complexo. Ao
final de uma rodada de
evolução existe uma
nova geração, com o
mesmo tamanho de
população (número de
pontos).
Pais mais adaptados têm maior probabilidade
de gerar filhos
(sobrevivência do mais apto = seleção natural)

Probabilidade de escolha
1

0
Valor da FO
Posição no ranking
3:50
1) Classificar os
pontos do complexo
em ordem de FO
(ranking)
2) Atribuir
probabilidade de
escolha para
participar do subcomplexo segundo
a função do
desenho:
Exemplo
Sub-Complexo
Complexo
5
5
4.5
4.5
4
4
3.5
3.5
3
3
2.5
2.5
2
2
1.5
1.5
1
1
0.5
0.5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
0
0
0.5
1
1.5
2
2.5
3
3.5
4
Dois pontos do complexo ficaram fora do sub-complexo.
Não necessariamente os piores pontos ficam fora.
3:50
4.5
5
Filhos são semelhantes aos pais
Genética: filhos “recebem” cromossomos
dos pais
5
Algoritmo SCE-UA:
No lugar dos “casais” estão
os “complexos”, que são
“casais” de n pontos
4.5
4
3.5
a
3
2.5
b
2
1.5
1
0.5
0
3:50
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Aplicações




3:50
Calibração do modelo IPH-2
Calibração multi-objetivo do modelo IPH-2
Calibração multi-objetivo do modelo de
grandes bacias
Ajuste de parâmetros de curva de infiltração
de trincheira (Vladimir)
Calibração automática com SCE-UA
Função objetivo:
Coeficiente de Nash Sutcliffe
3:50
Cada ponto representa os valores dos parâmetros escolhidos.
A FO é o coeficiente de Nash Sutcliffe. Para ser avaliada, deve
ser realizada uma simulação completa (por exemplo, 10 anos de
dados diários).
5
4.5
4
3.5
3
700
2.5
600
calculada
observada
2
Vazão (m3 /s)
500
400
1.5
300
1
200
0.5
100
0
0
0
01/jun/72
3:50
01/jul/72
31/jul/72
30/ago/72
29/set/72
29/out/72
28/nov/72
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Teste 1:
Calibração com série sintética de vazões
Vazão observada é substituída pela vazão gerada pelo modelo
Teoricamente o método de calibração deve encontrar os
parâmetros utilizados na geração da série.
Valores dos parâmetros utilizados no teste
3:50
I0
Ib
h
Ks
Kbas
Rmax
Alf
50,0
1,0
0,8
5,0
100,0
4,0
2,0
Resultados teste 1

Em 10 aplicações sucessivas o algoritmo de calibração atingiu
sempre o ótimo global (conjunto de parâmetros que gerou a
série sintética), em menos do que 10.000 avaliações da função
objetivo
140
Valor do parâmetro ao longo do processo

Literatura mostra
testes semelhantes
com métodos
Rosenbrock e outros,
que não conseguem
superar este teste.
Valor do parâmetro I0
120
100
I0 = 50
80
60
40
20
0
0
3:50
2000
4000
6000
8000
Número de avaliações da função
10000
12000
Teste 2: calibração dados observados
Calibração
I0
Ib
h
Ks
Kbas
Rmax
Alf
R2
1
36,04
0,46
0,93
7,52
11,11
2,80
19,99
0,85915
2
36,04
0,46
0,93
7,52
11,16
2,80
19,99
0,85915
3
36.03
0.46
0.93
7,52
11,05
2,80
19,99
0,85915
4
35.91
0.46
0,93
7.56
11.95
2.81
19.69
0,85915
5
36.02
0.46
0,93
7.52
11.09
2.80
19.98
0,85915
6
36.04
0.46
0.93
7.52
11.14
2.80
19.99
0,85915
7
36.04
0.46
0,93
7.52
11.12
2.80
19.99
0,85915
8
36.05
0.46
0,93
7.52
11.13
2.80
19.99
0,85915
9
36.03
0.46
0.93
7.52
11.11
2.79
19.99
0,85915
10
36.04
0.46
0.93
7.52
11.16
2.80
19.99
0,85915
Calibração do modelo IPH-2 (10 vezes)
3:50
SCE-UA aplicado ao IPH-2



3:50
Fortes evidências de que o algoritmo
encontra o ótimo global.
Melhor que Rosenbrock.
Pior que calibração manual porque só leva
em conta uma função objetivo.
Otimização multi-objetivo




3:50
Considerar mais de uma FO.
Calibração de modelos hidrológicos
distribuídos
Otimização de sistemas de reservatórios de
usos múltiplos (controle de cheias x
regularização de vazão)
Vazão e evapotranspiração
Otimização multi-objetivo
12
11
Função 1
10
9
F1
F2
Região de Pareto
8
7
Função 2
F(x)
6
5
4
3
2
1
0
-1
-2
0
1
2
3
4
5
6
7
8
9
10
x
Em geral o ótimo de uma função não corresponde ao ótimo
da outra.
3:50
Otimização multi-objetivo

Um problema de otimização multi-objetivo tem
um conjunto de soluções igualmente válidas.
12
11
10
9
F1
F2
Região de Pareto
8
7
F(x)
6
5
4
3
2
1
0
-1
-2
0
3:50
1
2
3
4
5
x
6
7
8
9
10
Região de Pareto ou Curva de Pareto

Conjunto de pontos em que a solução não
pode ser considerada pior do que qualquer
outra solução.
12
11
10
9
F1
F2
Região de Pareto
8
7
F(x)
6
5
4
3
2
1
0
-1
-2
0
1
2
3
4
5
x
3:50
6
7
8
9
10
Exemplo IPH 2
Faixa válida dos parâmetros.
Parâmetr Unidade
o
Io
mm.t-1
Ib
mm.t-1
H
Ks
t
Ksub
t
Rmáx
mm
Alf
-
Valor
mínimo
10
0,1
0,0
0,01
30,0
0,0
0,01
2 FO: Erro volume e RMSE
3:50
Valor
máximo
300
10
1,0
10,0
40,0
9,0
20,0
Geração 1
8
7
Erro no volume
6
5
4
3
2
1
0
15000
17000
19000
21000
Soma desvios quadrados
3:50
23000
25000
Geração 10
8
7
Erro no volume
6
5
4
3
2
1
0
15000
17000
19000
21000
Soma desvios quadrados
3:50
23000
25000
Geração 20
8
7
Erro no volume
6
5
4
3
2
1
0
15000
17000
19000
21000
Soma desvios quadrados
3:50
23000
25000
Geração 50
8
7
Erro no volume
6
5
4
3
2
1
0
15000
17000
19000
21000
Soma desvios quadrados
3:50
23000
25000
Geração 138
8
7
Erro no volume
6
5
4
3
2
1
0
15000
17000
19000
21000
Soma desvios quadrados
3:50
23000
25000
Avaliação da incerteza: usar todos os
conjuntos e gerar vários hidrogramas
3:50
Propagação da incerteza: Q90 calculada, por
exemplo, vai de 8,9 a 10,5 m3.s-1, sendo que a
Q90 observada é de 9,1 m3.s-1
3:50
Problemas de recursos hídricos esperando por uma
abordagem com algoritmos genéticos no CTEC






3:50
Dimensionamento de sistema de reservatórios de
abastecimento ou controle de cheias
Dimensionamento de canais e redes de
abastecimento
Otimização de operação de reservatórios
Substituir Rosenbrock
Substituir programação linear
Substituir programação dinâmica
Problemas de recursos hídricos esperando por uma
abordagem com algoritmos genéticos no CTEC

Problemas de otimização com inteiros


3:50
diâmetros comerciais de condutos
parâmetros comerciais de bombas
Sugestões de leitura






3:50
Yapo, P. O.; Gupta, H. V.; Sorooshian, S. 1998 Multi-objective global optimization for
hydrologic models. Journal of Hydrology, Vol. 204 pp. 83-97.
Sorooshian, S.; Gupta, V. K. 1995 Model calibration In: Singh, V. J. (editor) Computer models of
watershed hydrology. Water Resources Publications, Highlands Ranch. 1130 p.
Duan, Q.; Sorooshian, S.; Gupta, V. 1992 Effective and efficient global optimization for
conceptual rainfall-runoff models. Water Resources Research Vol. 28 No. 4. pp. 1015-1031.
Duan, Q.; Sorooshian, S.; Gupta, V. 1994 Optimal use of the SCE – UA global optimization
method for calibrating watershed models. Journal of Hydrology, Vol 158 pp. 265-284.
Bonabeau, E.; Dorigo, M.; Theraulaz, G. 2000 Inspiration for optimization from social
insect behaviour. Nature Vol. 406 July pp.39-42.
Goldberg, D. 1989 Genetic Algorithms in Search, Optimization and Machine Learning AddisonWesley, 412 pp.
Sugestões de leitura



3:50
Klemes, V. 1986 Operational testing of hydrological simulation models. Hydrological Sciences
Journal V. 31 No. 1 pp. 13-24.
Nash e Sutcliffe, 1970 (Journal of Hydrology)
Particle Swarm Optimization
Download

Função objetivo