CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
3. SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
O presente capítulo inicia-se com a sistematização de alguns conceitos teóricos
que são essenciais ao entendimento da temática abordada. Deste modo, na
primeira secção apresentam-se as metodologias mais frequentemente adoptadas
no âmbito da interpolação de fenómenos espacialmente distribuídos.
A segunda secção introduz algumas técnicas e critérios de avaliação destinados à
comparação de estimativas produzidas por métodos de interpolação distintos.
Na terceira secção efectua-se uma revisão da literatura mais relevante sobre a
interpolação espacial da precipitação, recorrendo às metodologias e técnicas
anteriormente explanadas.
Na quarta secção expõem-se alguns conceitos sobre a delimitação de regiões
homogéneas para, em seguida, dar uma panorâmica das abordagens ao problema
da estimação de precipitação através da subdivisão do domínio espacial em áreas
homogéneas.
A quinta secção apresenta algumas metodologias vocacionadas para a avaliação
dos efeitos de escala e descreve estudos que se dedicaram à avaliação da
influência da variação do nível de desagregação espacial na estimação.
Na sexta secção apresenta-se uma revisão de estudos sobre o desenho e
redimensionamento de redes de monitorização de precipitação tendo por base a
análise de séries e a estimação.
A sétima e última secção do presente capítulo sistematiza as lacunas identificadas
nas áreas abordadas.
3.1 INTERPOLAÇÃO ESPACIAL DE INFORMAÇÃO ASSOCIADA A PONTOS
A interpolação é uma técnica usualmente adoptada para estimar valores
desconhecidos de uma função a partir de valores conhecidos da mesma função. O
exemplo que se segue ilustra a aplicação da interpolação linear no cálculo de um
valor que não consta da tabela fornecida. Imaginemos que f(x) é uma função
contínua. O Quadro 3.1 apenas apresenta valores de f(x) para algumas
concretizações de x. Pretende-se calcular qual o valor da mesma função para x=b,
ou seja f(b). Adoptemos a notação f^(b) para designar uma estimativa do
verdadeiro valor f(b).
11
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Quadro 3.1 – Exemplo de aplicação da interpolação linear na estimação de
valores de uma função não tabelados
x
a
b
c
d
f(x)
f(a)
?
f(c)
f(d)
Atendendo a que: a < b < c < d, a interpolação linear propõe a utilização das duas
observações mais próximas de b para estimar f(b):
f^ (b) = f(a)(b - a)/(c - a) + f(c)(c - b)/(c - a)
Equação 3.1
O método adoptado pressupõe que o intervalo (c-a) é suficientemente pequeno
para que a função tenha um comportamento linear neste intervalo.
No contexto das geo-ciências, o problema da interpolação pode ser descrito do
seguinte modo: usualmente dispõe-se de um número finito de observações que
caracterizam um dado fenómeno. As observações disponíveis correspondem a
localizações no espaço conhecidas. O fenómeno em estudo é descrito por uma
função f desconhecida. Com base nas observações do fenómeno, pretende-se
estimar a função f. Dado que f é desconhecido, será necessário identificar um
modelo que represente f. O modelo pretendido incluirá um ou mais parâmetros que
serão estimados a partir dos valores conhecidos de f e deverá assegurar a
satisfação de algumas propriedades associadas a f. O modelo seleccionado é
expresso sob a forma de uma função ( f^ ), que resulta de um ajustamento de uma
superfície aos valores conhecidos. Esta função permite estimar valores de f para
as localizações pertencentes ao domínio espacial em que o fenómeno se
enquadra. Sempre que possível, deve-se quantificar a margem de erro associada
ao facto de se utilizar f^ em representação de f.
A informação espacial possui atributos específicos como sejam a localização, isto
é, o posicionamento em termos geográficos. Através de uma simplificação do
mundo real, é usual associar os atributos de unidades espaciais a pontos, a áreas
ou a linhas. Muito embora dependendo da escala a que os fenómenos são
analisados e dos procedimentos utilizados na recolha da informação, observa-se
com alguma frequência que, por exemplo, parâmetros climáticos apurados num
posto climatológico se encontram geo-referenciados através de um ponto com
coordenadas bem definidas. Já o número de habitantes de uma freguesia podem
12
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
ser ligados a uma área, e o tráfego médio diário relativo a um troço de estrada
costuma ser associado a uma linha.
Dado que uma linha pode ser decomposta num conjunto de pontos, grande parte
dos métodos de interpolação espacial são vocacionados para informação
associada a áreas e/ou a pontos.
A interpolação torna-se necessária sempre que ocorre uma das seguintes
situações (Burrough e McDonnell,1998):
Uma superfície apresenta uma resolução espacial (nível de detalhe)
diferente do pretendido;
Uma superfície contínua é expressa por um modelo de dados diferente do
requerido;
A informação disponível é recolhida por amostragem e consequentemente
não cobre todo o domínio espacial de interesse.
No âmbito da cartografia, a interpolação de dados pontuais é vulgarmente utilizada
na produção de isolinhas (linhas que unem pontos de igual intensidade ou valor; de
entre as mais conhecidas destacam-se as curvas de nível). A interpolação de
dados referentes a áreas é vocacionada para a construção de iso-áreas
(superfícies onde o parâmetro em apreciação pode ser considerado constante) e
tem sido também recentemente muito utilizada na transferência de atributos entre
tipos
distintos
de
unidades
geográficas
cujas
delimitações
não
sejam
concordantes, tais como áreas administrativas e outras superfícies (áreas de
influência de dado fenómeno).
A interpolação pode ser desenvolvida globalmente, utilizando a totalidade de
observações disponíveis para o domínio espacial de interesse no cálculo de cada
estimativa, ou localmente, recorrendo apenas às observações que se encontram
numa vizinhança em torno da posição geográfica para a qual se pretenda produzir
uma estimativa. Os métodos que operam localmente baseiam-se no pressuposto
que cada observação só influencia a superfície de interpolação até certa distância
em redor da sua localização (Mitas & Mitasova, 1999). Alguns autores (Daly,
Neilson e Phillips, 1994) advogam que os métodos que operam sobre vizinhanças
móveis (janelas móveis) permitem reproduzir com maior fidelidade os fenómenos
que evidenciam continuidade espacial, uma vez que na produção de cada
estimativa recorrem a um conjunto variável de observações que possibilitam um
ajustamento à variabilidade local do fenómeno. Por outro lado, a verificação de
13
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
comportamentos anómalos a nível local não afecta toda a superfície de
interpolação, mas apenas uma vizinhança em torno da posição geográfica onde a
anomalia foi observada. Se se atender às características locais da precipitação, a
aplicação de métodos que operam sobre vizinhanças móveis parece ser
particularmente ajustada à interpolação do fenómeno. A definição da vizinhança a
adoptar na estimação com janela móvel pode basear-se em diversos critérios,
sendo a distância Euclidiana o critério mais frequentemente utilizado. Existem, no
entanto, outros tipos de critérios tais como a distância económica (associada a um
custo), a especificação de um número fixo de observações circundantes da
posição a estimar e a adjacência.
A estimação pode ainda ser desenvolvida por recurso a métodos que apenas
utilizam as observações do fenómeno e as respectivas coordenadas geográficas
(métodos uni-variados) ou, alternativamente, por métodos que permitem incorporar
outras variáveis auxiliares para além das observações, cujo conhecimento poderá
contribuir para melhorar as estimativas do fenómeno (métodos multi-variados). A
aplicação desta última categoria de métodos obriga a que as variáveis auxiliares
sejam mais densamente amostradas do que a variável a estimar.
As técnicas de interpolação podem ser sistematizadas com base na perspectiva
estocástica ou determinística do fenómeno em análise. Os modelos são
formulações matemáticas destinadas a simular os fenómenos reais. Qualquer
fenómeno que apresente mudanças contínuas, nomeadamente no espaço e/ou no
tempo, pode ser classificado como um processo. A natureza determinística ou
estocástica do processo dependente das leis que regem as variáveis nele
envolvidas. Se estas têm um comportamento que é descrito por leis probabilísticas,
o processo será estocástico. As abordagens determinísticas obrigam a um
conhecimento aprofundado do fenómeno à priori e a uma descrição quantitativa do
mesmo. Um processo estocástico é constituído por uma família de variáveis
aleatórias Z(...) que podem ser função de outras variáveis como sejam o tempo (T),
o espaço (X) ou ambas (T,X). Cada variável aleatória é caracterizada por uma
determinada distribuição de probabilidades. Se a distribuição de probabilidades for
invariante ao longo do processo, este é qualificado de estacionário. A
estacionariedade é uma propriedade desejável nos processos porque facilita a sua
modelação matemática.
Os métodos de interpolação para informação representada sob a forma de pontos
14
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
podem ser classificados em métodos exactos e métodos aproximados. A principal
diferença entre estas duas classes é a de que as observações pontuais, utilizadas
para ajustar a função de interpolação, são conservadas no primeiro caso, ao passo
que no segundo caso estas observações são substituídas por valores aproximados
pertencentes à superfície de interpolação. A adopção de valores aproximados na
superfície de interpolação origina erros residuais (desvios) cuja minimização se
pretende. Deste modo, a função de interpolação é neste caso restringida por
critérios do tipo minimax (minimização do desvio máximo) ou mínimos quadrados
(minimização do somatório dos quadrados dos desvios). Os métodos aproximados
são muitas vezes descritos na literatura como métodos de aproximação ou de
alisamento, enquanto que os exactos são qualificados como métodos de predição
ou de interpolação exacta.
Os métodos exactos incluem a maior parte das técnicas que se baseiam na
atribuição de pesos variáveis, dependentes da distância entre o valor conhecido e
o valor a estimar. São representativos desta categoria o Kriging (Krigagem), a
interpolação por Splines, a interpolação polinomial simples e o método das
diferenças finitas. Os métodos aproximados incluem a interpolação polinomial
ajustada por mínimos quadrados, a interpolação por séries de Fourier, a
interpolação em função da distância ponderada, ajustada por mínimos quadrados e
a interpolação através de Splines ajustadas por mínimos quadrados.
3.1.1
Interpolação Polinomial
3.1.1.1
Interpolação polinomial simples
A interpolação polinomial simples pode ser encarada como um método de
estimação exacto que opera globalmente e é vocacionado para informação
pontual. Para um conjunto de n observações, é possível identificar um polinómio,
que defina uma superfície contínua e intersecte as n observações consideradas.
Este polinómio será do tipo:
f(x, y) =
n
n
i= 0 j= 0
a ij x i y j
Equação 3.2
Em que:
x , y - representam as coordenadas das observações
aij - são coeficientes que são determinados por n equações da
15
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
forma:
f(x i , y i ) = z i
onde
i =1,2, ..., n
Dado que a única restrição a este tipo de polinómio é a de que as n observações
sejam soluções da equação, a interpolação realizada através desta expressão
pode gerar valores muito diferentes para localizações vizinhas, ao passo que na
maioria dos fenómenos espacialmente distribuídos se verifica uma certa
similaridade entre observações vizinhas.
Este problema pode ser parcialmente solucionado através da partição do domínio,
tendo em vista a sua modelação por recurso a várias funções polinomiais distintas.
Esta abordagem tem contudo outras desvantagens, de entre as quais se destacam
as descontinuidades criadas nas zonas de fronteira entre as partições geradas. Por
outro lado, quando n é elevado e o polinómio possui grau superior a cinco, a
solução do sistema de equações que possibilita o cálculo dos coeficientes pode
não ser precisa, pelo que o método é desaconselhado para um elevado número de
observações.
3.1.1.2
Regressão Linear
O estudo de modelos explicativos entre variáveis é possibilitado pela análise de
regressão. A regressão é provavelmente uma das técnicas de análise estatística
mais disseminadas. O desenvolvimento deste tipo de análise destina-se a estudar
a existência de relações lineares entre duas ou mais variáveis. A teoria da
regressão determina que, no conjunto de variáveis a analisar, se verifique a
existência de uma variável (Y) que se assume ser dependente das restantes
variáveis (X1, X2, ..., Xp). Estas últimas são por isso designadas por variáveis
explicativas e/ou independentes. A regressão múltipla tem por objectivo final a
constituição de um modelo que possibilite estimar, ou predizer, o valor médio de Y,
a partir de valores conhecidos de duas ou mais variáveis independentes (X = {X1,
X2, ..., Xp}). Ao prever o valor médio de Y, em função de um conjunto de variáveis
explicativas, subsiste uma componente aleatória de Y que não é explicável por
nenhuma variável independente e que pode ser devida à eventual omissão no
modelo de outras variáveis que também possam afectar o comportamento de Y.
Os modelos de regressão baseiam-se na análise de valores observados das
variáveis X e Y (respectivamente Xi e Yi), que constituem uma amostra que se
16
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
deseja que seja representativa da verdadeira população. Através desta amostra, é
possível estimar os parâmetros que definem o modelo de regressão. No caso da
regressão linear múltipla, o modelo genérico é do tipo:
Yi = bo + b1X1i + b2X2i + ... + bpXpi + ei
com
i = 1, 2 , ..., n
Equação 3.3
Em que:
Yi - representa a variável dependente
X1i , X2i , ... , Xpi – são as variáveis independentes e/ou explicativas
bo - representa o ponto da intersecção da regressão com o eixo
de Y
b1 , b2 , ... , bp - são os coeficientes das variáveis explicativas
p - expressa o número de variáveis explicativas integradas no
modelo
ei - representa o resíduo ou erro associado à estimativa de Yi
n - representa o número de observações (dimensão da amostra)
Considerando que Yi representa uma observação da variável dependente e que Y^i
é uma estimativa de Yi, obtida através do modelo de regressão, verifica-se que a
variabilidade de Yi não é totalmente explicada pela estimativa (Y^i) obtida. A parte
da variabilidade de Yi que não é explicada através de Y^i constitui o resíduo (ei )
associado àquela estimativa (ei = Yi - Y^i).
A dispersão de Yi em torno da equação de regressão (que define as estimativas
Y^i) é quantificada pelo parâmetro Se. Este parâmetro é uma estimativa do desvio
padrão do resíduo total do modelo de regressão. Quanto menor for Se, maior é a
capacidade explicativa do modelo.
Os coeficientes do modelo de regressão (bo , b1 , ... , bp) são frequentemente
calculados através do método dos mínimos quadrados.
Para avaliar a qualidade do ajustamento das observações (Xi e Yi) ao modelo de
regressão, recorre-se a uma medida designada por coeficiente de determinação
(R2). Este coeficiente traduz a proporção da variabilidade de Y que é possível
explicar através do modelo de regressão. Os valores de R2 podem variar entre
zero e um (ou entre zero e cem, quando esta grandeza é expressa em termos
percentuais). Quanto maior for R2, maior é a capacidade explicativa do modelo de
17
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
regressão. No caso limite de R2=1, o modelo explica toda a variabilidade de Y. O
coeficiente de determinação cresce progressivamente por adição sucessiva de
mais variáveis explicativas ao modelo. Este facto é eventualmente enganoso,
porque a introdução de mais uma variável na regressão só tem sentido se esta
variável contribuir substancialmente para aumentar a capacidade explicativa do
modelo. Em complemento de R2, pode-se analisar outro parâmetro que é
designado por coeficiente de determinação ajustado (R2ajust.). Este é obtido a partir
de R2 de acordo com a Equação 3.4, e tem em conta o número de variáveis
explicativas incluídas no modelo de regressão.
R2ajust. = 1 - [ ( 1- R2 ) * ( n - 1 ) / ( n - p ) ]
Equação 3.4
Em que:
R2ajust. – representa o coeficiente de determinação ajustado
R2 – representa o coeficiente de determinação
n – expressa a dimensão da amostra (número de observações)
p – traduz o número de variáveis explicativas incluídas no
modelo de regressão
Deste modo, o coeficiente de determinação ajustado possibilita a comparação de
vários modelos referentes à mesma variável dependente, que apenas diferem no
número de variáveis explicativas que integram. No caso da avaliação de um só
modelo, quanto maior for a diferença entre R2 e R2ajust., menor é a capacidade
explicativa da variável independente introduzida.
Na interpolação realizada através da técnica de regressão linear, as variáveis
explicativas do fenómeno (X1 , X2 , ... , Xp) podem ser as coordenadas geográficas
das observações do fenómeno ou mesmo outras variáveis auxiliares que estejam
linearmente associadas ao fenómeno.
Reconhece-se a ocorrência de extrapolação, ao invés de interpolação, quando a
estimação da variável dependente é desenvolvida a partir de valores das variáveis
auxiliares que se encontram para além da gama de valores utilizada na construção
da função interpoladora.
3.1.1.3
Interpolação polinomial ajustada por mínimos quadrados
A interpolação polinomial ajustada por mínimos quadrados não é mais do que uma
regressão em que a variável dependente é o fenómeno a estimar e as variáveis
18
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
explicativas ou independentes são as coordenadas geográficas das observações
do fenómeno. O grau do polinómio construído a partir de observações e
respectivas coordenadas geográficas pode ser um (regressão polinomial linear) ou
superior a um (regressão polinomial quadrática, cúbica, etc...). Este tipo de
interpolação é um método aproximado e possibilita obter estimativas para pontos.
A modelação da superfície pretendida é realizada através de uma função (Equação
3.5) composta por várias componentes aditivas: m componentes (em número
inferior ao número de observações conhecidas) conjuntamente designadas por
tendência e uma componente usualmente conhecida por erro ou ruído (e).
f(x, y) =
m
i, j = 0
a ij x i y j + e
Equação 3.5
Em que:
x , y - representam as coordenadas das observações
aij – são os coeficientes de cada componente aditiva
e – expressa o erro associado à estimativa de f(x,y)
Os modelos baseados na formulação apresentada são também conhecidos como
modelos de tendência. Na sua aplicação, assume-se que a componente designada
por tendência é determinística. Assume-se igualmente que a componente
tendência descreve de modo simplificado a superfície a interpolar. Deste modo, as
estimativas produzidas aproximam-se mais àquela componente do que à função
global. O pressuposto de que é possível desdobrar a variável a interpolar nas duas
componentes descritas pode gerar problemas de interpretação para alguns
fenómenos cujo fundamento teórico se desconhece. Por outro lado, sabe-se que a
interpolação através deste tipo de funções é muito afectada, quer pela existência
de valores extremos, quer por distribuições assimétricas de dados.
Segundo Myers (1994) a aplicação de modelos de tendência na interpolação de
variáveis espacialmente distribuídas produz estimativas regionais ao invés de
locais. Tal é devido em parte ao facto de o interpolador ser demasiado atenuado e
geralmente também pouco exacto (a não ser que o grau do polinómio seja muito
elevado). Pelos mesmos motivos, Burrough e McDonnell (1998) recomendam que
este tipo de função seja somente empregue para descrever ou modelar a
tendência global evidenciada pelo fenómeno.
No ajustamento das observações a um polinómio do primeiro grau, a expressão
19
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
acima apresentada assume a forma:
f(x, y) = z = a 0 + a1x + a 2 y
Equação 3.6
Em que:
z – expressa a observação do fenómeno associada a cada par
de coordenadas (x,y)
a0, a1, a2 – são coeficientes
A Equação 3.6 dá origem ao seguinte sistema de equações normais, em que n
corresponde ao número de observações disponíveis:
z = a o n + a1
3.1.2
x + a2
Equações 3.7
y
zx = a o
x + a1
x2 + a2
zy = a o
y + a1
xy + a 2
xy
y2
Interpolação em Função da Distância
Os métodos de interpolação baseados na atribuição de pesos que são função da
distância entre as observações e as restantes localizações, produzem estimativas
pontuais. Estes métodos seguem a formulação genérica da Equação 3.8.
n
én
ù
f(x, y) = ê w(di ) z i / w(di )
i =1
ë i=1
i = 1,2,..n
Equação 3.8
Em que:
n - representa o número de observações disponíveis
zi - corresponde ao valor da função f para a observação
localizada em i
di - mede a distância entre a localização i e a localização para a
qual se pretende calcular uma estimativa
w(d i ) - é uma função ponderadora que depende da distância di
Dependendo da ponderação utilizada, as observações originais podem ou não
pertencer à superfície de interpolação. Esta categoria de métodos abarca inúmeras
técnicas de entre as quais se destacam: a média móvel simples, os polígonos de
influência (Thiessen), a triangulação de Delaunay, a ponderação em função do
inverso da distância, a ponderação em função do inverso do quadrado da distância
e a família de técnicas que assumem a designação genérica de Kriging ou
20
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Krigagem.
3.1.2.1
Média aritmética simples e média móvel
O método de estimação mais simples consiste na determinação da média
aritmética a partir de todas as observações disponíveis. Este método só deve ser
aplicado se a distribuição espacial das observações for uniforme e as observações
individuais não diferirem substancialmente da média calculada. Trata-se de um
método que atribui igual peso (unitário) a todas as observações disponíveis.
A estimação por média móvel visa o cálculo da média aritmética a partir das
observações situadas numa vizinhança pré-estabelecida da posição geográfica
para a qual se pretende obter uma estimativa. Deste modo, as estimativas obtidas
variam com a localização espacial do ponto a estimar, sendo atribuído peso nulo a
todas as observações que se situam para além da vizinhança estipulada.
3.1.2.2
Polígonos de influência
Este método visa a subdivisão do domínio espacial em áreas de influência das
observações disponíveis. A superfície ou polígono de influência de cada
observação poderá ser obtida do seguinte modo (Lencastre et al, 1984): unem-se
as observações adjacentes três a três por segmentos de recta e traçam-se normais
ao meio dos segmentos, formando polígonos com estas normais (polígonos de
Thiessen). Cada um dos polígonos assim formados tem uma única observação no
seu interior, e qualquer ponto contido no interior de um polígono está mais próximo
da observação desse polígono do que de qualquer outra.
Após traçado dos polígonos, o método pressupõe que a estimativa para um dado
ponto é igual à observação associada ao polígono em que o ponto se enquadra.
Esta técnica atribui ponderação total à observação mais próxima do ponto a
estimar. A adopção de polígonos de influência na estimação de informação pontual
gera descontinuidades nas arestas partilhadas por polígonos. Deste modo não
possibilita modelar convenientemente a continuidade espacial expressa pela
maioria dos fenómenos geográficos.
3.1.2.3
Triangulação
Esta técnica consiste na partição do domínio espacial em triângulos. A malha
irregular a criar depende do número e do espaçamento das observações
disponíveis. Cada observação assume a posição de um vértice ou nó da malha. As
21
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
arestas dos triângulos ou arcos da malha interligam as observações disponíveis.
Cada triângulo descreve uma porção da superfície espacial representada pela
totalidade da malha. A interpolação por triangulação apenas utiliza a informação
relativa a três observações na produção de uma estimativa. Após selecção do
triângulo sobre o qual cai o ponto para o qual se pretende produzir uma estimativa,
procede-se ao ajuste de um plano aos seus vértices. A equação do plano assume
a seguinte expressão geral:
f (x, y ) = z = ax + by + c
Equação 3.9
que dá origem ao seguinte sistema de equações:
ìz 1 = ax 1 + by 1 + c
íz 2 = ax 2 + by 2 + c
îz 3 = ax 3 + by 3 + c
Uma alternativa à resolução do sistema acima apresentado baseia-se na
geometria do triângulo e na localização do ponto a estimar. Unindo os vértices do
triângulo ao nó que define o ponto a estimar (Figura 3.1), produzem-se três novos
triângulos, cuja área pode ser utilizada como função ponderadora da estimativa.
Em que:
I, J e K - representam observações conhecidas
A IJK - é a área total do triângulo formado pelas observações I, J e K
O - identifica a localização do ponto a estimar
A OIJ, A OJK, A OIK - são as áreas dos triângulos contidos em IJK
Figura 3.1 – Estimação por recurso a malhas triangulares (Adaptada de
Isaaks & Srivastava, 1989)
A estimativa da superfície para a posição 0 (Z0) será, de acordo com a notação
utilizada na Figura 3.1, resultado da ponderação de cada observação (ZI , Z J , ZK )
22
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
pela área do triângulo oposto:
Z 0 = Z I (A OJK / A IJK ) + Z J (A OIK / A IJK ) + Z K (A OIJ / A IJK )
Equação 3.10
Os pesos adoptados são normalizados de modo a que totalizem um. Deste modo
garante-se a produção de estimativas não enviesadas. As estimativas obtidas
dependem da triangulação escolhida, já que esta determina as três observações a
utilizar na estimação. É por isso recomendável a adopção de modelos triangulares
que obedeçam ao critério de Delaunay. Nestes modelos, cada nó da malha é
ligado aos dois nós mais próximos de modo a constituir triângulos de ângulos e
lados bastante similares. Tal evita os problemas de precisão numérica
frequentemente associados às superfícies triangulares alongadas e finas. O critério
de Delaunay assegura também que a geometria da malha obtida é independente
da ordem pela qual os vértices são processados.
Segundo Cressie (1988) a superfície produzida por modelos baseados na
triangulação de Delaunay é contínua, mas pode não ser diferenciável devido às
variações de declive entre as arestas dos triângulos.
Os modelos baseados em malhas triangulares que respeitam o critério de
Delaunay são usualmente designados por TIN (Triangulated Irregular Network).
Quando aplicados a informação altimétrica, os TIN podem ser encarados como
modelos numéricos do terreno.
3.1.2.4
Interpolação em função do inverso da distância
De entre as técnicas incluídas nesta classificação, as mais disseminadas
preconizam a adopção de pesos que são proporcionais ao inverso da distância ou
ao inverso da distância quadrática entre o valor observado e o valor a estimar.
Se atendermos à função ponderadora utilizada pelos métodos desta categoria
(Equação 3.11), pode-se concluir que à medida que a potência da distância (p)
aumenta, as observações mais próximas recebem cada vez maior ponderação no
cálculo da estimativa.
w(di ) = 1/(di )p
Equação 3.11
Em que:
w(di) – é a ponderação atribuída à observação i
di
-
mede a distância entre a observação localizada em i e a
23
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
observação a estimar
p - potência a que se eleva a distância na função ponderadora
Por outro lado, se a potência da distância (p) diminuir progressivamente, os pesos
atribuídos às observações tornam-se cada vez mais similares. A escolha da
potência da distância é por isso determinante do tipo de estimativa obtida.
Sistematizam-se de seguida algumas deficiências dos modelos de interpolação
que utilizam funções do inverso da distância como factor de ponderação:
o sistema de ponderação seleccionado pode introduzir ambiguidade se não
se conhecer bem as características da superfície de interpolação resultante;
os sistemas de ponderação são facilmente afectados por distribuições
irregulares de pontos (exemplo: pontos em clusters possuiriam todos igual
peso);
é difícil determinar qual a distância mínima entre observações para que
algumas destas possam ser classificadas como redundantes;
a maior parte destes métodos comportam-se como funções de alisamento,
pelo que não apresentam bom desempenho na interpolação de valores
extremos.
3.1.2.5
Métodos geoestatísticos
A geoestatística é uma disciplina que estuda os fenómenos regionalizados e auxilia
a resolução de problemas de estimação. Os métodos geoestatísticos procedem à
análise de fenómenos regionalizados cuja distribuição espacial apresenta um
carácter misto: parcialmente estruturado e parcialmente aleatório. De acordo com
aquela disciplina, as variáveis regionalizadas são encaradas como realizações de
uma função aleatória. A continuidade espacial evidenciada por uma variável
regionalizada pode ser modelada através do momento de inércia designado por
variograma. O variograma descreve a auto-correlação espacial de dado fenómeno
em função da distância e da direcção entre pares de observações. O variograma
traduz-se na seguinte medida:
2γ(h ) =
1
n(h)
n(h)
i
[Z(xi ) − Z(xi +h )]
2
Equação 3.12
Em que:
2γ(h ) - é a medida usualmente designada por variograma
24
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Z ( x ) - corresponde à observação do fenómeno Z na localização i
Z ( xi + h ) - corresponde à observação do fenómeno Z na
i
localização que fica à distância h de i
n(h) - corresponde ao número de pares de observações do
fenómeno Z que estão separados de um vector h com uma
direcção θ e um módulo h
A análise do comportamento do variograma possibilita uma descrição sintética da
estrutura do fenómeno e permite uma ligação entre a estrutura e a precisão com a
qual serão resolvidos os problemas de interpolação. Uma vez calculado o
variograma empírico, procede-se à identificação do modelo teórico que melhor se
ajusta ao semi-variograma empírico, tendo em vista a garantia de condições de
positividade. O semi-variograma corresponde à quantidade γ (h ) , ou seja, a
metade do valor expresso pelo variograma.
De entre os modelos teóricos mais frequentemente ajustados a semi-variogramas,
destacam-se o gaussiano, o exponencial, o esférico e o linear. A escolha de um
modelo teórico para o semi-variograma obriga à definição de três parâmetros:
o patamar superior do semi-variograma que corresponde à variância total
expressa pelas observações disponíveis;
a distância a partir da qual os pares de observações se tornam independentes,
também designada por amplitude do semi-variograma;
a componente da variância total que corresponde à variabilidade intrínseca da
amostra e que também está associada a erros de medição do fenómeno. Esta
componente é frequentemente designada por ruído branco ou efeito de pepita.
É expressa pela ordenada na origem do semi-variograma.
A análise do comportamento do semi-variograma segundo várias direcções
possibilita saber se o fenómeno em estudo é isotrópico ou se a respectiva
continuidade espacial é variável com a direcção (anisotropia). A detecção de
anisotropia obriga à modelação do fenómeno de acordo com as várias direcções.
Uma vez validado o modelo variográfico com informação experimental, passa-se à
fase de estimação com base no modelo estrutural e na informação pontual
representada pelas observações disponíveis. O modelo teórico identificado permite
modelar a variabilidade do fenómeno tendo em conta a anisotropia observada.
25
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
As diversas técnicas do âmbito da geoestatística que possibilitam estimar
fenómenos regionalizados são conhecidas sob a designação genérica de Kriging
ou Krigagem. A Krigagem inclui uma família de métodos de interpolação exactos
que possibilitam sempre o cálculo de uma medida do erro de estimação cometido
para cada valor estimado e de um intervalo de confiança para a estimação
produzida. O cálculo da probabilidade de o valor estimado estar contido entre
determinados limites obriga, no entanto, a assumir que os erros da estimação são
normalmente distribuídos.
A Krigagem visa a obtenção do melhor estimador linear possível, a partir da
combinação linear dos valores observados do fenómeno. As observações são
ponderadas em função da sua distância à localização do ponto a estimar. Para que
a inferência espacial possa ser considerada óptima, a combinação linear das
observações deve minimizar a variância dos erros de estimação.
A interpolação óptima é um método precursor da Krigagem, que visa o cálculo de
estimativas não enviesadas através da ponderação linear das observações, com
base em ponderadores que minimizem o erro quadrático médio do valor estimado.
Os ponderadores são estimados a partir da função teórica ajustada à variação da
correlação entre observações com a distância (correlograma). Esta técnica de
interpolação associada a determinados pressupostos tais como a estacionariedade
do processo estudado constitui a base do método de interpolação conhecido como
Krigagem Universal.
Estacionariedade significa que todas as observações do fenómeno são realizações
de um mesmo processo aleatório e consequentemente possuem a mesma
distribuição de probabilidades. A estacionariedade traduz-se na homogeneidade
espacial do fenómeno. No âmbito da teoria geoestatística podem-se assumir
diferentes graus de estacionariedade da função aleatória. A estacionariedade da
média determina que todas as variáveis aleatórias tenham a mesma média. A
estacionariedade da co-variância espacial (e consequentemente da variância)
determina que a correlação entre duas variáveis aleatórias só depende da
orientação e da distância que separa as duas variáveis, sendo portanto
independente da localização das variáveis. As duas hipóteses mais comuns na
aplicação do formalismo geoestatístico são a estacionariedade de 2ª ordem e a
estacionariedade intrínseca. A estacionariedade de 2ª ordem obriga à verificação
simultânea da estacionariedade da média e da variância. Os dois primeiros
26
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
momentos da função aleatória devem existir e não ser dependentes da localização
espacial.
A
estacionariedade
intrínseca
é
menos
restritiva
do
que
a
estacionariedade de 2ª ordem, obrigando apenas à verificação da estacionariedade
da média e da variância das diferenças entre quaisquer pares de observações
pertencentes ao domínio espacial de interesse. Um processo intrinsecamente
estacionário possibilita a existência de uma média com flutuações locais, que
apenas é constante dentro de vizinhanças espaciais restritas.
A quase-estacionariedade é uma hipótese que admite que o fenómeno em estudo
é globalmente não estacionário, mas pode ser discretizado em pequenas subáreas
estacionárias, para as quais o modelo é ajustado (Soares, 2000).
Tal como já foi referido, a Krigagem abarca vários métodos. As diversas variantes
de estimação por Krigagem distinguem-se através do modelo adoptado para a
função aleatória.
Para explicar como se diferenciam algumas das técnicas da família da krigagem,
Goovaerts (1997) admite que a função aleatória de interesse Z(x) é usualmente
decomposta em duas componentes aditivas: uma componente residual R(x) e uma
componente designada por tendência M(x). Assumindo que a componente residual
tem uma média nula, o valor esperado da função aleatória Z(x) será M(x), ou seja a
componente tendência. O modelo adoptado para a componente tendência permite
distinguir três técnicas do âmbito da geoestatística: a Krigagem simples, a
Krigagem ordinária e a Krigagem universal.
A Krigagem simples assume que o valor esperado da função aleatória Z(x) é
constante e conhecido para todo o domínio espacial, ou seja M(x) = M.
A Krigagem ordinária assume que o valor esperado da função aleatória Z(x) é
constante mas desconhecido. Esta técnica possibilita a existência de flutuações
locais de M(x), desde que se verifique a condição de estacionariedade da média
para cada vizinhança local.
A Krigagem universal admite que o valor esperado da função aleatória Z(x) é
desconhecido, apresentando flutuações entre vizinhanças. A tendência (M(x)) é
modelada através de uma combinação linear das coordenadas geográficas das
observações.
3.1.2.5.1
Krigagem ordinária
No método de Krigagem ordinária, também conhecido por Krigagem normal
27
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
(Soares, 2000), as soluções do problema, para além de cumprirem o critério de
minimização da variância do erro de estimação, devem ainda cumprir o critério de
não enviesamento, que é satisfeito por imposição de que o somatório das
ponderações atribuídas a todas as observações na vizinhança do ponto a estimar
seja igual a um. O estimador por Krigagem ordinária apresenta a seguinte
formulação:
Z OK ^ ( x0 ) =
Equação 3.13
n
i
λ i Z ( xi )
s.a.
n
i
λi =1
Em que:
Z OK ^ ( x0 ) - traduz a estimativa do fenómeno Z para a localização 0
Z ( xi ) - traduz a observação do fenómeno Z na localização i
λ i - expressa o factor de ponderação atribuído à observação do
fenómeno Z na localização i
O problema de minimização da variância do erro de estimação deve ser resolvido
através do formalismo de Lagrange, dando origem a um sistema de n+1 equações
que permitem calcular os n factores de ponderação
λ
i
.
A magnitude do erro cometido ao realizar uma predição (variância do erro de
estimação) é também disponibilizada por este método de interpolação. Esta
grandeza é usualmente designada por variância da Krigagem, e é calculada de
acordo com a Equação 3.14.
2
σ OK
( x0 ) =
n
i
λ i γ ( xi , x o ) + m
Equação 3.14
Em que:
2
( x0 ) - traduz a variância do erro associada à estimativa do
σ OK
fenómeno produzida para a localização 0
λ
i
- expressa o factor de ponderação atribuído à observação do
fenómeno na localização i
γ ( xi , xo ) - é a medida do semi-variograma para a distância entre
as posições i e 0
m - representa o multiplicador de Lagrange
28
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
A variância da Krigagem não depende dos valores observados do fenómeno em
apreciação. A variância da Krigagem depende apenas da configuração amostral,
ou seja, das relações espaciais existentes entre o ponto a estimar e as amostras
utilizadas na sua estimação. Deste modo, este parâmetro só possibilita avaliar a
incerteza de estimação resultante da configuração espacial adoptada.
O recurso à Krigagem ordinária pressupõe a existência de estacionariedade
intrínseca no fenómeno a estudar.
3.1.2.5.2
Krigagem com deriva externa
A Krigagem com deriva externa pressupõe que o fenómeno a modelar é não
estacionário. Esta técnica pode ser adoptada quando as observações do fenómeno
denotam a existência de uma tendência (ou deriva). A tendência pode-se
manifestar de diferentes formas, sendo a mais comum expressa pelo crescimento
sistemático das observações numa dada direcção. O método de Krigagem com
deriva externa assume que o valor médio do fenómeno em estudo, M(x), pode ser
aproximadamente descrito por uma função linear (Equação 3.15) construída a
partir de uma variável externa (Y) que apresente uma correlação significativa com
a variável a estimar (Z).
M(x) = a o + a1Y(x)
Equação 3.15
Em que:
M(x) – expressa o valor médio do fenómeno Z(x), ou seja a
tendência
Y – representa a variável externa
a0 , a1 – são os coeficientes da relação linear definida entre a
variável Y e a variável Z
A variável externa deverá ser conhecida para todas as localizações para as quais
se pretende estimar o fenómeno, bem como para as localizações relativamente às
quais se dispõe de observações da variável de interesse. Os coeficientes da
relação linear entre a variável auxiliar externa e as observações do fenómeno em
estudo (a0, a1) são directamente calculados pelos sistemas de equações da
Krigagem. O estimador por Krigagem com deriva externa resulta igualmente de
uma combinação linear dos valores observados do fenómeno, que obedece à
seguinte formulação:
29
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Z KED ^ ( x0 ) =
n
i
λ i Z ( xi )
Equação 3.16
onde os ponderadores respeitam as seguintes condições:
n
i
λi =1
n
i
λ i Y ( xi ) = Y ( x 0 )
e em que:
Z KED ^ ( x0 ) - traduz a estimativa do fenómeno Z para a localização 0
Z ( xi ) - traduz a observação do fenómeno Z na localização i
λ i - expressa o factor de ponderação atribuído à observação do
fenómeno Z na localização i
Y ( x ) - expressa o valor da variável auxiliar Y para a localização i
i
Y ( x0 ) - expressa o valor da variável auxiliar Y para a localização 0
A utilização desta técnica pressupõe que a variância de estimação é função dos
resíduos que resultam da subtracção da deriva ou tendência às observações do
fenómeno de interesse. Deste modo, a análise variográfica deve basear-se no
variograma dos resíduos. A minimização da variância de estimação é igualmente
resolvida através do formalismo de Lagrange, que possibilita o cálculo dos factores
de ponderação das observações. A Krigagem com deriva externa possibilita
também incorporar a informação de mais do que uma variável auxiliar no modelo
de tendência, isto é, na explicação do valor médio da variável de interesse.
3.1.2.5.3
Cokrigagem
A cokrigagem constitui uma abordagem ao problema de estimação que permite
integrar informação sobre uma ou mais variáveis auxiliares, quando estas
evidenciam alguma capacidade explicativa do fenómeno em estudo. A contribuição
de uma ou mais variáveis auxiliares na estimação da variável de interesse só é
significativa se as variáveis auxiliares estiverem correlacionadas com a variável a
estimar e se a densidade de amostragem daquelas for superior à da variável de
interesse. A grande diferença relativamente à Krigagem com deriva externa reside
na modelação da estrutura espacial do fenómeno por recurso a um modelo multivariado (variograma cruzado ou modelo multi-variado de co-variância). Na
presença de uma única variável auxiliar, a estimação da variável de interesse
30
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
baseia-se na análise da variabilidade espacial conjunta das duas variáveis e na
análise da variabilidade espacial individual de cada variável. Deste modo será
necessário validar três modelos variográficos com a informação experimental
disponível. Quando existe uma única variável auxiliar, a estimação por cokrigagem
ordinária (que corresponde a uma das diversas modalidades de cokrigagem)
obedece à formulação apresentada na Equação 3.17. O cálculo dos factores de
ponderação necessários à obtenção de uma estimativa passa, mais uma vez, pela
resolução do problema de minimização da variância de estimação, condicionado
pelas restrições de não enviesamento.
Z COK ^ ( x0 ) =
n1
i
λ i Z ( xi ) +
n2
j
'
λ jY ( x j )
Equação 3.17
onde os ponderadores respeitam as seguintes condições:
n1
i
n2
j
λi =1
'
λ =0
j
e em que:
Z COK ^ ( x0 ) - é a estimativa do fenómeno Z para a localização 0
Z ( xi ) - é a observação do fenómeno Z na localização i
λ i - expressa o factor de ponderação atribuído à observação do
fenómeno Z na localização i
Y ( x ) - expressa o valor da variável auxiliar Y para a localização j
j
λ 'j - expressa o factor de ponderação atribuído à observação da
variável auxiliar Y na localização j
n1, n2
– número de observações das variáveis Z e Y utilizadas na
estimação
A cokrigagem co-localizada (Collocated Cokriging) é um tipo de cokrigagem onde
no cálculo de cada estimativa apenas se considera os valores vizinhos da variável
de interesse e um único valor da variável auxiliar associado à posição geográfica
para a qual se pretende obter uma estimativa do fenómeno em apreciação. Esta
abordagem constitui uma estratégia para obviar os problemas de instabilidade que
ocorrem em situações de sobre-amostragem da variável auxiliar comparativamente
à variável principal.
31
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
A interpolação através de técnicas da família da Krigagem é defendida por muitos
autores, devido ao bom desempenho garantido pela minimização da variância dos
erros de estimação. Outros autores advogam que os pressupostos associados à
aplicação destas técnicas raramente se verificam. Por outro lado, a modelação da
continuidade espacial dos fenómenos nem sempre é fácil e torna-se inviável se o
número de observações for escasso.
3.1.3
Splines
A interpolação por Splines consiste na aproximação de uma função aos valores
conhecidos através de séries de polinómios sobre intervalos adjacentes. As
funções polinomiais de grau inferior ao número total de observações (n), devem
ser contínuas nos intervalos entre todas observações e apresentar derivadas
(1,...,m) contínuas nos mesmos intervalos. As Splines produzem estimativas
relativas a pontos e as observações originais podem ou não fazer parte da
superfície modelada. Trata-se de um método de interpolação determinístico que
opera localmente.
As Splines mais disseminadas são as lineares, as quadráticas e as cúbicas. Estas
últimas são, no caso tridimensional, designadas por Splines bi-cúbicas. As Thin
Plate Splines constituem um tipo de Splines em que as observações originais não
fazem obrigatoriamente parte da superfície modelada, porque se utiliza uma
função aproximada em substituição da Spline exacta (Mitas e Mitasova, 1999, pág.
484). A função utilizada traduz um compromisso entre a suavidade da superfície de
interpolação e a proximidade daquela superfície às observações. Para iniciar a
interpolação, é necessário criar uma malha (ou rede) que ligue as observações
disponíveis. Esta malha pode ser quadrangular ou triangular, dependendo do
algoritmo adoptado. Seguidamente procede-se ao ajuste dos vários polinómios à
rede criada. A solução é obtida por um processo iterativo, não havendo sempre
garantia de convergência.
Segundo Lancaster e Salkauskas (citados por Lam, 1983) a interpolação por
Splines pode originar anomalias na superfície de interpolação (valores muito altos
ou muito baixos) que não se verificam na superfície original. Na opinião de
Burrough e McDonnell (1998), as anomalias anteriormente referidas podem ser
evitadas se se utilizar as Thin Plate Splines em vez das Splines exactas. A
interpolação através de Splines é simultaneamente defendida por outros autores
32
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
que advogam que as estimativas obtidas são muito próximas dos valores reais
devido ao ajustamento de cada polinómio a um pequeno número de observações.
3.1.4
Interpolação Multi-quádrica
A interpolação multi-quádrica (Hardy, 1971, referenciado por Shaw e Lynn, 1972) é
um método de estimação global e exacto. Através desta técnica a superfície de
interesse é representada pelo somatório de várias superfícies quádricas
individuais. Exemplos de superfícies quádricas típicas são os hiperbolóides
circulares e os parabolóides circulares. Os cones circulares são casos particulares
de superfície quádricas. A interpolação multi-quádrica obriga a que existam tantas
superfícies quádricas quantas as observações disponíveis, estando cada superfície
centrada numa observação. A influência de cada observação é função das
respectivas coordenadas geográficas, sendo expressa por uma superfície
quádrica, que usualmente é um cone. Deste modo a estimativa para uma dada
localização resulta da contribuição dos vários cones quádricos.
O bom desempenho desta técnica de interpolação tem sido defendido por alguns
autores (Shaw e Lynn, 1972; Tabios III e Salas, 1985; Borga e Vizzaccaro, 1997)
que constataram grande fiabilidade nas estimativas obtidas.
3.1.5
Diferenças Finitas
Assumindo que a superfície de interpolação pretendida obedece a determinadas
equações diferenciais ordinárias com derivadas parciais, a abordagem por
diferenças finitas possibilita efectuar uma aproximação a estas equações, sendo a
respectiva solução obtida por iteração. Trata-se de um método exacto que fornece
estimativas para pontos.
A maior desvantagem desta técnica é o elevado esforço computacional requerido.
Por outro lado, na superfície modelada não existem máximos e mínimos relativos
ou absolutos, a não ser os da fronteira do domínio. Por último, a interpolação para
além da vizinhança dos valores pontuais conhecidos costuma ser deficiente.
3.1.6
Séries de Fourier
As Séries de Fourier são particularmente úteis para modelar superfícies com
comportamento cíclico. Os modelos de interpolação que se socorrem daquelas
séries são polinómios que utilizam funções trigonométricas. Através da utilização
desta técnica pode-se decompor uma superfície em várias, com diferentes
33
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
comprimentos de onda. Os modelos de interpolação baseados em séries de
Fourier produzem estimativas para pontos e integram-se na categoria dos métodos
aproximados que utilizam a totalidade de observações disponíveis para o domínio
espacial de interesse no cálculo de cada estimativa.
3.2 MEDIDAS DE AVALIAÇÃO DOS RESULTADOS DE DIVERSOS MODELOS DE ESTIMAÇÃO
Quando se dispõe de valores estimados e de valores observados para as mesmas
localizações, podem-se avaliar os desvios produzidos pelo modelo de estimação.
Nos métodos de estimação exactos, em que as observações fazem parte da
superfície de interpolação, a avaliação dos desvios cometidos não pode ser
desenvolvida de forma directa. Nestas circunstâncias, a validação cruzada torna-se
uma técnica particularmente útil, porque possibilita comparar valores estimados
com valores reais. A validação cruzada consiste na remoção unitária de
observações conhecidas do modelo com vista à obtenção das respectivas
estimativas. O processo repete-se para todas as observações disponíveis.
Finalizado o processo de estimação com omissão individualizada de observações,
comparam-se os valores estimados com valores observados correspondentes às
mesmas localizações. A selecção da técnica de interpolação mais adequada ao
fenómeno em estudo implica a confrontação de algumas das medidas de avaliação
que seguidamente se apresentam.
O erro ou desvio de estimação associado a uma observação (Ei – Equação 3.18)
permite avaliar se o modelo produz estimativas por excesso ou por defeito para
dada posição geográfica, bem como a respectiva magnitude.
E i = f^ (x i , y i ) - f(x i , y i )
Equação 3.18
Em que:
Ei – é o erro cometido na estimação do fenómeno em estudo
para a posição geográfica i
f(x i , y i ) – representa uma observação do fenómeno para a
posição geográfica i
f^ (x i , y i ) – representa uma estimativa do fenómeno para a
posição geográfica i
O erro ou desvio percentual absoluto de estimação associado a uma observação
34
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
(EA%i – Equação 3.19), é uma grandeza alternativa à anteriormente apresentada,
que apenas reflecte a magnitude do desvio cometido, em unidades que são
independentes da escala de valores associada às observações do fenómeno.
EA% i =
f^ (x i , y i ) - f(x i , y i )
*100
f(x i , y i )
Equação 3.19
Em que:
EA%i – é o erro percentual absoluto cometido na estimação do
fenómeno em estudo para a posição geográfica i
f(x i , y i ) – representa uma observação do fenómeno para a
posição geográfica i
f^ (x i , y i ) – representa uma estimativa do fenómeno para a
posição geográfica i
Para avaliação conjunta dos desvios de estimação associados à adopção de
determinado modelo, existem diversos parâmetros que contemplam todas as
estimações desenvolvidas para localizações relativamente às quais também se
dispõe de observações.
O erro médio (EM), desvio médio ou viés produzido por um modelo (Equação
3.20), corresponde a uma avaliação conjunta dos desvios individuais cometidos na
estimação do fenómeno para a zona geográfica de interesse. É desejável que os
desvios produzidos por um modelo sejam muito pequenos e que a sua média se
situe perto de zero. É igualmente importante que os erros, ou resíduos, sejam
aleatórios.
EM = 1/n
n
i =1
[f^ (x i , y i ) - f(x i , y i )]
Equação 3.20
Em que:
EM – é o erro médio cometido na estimação do fenómeno para
determinado domínio espacial de interesse
n – representa o número de observações do fenómeno
disponíveis
Em alternativa ao erro médio, procede-se frequentemente à análise da média dos
desvios absolutos produzidos por um modelo (Equação 3.21), por se tratar de um
35
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
parâmetro que é independente da direcção dos desvios. O erro absoluto médio
(EAM) deve ser calculado do seguinte modo:
EAM = 1/n
n
i =1
f^ (x i , y i ) - f(x i , y i )
Equação 3.21
Em que:
EAM – é o erro absoluto médio cometido na estimação do
fenómeno para determinado domínio espacial de interesse
n – representa o número de observações do fenómeno
disponíveis
É desejável que o erro absoluto médio de um modelo seja tão pequeno quanto
possível. O EAM é um parâmetro equivalente à raiz quadrada dos desvios
quadráticos médios.
O erro percentual absoluto médio (EAM% – Equação 3.22) produzido por um
modelo, é também um parâmetro de avaliação de modelos que não depende da
direcção dos desvios mas que, comparativamente aos restantes parâmetros,
possui a vantagem de fornecer uma ordem de grandeza do erro cometido em
percentagem, sendo por isso independente da escala de variação do fenómeno
observado.
EAM% = 1/n
ù
é f^ (x i , y i ) - f(x i , y i )
* 100
ê
f(x i , y i )
i =1 ë
n
Equação 3.22
Em que:
EAM% – é o erro percentual absoluto médio cometido na
estimação do fenómeno para determinado domínio espacial de
interesse
n – representa o número de observações do fenómeno
disponíveis
É igualmente desejável que o erro percentual absoluto médio de um modelo seja
tão pequeno quanto possível.
O erro quadrático médio (EQM) ou Mean Squared Error- MSE- é uma das medidas
de avaliação mais utilizadas na comparação de modelos. A popularidade do
parâmetro EQM (Equação 3.23) deve-se ao facto de ele poder ser utilizado como
estimativa da variância dos desvios de estimação quando a média dos desvios é
36
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
nula.
EQM = 1/n
n
i=1
(f^ (x i , y i ) - f(x i , y i ))
2
Equação 3.23
Em que:
EQM – é o erro quadrático médio cometido na estimação do
fenómeno para determinado domínio espacial de interesse
n – representa o número de observações do fenómeno
disponíveis
Na comparação do erro quadrático médio produzido por diferentes modelos para o
mesmo conjunto de dados, é habitual optar pelo modelo que apresente o EQM
mais reduzido.
Se os desvios produzidos por determinado modelo obedecerem a uma distribuição
de probabilidades normal, com média nula e variância igual a EQM, torna-se
possível estabelecer intervalos de confiança para as estimativas obtidas. Deste
modo e para um grau de confiança de 95%, o intervalo de confiança associado à
estimativa f^ (x i , y i ) será: f^ (x i , y i ) ± 1.96 EQM .
A avaliação do coeficiente de correlação de Pearson entre grandezas observadas
e grandezas estimadas, pode igualmente auxiliar a decidir qual o modelo mais
adequado. O modelo perfeito apresenta correlação unitária.
A avaliação dos desvios produzidos por um modelo de estimação, pode ainda
centrar-se na análise da dispersão (ou variância) dos mesmos desvios. No caso
dos métodos da família da krigagem, os desvios do modelo podem ser
desconhecidos mas a existência de uma distribuição de probabilidades associada
ao fenómeno, possibilita estimar qual a variância dos erros de estimação (vide
Equação 3.14 para a Krigagem ordinária). Naqueles modelos, a variância de
estimação deve ser encarada como uma medida da incerteza associada a cada
estimação. Esta grandeza está intimamente associada à estrutura espacial do
fenómeno, sendo uma função dos pesos atribuídos às observações. A média das
variâncias dos erros de estimação não é contudo equivalente ao parâmetro EQM
atrás explicitado.
Para avaliar a estimação desenvolvida por técnicas da família da krigagem, existe
um parâmetro de avaliação complementar aos já apresentados que se designa por
37
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
erro reduzido quadrático médio (ERQM – Equação 3.24). Trata-se de uma medida
de avaliação que é baseada na variância do erro de estimação fornecida pela
krigagem.
é (f^ (x i , y i ) - f(x i , y i ))2 ù
ERQM = 1/n ê
σ k2 (f^ (x i , y i ))
i=1 ë
Equação 3.24
n
Em que:
ERQM – é o erro reduzido quadrático médio cometido na
estimação do fenómeno para o domínio espacial de interesse
n – representa o número de observações do fenómeno
disponíveis
σ k2 (f^ (x i , y i )) – traduz a variância do erro associada à estimativa
do fenómeno produzida por Krigagem para a localização i
Se os erros reduzidos forem normalmente distribuídos, o parâmetro ERQM deve
ser aproximadamente igual a um, ou seja, deve estar compreendido no intervalo de
confiança definido pelos limites 1± 2
2
.
n
Para avaliar a capacidade de cada método na reprodução do fenómeno
observado, deve-se também comparar algumas estatísticas descritivas (valor
médio, mediana, desvio padrão, valor mínimo, valor máximo) das estimativas
produzidas por cada técnica, com as estatísticas descritivas equivalentes das
observações.
3.3 INTERPOLAÇÃO ESPACIAL DE PRECIPITAÇÃO
A variabilidade espacial e temporal evidenciada pela precipitação tem sido
estudada por muitos investigadores, que procuram identificar modelos que melhor
descrevam o fenómeno observado. Os modelos adoptados para analisar a
pluviosidade
podem ser determinísticos ou
determinísticas
fundamentam-se
na
estocásticos. As
caracterização
física
do
abordagens
fenómeno,
assentando na escolha arbitrária de critérios de optimalidade e de superfícies a
ajustar aos valores observados. As abordagens estocásticas baseiam-se em
aspectos estatísticos evidenciados pelo fenómeno. As observações de precipitação
são encaradas como realizações de um processo aleatório e a sua estimação
óptima é alcançada através da minimização da variância.
38
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
A modelação da precipitação baseada nos aspectos que estão subjacentes à
ocorrência do fenómeno, ou seja em aspectos meteorológicos (condições
sinópticas), é frequentemente apelidada de modelação física do processo.
Alternativamente, existem modelos que apenas procuram inferir a expressão do
fenómeno através do estudo da variabilidade das suas observações pontuais no
solo. Este último tipo de modelação pode visar a identificação de padrões ou a
identificação de relações da precipitação com factores que determinam a sua
variabilidade, sem no entanto serem responsáveis pela sua génese.
O tipo de análise da precipitação no espaço e no tempo possibilita ainda distinguir
três tipos de modelos:
os modelos espaciais, que são aplicáveis à distribuição espacial da
precipitação acumulada durante determinado período de tempo;
os modelos temporais, que explicam a variação temporal das acumulações
de precipitação sobre um ponto;
os modelos espacio-temporais, que representam a evolução da precipitação
quer no espaço, quer no tempo.
De acordo com Georgakakos e Kaavas (1987), a investigação realizada no
domínio da precipitação pode ser agrupada em três áreas: a estimação, a
modelação e a predição. O presente estudo pretende constituir um contributo para
as duas primeiras áreas, uma vez que para estimar foi imprescindível modelar. A
predição destina-se à realização de prognósticos para o futuro e sai
consequentemente fora do âmbito da investigação conduzida.
3.3.1
Associação da Precipitação com Aspectos Fisiográficos e Climáticos
A variabilidade espacial da precipitação é, como já foi referido, influenciada pelo
posicionamento geográfico face aos sistemas de circulação global (que se
reflectem na latitude e na longitude), pela altitude, pelo declive, pela distância
relativa a fontes de humidade, pela temperatura e pela direcção e intensidade dos
ventos dominantes. O coberto vegetal do solo é, por sua vez, influenciado pelo
regime climático dominante, estando por isso intimamente associado à
variabilidade espacial da precipitação. O facto da pluviosidade se encontrar
associada a diversos aspectos orográficos e climáticos possibilita tirar partido de
tais relações na estimação do fenómeno. Frequentemente, as variáveis que
influenciam a precipitação podem ser conhecidas com uma densidade de
39
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
amostragem superior à disponibilizada pela rede de monitorização da precipitação.
Nestas circunstâncias, e perante a evidência de uma boa capacidade explicativa
da precipitação, o fenómeno poderá ser estimado através da relação estabelecida
entre aquelas variáveis e a precipitação. Este é aliás o pressuposto de base de
todos os modelos de interpolação multi-variados.
A influência do relevo na repartição espacial da pluviosidade tem constituído uma
área de investigação privilegiada por diversos estudiosos. Ao nível nacional
destacam-se os trabalhos desenvolvidos por Suzanne Daveau (1977, 1978) que
defendem que o relevo provoca ondulações nas massas de ar carregadas de
humidade, ocasionando alterações na circulação dos fluxos. Os movimentos
ondulatórios referidos podem ser decompostos em deslocações verticais e
deslocações horizontais. Enquanto que as deslocações verticais favorecem
directamente a ocorrência de precipitação, os movimentos horizontais apenas
influenciam
indirectamente
o
mapeamento da distribuição
fenómeno.
espacial de
Reportando-se
ao
trabalho
de
precipitação anual (1931-1960)
desenvolvido para o Continente (Daveau et al., 1977), aquela autora destaca, num
artigo publicado em 1978, as principais conclusões retiradas da análise da
influência do relevo na repartição espacial da pluviosidade em Portugal
Continental. As propostas defendidas por Suzanne Daveau (1978) enunciam os
seguintes conteúdos:
Quando o relevo constitui um obstáculo à progressão de uma massa de ar,
esta após colisão pode sofrer um movimento ascensional (ascendência) ou
pode subdividir-se em dois fluxos que contornam horizontalmente o
obstáculo (divergência).
Em condições de predominância do movimento oscilatório vertical, a
ascendência forçada é seguida de uma subsidência e eventualmente de
uma série de outras oscilações. O alcance do movimento da massa de ar
depende fundamentalmente da primeira impulsão sofrida.
As divergências sofridas por massas de ar são geralmente assimétricas. No
hemisfério norte, o ar tende a subir à direita do obstáculo e à esquerda
deste individualiza-se um corredor de subsidência. Em alguns casos,
verifica-se que os dois fluxos convergem após ultrapassar o obstáculo
provocando nova ascendência.
A predominância de movimentos verticais é devida: à instabilidade da
40
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
massa de ar e à sua rápida deslocação, ao traçado concavo do relevo e a
uma orientação das encostas perpendicular aos fluxos atmosféricos
dominantes.
Os movimentos
horizontais
predominam
se
um fluxo
atmosférico lento e moderadamente instável colidir com relevo de traçado
convexo, cuja orientação seja paralela à direcção de avanço das massas de
ar.
O posicionamento relativo de uma cadeia montanhosa relativamente às
restantes constitui um factor pluviométrico tão importante quanto as
características individuais de cada cadeia montanhosa.
Em suma, as alterações na circulação dos fluxos atmosféricos que são provocadas
pelo relevo variam não só com a forma do obstáculo, com a sua dimensão
horizontal absoluta e relativa, com a orientação do relevo, mas também com a
velocidade e direcção do fluxo atmosférico e respectivo grau de instabilidade.
De entre os factores que influenciam a precipitação, a altitude assume um papel de
destaque. Muito embora se saiba que a precipitação varia na razão directa da
altitude até um determinado limiar altimétrico, verifica-se que o crescimento não é
igual para todas as regiões do globo. Enquanto que para determinados locais a
variação da precipitação com a altitude é linear, noutras zonas da superfície
terrestre observa-se uma variação não linear. Constata-se também que o limiar
altimétrico a partir do qual a precipitação deixa de aumentar com a altitude é
variável, e é tanto maior, quanto maior for o afastamento do cume montanhoso de
maior altitude do litoral.
Num estudo aplicado à Suíça e publicado em 1928, Lugeon (citado por Rodrigues,
1995) verificou que a partir da altitude de 1000 metros, a precipitação anual
apresentava uma variação hiperbólica ou parabólica com a altitude. A partir dos
2000 metros, Lugeon observou uma redução dos incrementos da precipitação com
os incrementos da altitude, que estava associada a uma inflexão da concavidade
da relação da precipitação com a altitude. Entre os 3500 e os 4000 metros a
precipitação deixava de aumentar com a altitude mantendo-se constante ou
decrescendo devido a factores térmicos, higrométricos e barométricos.
Para zonas montanhosas do oeste dos Estados Unidos, em 1951 Leopold (citado
por Rodrigues, 1995) notou uma variação em S da precipitação anual com a
altitude.
Em 1952, Serra (citado por Rodrigues, 1995) assumiu que a precipitação anual
41
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
aumentava linearmente com a altitude, mas variava simultaneamente com a
distância ao mar, decrescendo assintoticamente à medida que o afastamento à
linha de costa aumentava.
O decréscimo da precipitação com o afastamento da linha de costa é devido ao
facto das massas de ar perderem boa parte da humidade que carregam, por queda
pluviométrica, nos primeiros quilómetros de intrusão continental. Esta situação é
causada pelas diferenças térmicas entre as massas de ar e a superfície terrestre.
Ao progredirem para o interior dos continentes, as massas de ar voltam a perder
uma fracção considerável da humidade que transportam devido à colisão com as
cadeias montanhosas de maior porte que ocasionam a sua ascensão forçada.
Deste modo, verifica-se que chove mais nas vertentes das encostas montanhosas
expostas ao vento, do que nas vertentes protegidas do vento. Este facto explica,
na maior parte dos casos, as diferenças de registo de precipitação entre postos
situados a barlavento e a sotavento das obstruções topográficas.
Este fenómeno foi contemplado por French (1983), quando propôs a adopção de
relações diferenciadas para explicar a precipitação anual, de acordo com a
localização dos postos. Segundo este autor os postos podem situar-se em zonas
de excesso, zonas de défice e zonas de transição. Enquanto que as primeiras
abarcam as áreas expostas aos ventos dominantes, as segundas são áreas
escudadas também designadas de zonas de sombra. As zonas de transição fazem
fronteira entre as zonas de excesso e as zonas de défice.
Peck e Brown (1962) estudaram as relações entre a precipitação semestral e a
altitude para o estado de Utah com vista ao traçado de isoietas. As relações
identificadas eram do tipo linear ou do tipo curvilíneo concavo. O domínio espacial
foi subdividido em 20 regiões baseadas nos diversos tipos de variação da
precipitação semestral com a altitude. O estudo desenvolvido possibilitou detectar
desvios ou anomalias face às relações predominantes, que foram maioritariamente
atribuídos a características fisiográficas. Os autores observaram que em algumas
áreas adjacentes separadas por cadeias montanhosas acentuadas, as relações
entre a precipitação e a altitude eram marcadamente diferentes, originando
fenómenos de descontinuidade. Por outro lado, o decréscimo da precipitação com
a altitude observado para alguns postos udométricos de grande altitude foi
explicado pela menor captura de precipitação nos udómetros provocada por vento
intenso. Para zonas onde o efeito ascensional das massas de ar foi classificado
42
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
como sendo muito superior ao normal, a precipitação observada revelou estar mais
fortemente correlacionada com a altitude efectiva (média das altitudes circundantes
até 1.5 milhas do posto) do que com a altitude real do local de medição.
Na análise da precipitação anual de diversos ambientes insulares vulcânicos,
Rodrigues (1994, 1995) também verificou um comportamento não linear da
precipitação com a altitude. Para a Ilha de São Miguel (Açores), tanto a
precipitação total anual, como as precipitações em anos seco e húmido,
evidenciaram comportamentos exponenciais com a altitude. O decréscimo da
precipitação com o afastamento da linha de costa foi também comprovado por este
autor, que tanto observou relações lineares como exponenciais entre aquelas duas
variáveis.
Os resultados da investigação desenvolvida por Hutchinson (1970) destacam que
nas áreas montanhosas, a variabilidade espacial da precipitação é maior do que
nas áreas planas. Os declives mais acentuados das zonas montanhosas provocam
a ascensão forçada das massas de ar, promovendo a ocorrência de precipitação.
Por este motivo, nas áreas montanhosas deve existir uma rede de monitorização
mais densa para assegurar uma precisão das estimativas equivalente à
proporcionada nas áreas planas.
Já em 1947, num estudo aplicado à parte oeste do Colorado, Russler e Spreen
haviam demonstrado que existem outros parâmetros fisiográficos que afectam a
precipitação anual para além da altitude e do afastamento da costa. Os parâmetros
estudados por aqueles autores foram:
a altitude dos postos de monitorização;
a diferença altimétrica entre cada posto de monitorização e a localização mais
elevada situada num raio de 8 km em torno do posto (parâmetro designado por
Rise);
o somatório de todos os sectores angulares, identificados num raio de 30 km
em torno do posto, que não excedam a altitude do posto em 300 ou mais
metros (parâmetro designado por Exposure);
a orientação das encostas associada ao parâmetro Exposure (parâmetro
designado por Orientation);
áreas ou zonas geográficas afins, devido a uma orientação comum face às
principais cadeias montanhosas e sujeitas à afluência das massas de ar
provenientes de direcções idênticas (parâmetro designado por Zones of
43
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Environment).
Ao analisar a relação de normais de precipitação anual e de precipitação sazonal
com cada um dos cinco parâmetros referidos, aqueles investigadores concluíram
que a altitude apenas possibilitava explicar 30% da variabilidade evidenciada pela
precipitação. Atendendo à orientação diferenciada das cadeias montanhosas na
zona de estudo e às direcções preferenciais de avanço das massas de ar, o
domínio espacial foi subdividido em quatro zonas geográficas afins. Para cada
intervalo de totalização da precipitação (anual e sazonal) e para cada zona, foram
construídos modelos explicativos da pluviosidade. Os modelos utilizados para
explicar a precipitação sazonal contemplavam todas as variáveis acima listadas.
Os modelos relativos à precipitação anual excluíam a variável Exposure. A
integração nos modelos de variáveis fisiográficas complementares da altitude,
possibilitou aumentar a correspondente capacidade explicativa para 83%
relativamente à precipitação anual, e 85% relativamente à precipitação sazonal.
Partindo da observação de que regiões climáticas distintas possuem tipos de
vegetação diferenciados, Linsley (1958) sugeriu que a vegetação pudesse ser
utilizada, na presença de registos escassos, como um possível indicador da
precipitação. Vernet (1958) advogou que a presença de determinados tipos de
vegetação apenas permite estimar com uma aproximação grosseira a precipitação
realmente ocorrida, dado que outros factores tais como a temperatura, a radiação,
as características do solo e a intervenção humana também influenciam a
vegetação.
Tendo em conta que algumas espécies florestais são características de
microclimas associados a altitudes específicas, Hevesi e alguns colaboradores
(1992b) confrontaram algumas das estimativas de precipitação produzidas por
cokrigagem com a ocorrência dessas espécies. Na maior parte dos casos, a
distribuição das espécies florestais revelou-se em concordância com as
estimativas de precipitação obtidas.
3.3.2
Modelação da Estrutura Espacial da Precipitação
A descrição estatística do fenómeno da pluviosidade através da análise do
respectivo processo no espaço e no tempo constitui um pré-requisito tanto para a
aplicação de alguns métodos de interpolação atrás descritos, como para o
dimensionamento de uma rede de monitorização do fenómeno.
44
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
A estrutura espacial da precipitação pode ser descrita por funções de correlação
espacial ou por variogramas. A componente temporal afecta indirectamente a
função de correlação espacial utilizada para descrever a precipitação, na medida
em que a diferentes períodos de observação do fenómeno (anual, mensal, diário,
horário) correspondem diferentes taxas de decréscimo da correlação no espaço.
As aplicações mais antigas de análise da correlação espacial da pluviosidade
datam dos anos 60. Hershfield (1965) estudou os registos de precipitação
correspondentes a 15 tempestades ocorridas em 15 bacias hidrográficas distintas,
contemplando um total de 400 postos. Ao avaliar a variação da correlação da
precipitação com a distância a postos específicos, observou que a relação era
anisotrópica. A não estacionariedade do processo analisado foi também
evidenciada pelo trabalho de Hershfield.
Também em 1965, Caffey estudou a estrutura da correlação espacial da
precipitação anual apurada em 1141 postos da zona oeste dos EUA e da zona
sudoeste do Canadá. Os registos de precipitação utilizados tinham em média 54
anos. Ao ajustar um modelo exponencial para modelar a correlação da
precipitação em função da distância e da direcção, o autor conseguiu explicar 60%
da correlação observada entre os postos.
Guscina, Kagan e Polishchuck (1967) desenvolveram um estudo para a região de
Valdai na Rússia, em que analisaram a correlação da precipitação como função da
distância a um posto central de medição do fenómeno. A variação da correlação
espacial da precipitação foi avaliada para os seguintes períodos: precipitação
acumulada em 12 horas e em 24 horas, precipitação acumulada em 10 dias e em
30 dias e precipitação sazonal. Os autores verificaram que a taxa de decréscimo
da correlação da precipitação com a distância é tanto maior, quanto menor for a
duração do período de observação considerado.
Huff e Shipp (1969) desenvolveram um estudo aplicado a três redes de
precipitação de Illinois (EUA), analisando registos pluviométricos mensais,
sazonais, anuais e ainda quantitativos aferidos em intervalos de 1 minuto até à
duração total da chuvada. Os autores analisaram a influência do período de
observação e do tipo de precipitação sobre a correlação espacial do fenómeno.
Verificaram que a função da correlação da precipitação com a distância decai mais
rapidamente para tempestades do tipo convectivo ou trovoadas, do que para a
precipitação associada à passagem de centros de baixa pressão. Observaram
45
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
igualmente que a taxa de decréscimo da correlação espacial da pluviosidade no
Verão é muito mais acentuada do que no Inverno. A anisotropia foi igualmente
evidenciada pela investigação conduzida, tendo-se concluído que a direcção de
maior continuidade espacial do fenómeno coincidia com a direcção de avanço da
maior parte das chuvadas.
No mesmo ano, Hutchinson (1969) analisou precipitações mensais e anuais para
duas zonas distintas da Nova Zelândia que diferiam substancialmente em termos
de relevo, mas possuíam regimes de precipitação similares devido à sua
proximidade geográfica. O estudo da correlação espacial da precipitação para as
duas zonas denotou a existência de relações anisotrópicas distintas para cada
zona, bem como a existência de taxas de decréscimo da correlação com a
distância distintas. O modelo ajustado à correlação espacial foi uma função
polinomial do 3º grau, que para além da distância contemplava ainda variáveis
como a diferença entre as elevações máxima e mínima, o declive e a exposição.
Comparativamente às funções polinomiais tradicionalmente adoptadas para
modelar a correlação espacial do fenómeno, a função utilizada apenas permitiu
melhorar a variância explicada de alguns dos meses estudados. Um ano depois,
Hutchinson (1970) viria a concluir que as diferenças observadas na variabilidade
espacial da precipitação entre regiões que apresentam regimes climáticos
similares são maioritariamente devidas à rugosidade do terreno ou ao relevo local.
Hendrick e Comer (1970) analisaram a estrutura espacial da precipitação diária
ocorrida sobre uma bacia hidrográfica localizada em Vermont. Os dados de
precipitação diária foram subdivididos em duas estações: Inverno e Verão. A
variação da correlação da precipitação com a distância a um posto central denotou
a existência de anisotropia. Os autores verificaram igualmente dependência da
correlação espacial da estação do ano analisada e do quantitativo de precipitação
diária. O modelo ajustado à correlação espacial foi uma função linear da distância,
variável com o azimute formado pelos postos de medição de precipitação.
Em 1972, Stol publicou um estudo baseado em quantitativos diários de
precipitação associados a uma zona plana, na Holanda. Os valores de precipitação
iguais ou superiores a 0.5 mm foram agrupados nos meses correspondentes. A
correlação espacial da precipitação foi analisada mensalmente, não se tendo
observado anisotropia. Este facto pode estar associado à pequena dimensão da
área em análise. A função seleccionada para modelar a correlação espacial era do
46
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
tipo exponencial. O autor também verificou que a correlação decrescia mais
rapidamente com a distância nos meses de Verão (Julho) do que nos de Inverno
(Janeiro).
Em 1973, Zawadzki, ao analisar a componente espacial de uma frente convectiva,
observou um comportamento isotrópico para vizinhanças até 10 km e um
comportamento anisotrópico para distâncias superiores a 10 km.
Num estudo sobre o planeamento de redes de medição de precipitação,
Rodriguez-Iturbe e Mejia (1974a) descrevem a estrutura da pluviosidade através
de um modelo de correlação espacial e temporal. Assumindo que as componentes
espaço e tempo são separáveis, os modelos adoptados foram uma função
modificada de Bessel para a correlação espacial (ou, alternativamente, uma função
exponencial) e um processo de 1ª ordem de Markov para a correlação temporal. O
trabalho dos autores foi aplicado a uma área homogénea de 30000 km2 com 26
postos de precipitação, situada na Venezuela.
O modelo exponencial foi igualmente utilizado por Brady (1975) para modelar a
estrutura espacial e temporal de uma chuvada de um minuto ocorrida em Illinois
(EUA).
Em 1977, O'Connell e diversos colaboradores analisaram registos de precipitação
anual, mensal e diária para duas regiões do Reino Unido. Os dados diários foram
agrupados em quatro categorias: dias com precipitação superior a 2 mm, dias com
precipitação superior a 5 mm, dias com precipitação superior a 10 mm e
precipitação ocorrida em cada vigésimo dia. A variação da correlação espacial da
precipitação reportada aos postos de medição considerados mais importantes
denotou a existência de anisotropia. Os autores verificaram também um
decréscimo mais abrupto da correlação espacial da precipitação para os períodos
de observação mais curtos. A correlação espacial da precipitação foi modelada
com uma função exponencial.
Em 1978, O'Connell e alguns dos investigadores envolvidos no trabalho de 1977,
reformularam o modelo então utilizado para modelar a correlação espacial da
precipitação, introduzindo-lhe um parâmetro adicional que visava contabilizar os
erros de medição da precipitação.
A precipitação média anual associada a uma bacia hidrográfica do estado de
Nevada foi estudada por Hevesi e alguns colaboradores (Hevesi et al.,1992a). Os
autores verificaram que a precipitação analisada apresentava uma distribuição
47
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Lognormal. Para viabilizar a adopção de expressões lineares na interpolação, a
precipitação foi transformada no produto do logaritmo neperiano da precipitação
média anual por 1000. A estrutura espacial da precipitação transformada viria a ser
posteriormente modelada através de um modelo esférico. Neste estudo assumiuse que a estrutura espacial da pluviosidade não variava com a direcção. O
variograma cruzado da precipitação transformada com a altitude foi modelado por
uma estrutura imbricada onde coexistiam um modelo gaussiano e outro esférico.
Dado o desvio da distribuição normal, observado tanto para os dados de
precipitação anual como para os dados de altitude relativos a uma região
montanhosa da parte oeste do estado do Oregon (EUA), Phillips, Dolph e Marks
(1992) utilizaram uma abordagem similar à da equipa de Hevesi (1992a) optando
pela logaritmização (decimal) daqueles valores. A precipitação anual logaritmizada
foi assumida como isotrópica e ao respectivo semi-variograma empírico foi
ajustado um modelo esférico. Para distâncias superiores a 90 km, os autores
constataram a existência de uma tendência que se exprimia através do
crescimento da auto-correlação espacial acima da variância da amostra. A
variabilidade espacial da precipitação com a altitude (ambas logaritmizadas) foi
também considerada isotrópica. O semi-variograma cruzado das duas variáveis foi
modelado através de um modelo exponencial que só foi ajustado às observações
situadas até à distância de 90 km, uma vez que a partir daquela distância se
evidenciava a tendência que já havia sido notada nos semi-variogramas individuais
das variáveis em causa.
Num estudo dedicado ao mapeamento da variabilidade espacial da precipitação
ocorrida na região do Algarve, Goovaerts (1999) adoptou o modelo cúbico para
ajustar aos variogramas experimentais das precipitações mensais e anual. Estes
fenómenos foram qualificados como isotrópicos.
Dos estudos apresentados destaca-se que a precipitação evidencia uma maior
continuidade espacial para períodos de análise mais longos. Deste modo, a
precipitação anual revela uma maior continuidade espacial do que a precipitação
horária. Observa-se também que a precipitação associada aos meses mais secos
apresenta menor continuidade espacial do que a relativa aos meses mais
chuvosos. No que concerne à variabilidade do fenómeno com a direcção, não
existe consenso porque tal depende de diversos factores, de entre os quais se
destacam o tipo de precipitação, a extensão geográfica da área analisada e a zona
48
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
do globo em apreciação. Na modelação da correlação espacial da precipitação, os
modelos exponenciais têm sido os mais frequentemente reportados na literatura.
3.3.3
Estimação de Precipitação Anual e Mensal
Já em 1968, quando ainda não se ouvia falar em Sistemas de Informação
Geográfica, uma equipa composta por cinco investigadores (Solomon et al., 1968)
propôs o armazenamento em formato matricial de informação hidrológica e
fisiográfica com vista ao desenvolvimento de balanços hídricos. Este estudo foi
aplicado à Terra Nova (111370 km2). Os seus autores subdividiram o domínio
espacial numa malha regular formada por células quadradas de 10x10 km. A
informação foi associada ao centro e aos vértices de cada célula. Os aspectos
fisiográficos contemplados por este estudo foram:
a latitude;
a longitude;
a altitude;
o diferencial altimétrico existente entre cada célula e a maior barreira
altimétrica identificada numa dada direcção de interesse;
o declive;
a exposição;
a visibilidade;
a distância ao mar (distância mais curta e distâncias avaliadas segundo
direcções de interesse).
A estimação da precipitação anual foi inicialmente desenvolvida através de uma
regressão linear múltipla que explicava 79% da variabilidade do fenómeno. Os
autores consideraram que a aplicação de um modelo único para todo o domínio
espacial não tinha sido satisfatória. Deste modo subdividiram a área de estudo em
duas regiões e identificaram modelos de estimação da precipitação diferenciados
para cada região, conseguindo deste modo uma percentagem de variância
explicada superior à anteriormente obtida. Estes dois últimos modelos já não eram
lineares.
Pentland e Cuthbert (1971) também empregaram a técnica da quadrícula
(Solomon et al., 1968) na geração de caudais em bacias não monitorizadas de
New Brunswick (Canadá). O nível de detalhe adoptado para o armazenamento das
variáveis foi de 10x10 km. A precipitação anual foi calculada iterativamente,
49
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
partindo de uma estimativa inicial proporcionada por uma expressão que
relacionava a precipitação com a temperatura e a evaporação.
Em 1985, Tabios III e Salas publicaram os resultados de uma análise comparativa
de diversas técnicas na estimação da precipitação anual baseada em normais
climatológicas. A análise foi aplicada a uma área situada na parte central norte dos
Estados Unidos, abrangendo 29 postos dos estados do Nebraska e do Kansas. A
variabilidade espacial da precipitação anual foi assumida como invariante com a
direcção. Com base numa densidade de 0.56 postos por 1000 km2, os autores
compararam os resultados de estimação da precipitação anual produzidos por
polígonos de Thiessen, interpolação polinomial, interpolação em função do inverso
da distância, interpolação multi-quádrica, interpolação óptima e Krigagem. Com
base na análise do erro quadrático médio obtido por validação cruzada e na
comparação de estatísticas descritivas de valores observados e estimados, Tabios
III e Salas concluíram que a Krigagem, a interpolação óptima e a interpolação
multi-quádrica foram os métodos mais eficientes na estimação da precipitação
anual.
A necessidade de equacionar uma subárea de uma bacia do estado do Nevada
(Yucca Mountain) como potencial depósito de resíduos nucleares exigiu a
estimação da precipitação média anual, tendo em vista a sua posterior utilização
em cálculos de balanço hídrico. Neste trabalho, Hevesi e alguns colaboradores
(Hevesi et al.,1992a, 1992b) utilizaram dados de uma rede udométrica pouco
densa, formada por 64 postos e cujos registos variavam entre 8 e 53 anos. Devido
ao facto de evidenciar uma distribuição Lognormal, a precipitação média anual foi
transformada no produto do logaritmo neperiano da precipitação média anual por
1000. A constatação de que a precipitação transformada se encontrava associada
à altitude (através de um coeficiente de correlação de 0.75) e a possibilidade de
obter uma amostra razoável de pontos cotados para o domínio espacial
considerado, permitiu o emprego de técnicas multi-variadas do âmbito da
geoestatística. A informação altimétrica foi utilizada para melhorar as estimativas
da precipitação transformada. A resolução espacial adoptada para a estimação e
mapeamento da precipitação foi de 3x3 km. A variabilidade espacial da
precipitação transformada foi modelada através de um variograma omnidireccional
esférico. Os autores assumiram que a altitude teria um comportamento isotrópico
quando analisada dentro de uma vizinhança local com um raio de 36.6 km. A
50
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
função ajustada ao variograma da altitude era formada por três estruturas
imbricadas: um modelo gaussiano, outro esférico e um linear quase estacionário.
Enquanto que os dois primeiros caracterizavam a distribuição espacial da altitude
em termos da sua variabilidade local, o último reflectia a variabilidade regional da
altitude. O variograma cruzado (da precipitação transformada com a altitude) foi
também modelado por uma estrutura imbricada onde coexistiam um modelo
gaussiano e outro esférico. A interpolação da precipitação transformada foi levada
a cabo recorrendo a seis técnicas distintas, todas elas desenvolvidas sobre
vizinhanças móveis:
determinação da média de precipitação transformada para dada vizinhança;
estimação de precipitação transformada através de funções dependentes do
inverso da distância, do inverso do quadrado da distância e do inverso do
cubo da distância;
regressão linear;
regressão log-linear;
krigagem ordinária;
cokrigagem.
Os resultados da validação cruzada indicaram que os métodos multi-variados
(cokrigagem e regressão múltipla) tiveram melhor desempenho do que os
restantes, tendo-se mesmo constatado que as estimativas produzidas por
cokrigagem foram as mais exactas. O erro reduzido quadrático médio obtido para a
precipitação anual transformada produzida por cokrigagem foi de 0.99. De entre os
métodos uni-variados, a krigagem ordinária revelou alguma superioridade. As
estimativas de precipitação transformada foram posteriormente transformadas em
estimativas de precipitação média anual. A cartografia da precipitação obtida por
cokrigagem ajustou-se fielmente à altimetria da área de estudo, nomeadamente
nas áreas montanhosas onde o efeito orográfico sobre a precipitação nem sempre
foi modelado com exactidão através da krigagem ordinária. A predição da
precipitação média global da zona de estudo por cokrigagem foi algo superior à
obtida por krigagem. Este resultado deve-se ao facto de para zonas de maior
altitude, a cokrigagem originar estimativas mais elevadas e mais realistas do que a
krigagem ordinária. A variância das estimativas obtidas por cokrigagem foi em
média mais reduzida do que a variância das estimativas calculadas através da
krigagem ordinária (-54%), indicando um aumento da precisão das estimativas
51
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
possibilitado pela utilização da informação altimétrica. A associação linear
verificada entre as estimativas de precipitação anual obtidas por cokrigagem e a
altitude revelou-se similar à inicialmente aferida entre os valores reais de
precipitação anual e as observações altimétricas.
Com vista à modelação dos processos hidrológicos associados a uma bacia
hidrográfica localizada num área montanhosa da parte oeste do estado do Oregon,
Phillips, Dolph e Marks (1992) compararam a eficácia de três técnicas na
estimação da precipitação média anual. Os métodos avaliados foram:
a krigagem ordinária;
a krigagem ordinária desenvolvida sobre os resíduos resultantes da
regressão linear estabelecida entre a precipitação e a altitude (Elevation
Detrended Kriging);
a cokrigragem utilizando a altitude como variável auxiliar.
As medições de precipitação anual, relativas a sete anos hidrológicos, foram
fornecidas por uma rede de 52 postos cuja densidade aproximada era de 1.8
postos por 1000 km2. Para além da altitude dos postos, os autores utilizaram 478
observações altimétricas que se encontravam associadas a uma grelha regular em
que o domínio espacial foi subdividido. A malha regular apresentava uma
resolução espacial aproximada de 6x9 km. Os semi-variogramas analisados
reportavam-se às variáveis transformadas por aplicação de logaritmos decimais ou
aos resíduos resultantes da regressão linear estabelecida para todo o domínio
entre o logaritmo da precipitação e o logaritmo da altitude. A adopção do logaritmo
da altitude como variável auxiliar em dois dos métodos de interpolação estudados,
foi justificado pelos autores através da elevada correlação (0.82) existente entre
aquela variável e o logaritmo da precipitação anual. Nas três técnicas testadas,
cada estimativa foi obtida a partir de oito observações circundantes, situadas
numa vizinhança máxima de 60 km da posição a estimar. As estruturas espaciais
do logaritmo da precipitação, do logaritmo da altitude, bem como a variabilidade
conjunta das duas variáveis logaritmizadas foram assumidas como invariantes com
a direcção. Igual pressuposto foi adoptado para a variabilidade espacial dos
resíduos resultantes da regressão linear entre as duas variáveis. Os semivariogramas dos resíduos e da precipitação logaritmizada foram modelados
através de modelos esféricos. Ao semi-variograma empírico da altitude
logaritmizada foi ajustado um modelo gaussiano. Ao semi-variograma cruzado da
52
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
altitude com a precipitação (ambas logaritmizadas) foi ajustado um modelo
exponencial. Após produção de estimativas através de validação cruzada com
base nas três técnicas de interpolação referidas, as estimativas obtidas foram
transformadas em valores de precipitação anual.
As técnicas de interpolação que utilizaram a altitude como informação auxiliar
revelaram alguma superioridade relativamente à krigagem ordinária. A krigagem
desenvolvida sobre os resíduos e a cokrigragem foram, respectivamente,
responsáveis por erros absolutos médios de 190 mm e 200 mm. Através da
krigagem ordinária os autores obtiveram um erro absoluto médio de 260 mm. Os
erros médios alcançados através da krigagem dos resíduos e da cokrigragem
foram respectivamente –14 mm e –20 mm, que são bastante inferiores aos –52
mm obtidos através da krigagem ordinária. Face aos resultados atingidos, os
autores concluem que se existir uma associação linear forte entre a precipitação e
a altitude, a técnica de interpolação mais adequada à estimação da precipitação
anual é a krigagem dos resíduos. Os resíduos resultam da regressão linear
estabelecida para todo o domínio entre a precipitação e a altitude. Quando a
associação linear entre a precipitação e a altitude não é significativa, os autores
sugerem a subdivisão do domínio espacial em áreas homogéneas onde se
verifique uma maior correlação entre as duas variáveis.
Abtew, Obeysekera e Shih (1993) desenvolveram um estudo que comparou a
eficiência de sete métodos na interpolação de precipitação mensal, para uma área
plana do sul da Florida (EUA). Para remoção da periodicidade, cada observação
de precipitação mensal foi normalizada. As técnicas testadas foram:
a interpolação em função do inverso da distância;
os polígonos de Thiessen;
a interpolação polinomial;
a interpolação multi-quádrica;
a interpolação óptima;
a krigagem ordinária;
a krigagem universal (com ajuste de uma função polinomial do primeiro grau
à deriva).
A resolução espacial adoptada para a análise foi de 1.6x1.6 km e a densidade de
monitorização disponível era de 2.4 postos por 1000 km2. O semi-variograma
empírico foi modelado através de uma função exponencial isotrópica. As técnicas
53
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
que denotaram melhor desempenho foram a interpolação multi-quádrica, a
interpolação óptima e a krigagem ordinária. Qualquer uma das três técnicas
citadas permitiu explicar 87% da variabilidade da precipitação mensal. No entanto,
os autores manifestaram a sua preferência pela interpolação óptima e pela
krigagem ordinária, porque ambas disponibilizam uma medida do erro associado a
cada estimação.
Em 1994, Rodrigues descreve uma metodologia que viabiliza o mapeamento da
precipitação em ilhas vulcânicas. O método apresentado baseia-se na técnica da
quadrícula de Solomon (Solomon et al, 1968) para cálculo das características
fisiográficas do terreno e na estimação da precipitação através da regressão não
linear múltipla. Com o objectivo de construir modelos explicativos da precipitação
(média anual, média em ano húmido e média em ano seco), o autor analisou a
contribuição de diferentes variáveis fisiográficas na explicação das observações
pluviométricas. Os cinco parâmetros que revelaram maior capacidade explicativa
da precipitação foram a altitude, a distância ao mar, o declive, o factor de
afundamento e a altitude de maior obstrução ao avanço das massas de ar. Estas
variáveis foram avaliadas para uma resolução espacial de 1.85x1.85 km. Na Ilha
de São Miguel (Açores) a altitude permitia explicar 77% da variabilidade da
precipitação anual e 81% da variabilidade da precipitação em ano húmido e em
ano seco. Os modelos desenvolvidos para São Miguel para estimar a precipitação
anual, a precipitação em ano húmido e a precipitação em ano seco incluíam os
cinco parâmetros mencionados e apresentavam capacidades explicativas iguais ou
superiores a 95%. O mapeamento da precipitação recorrendo ao método citado foi
considerado muito satisfatório, retratando com muita fidelidade a distribuição
espacial da precipitação junto dos maciços vulcânicos e nas zonas de lagos.
Um ano depois, Rodrigues (Rodrigues, 1995) generalizaria as relações
identificadas em 1994 para um conjunto mais vasto de ambientes insulares
vulcânicos. As áreas de estudo incluíram São Miguel (Açores), Madeira, Santiago
(Cabo Verde), S. Tomé, Gran Canaria (Canárias), Timor e Sicília. Para estas ilhas,
o autor analisou a variabilidade da precipitação anual em função de diversos
factores fisiográficos, dando especial destaque ao efeito da altitude e ao
distanciamento da costa. A diversidade de ambientes estudados possibilitou
também analisar a influência da latitude e do posicionamento oceânico na variação
espacial da precipitação.
54
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
A necessidade de estimar valores de precipitação a partir de algumas observações
pluviométricas disponíveis e de informação fisiográfica complementar, recorrendo a
uma estrutura matricial dos dados organizada em Sistema de Informação
Geográfica, conduziu à criação de um modelo que foi designado por PRISM (Daly
et al., 1994). Simplificadamente, o PRISM (Precipitation-elevation Regressions on
Independent Slopes Model) é um modelo analítico, que a partir de valores de
precipitação (anual ou mensal) associados a pontos (postos de medição),
possibilita estimar a precipitação equivalente (anual ou mensal) associada a cada
célula de uma malha regular, em que o domínio espacial se encontra subdividido.
Trata-se de um modelo vocacionado para regiões de altitude média e aplicável à
escala continental ou mesmo regional. O PRISM utiliza como input informação
altimétrica (organizada em formato matricial com uma resolução de 6x9 km) e
informação pluviométrica recolhida em postos de medição, bem como as
respectivas características altimétricas e posicionais (altitude e coordenadas
geográficas). Com base no modelo digital do terreno e nas altitudes reais dos
locais de medição da precipitação, são calculadas as altitudes transformadas dos
postos, isto é o equivalente altimétrico de cada posto na malha regular. Na
passagem de informação de pontos (postos) para áreas (células da malha), o valor
associado a cada célula é um valor médio que traduz o comportamento médio de
todas as observações nela incluídos. Os investigadores responsáveis pelo
desenvolvimento do PRISM observaram que a correlação da precipitação anual
com a altitude média associada a células de 6x9 km era muito superior à
correlação da precipitação anual com a altitude dos postos. Este facto já havia sido
notado por outros autores (Spreen, 1947; Rodrigues, 1995) que provaram que
algumas variáveis fisiográficas estão mais fortemente correlacionadas com a
precipitação quando avaliadas a escalas entre os 2 e os 15 km do que quando
aferidas pontualmente.
Ainda com base no modelo digital do terreno, o PRISM efectua o cálculo de
declives e exposições associadas a cada célula da malha. Atendendo à relação
entre a altitude e a precipitação, já sobejamente estudada por muitos autores, e à
sua dependência de factores como o declive e a exposição das vertentes
montanhosas, PRISM propõe o agrupamento das células da malha em regiões
contíguas que apresentem uma exposição dominante similar. O cálculo da
estimativa de precipitação associada a cada célula da malha em que o domínio
55
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
espacial foi subdividido, processa-se do seguinte modo:
posicionando-se no centro de cada célula, o modelo efectua uma pesquisa
radial com o objectivo de identificar os postos de medição mais próximos
que estejam contidos numa região de exposição idêntica à da célula em
apreciação;
a partir de um mínimo de três postos seleccionados, estabelece um modelo
explicativo (regressão linear simples) da precipitação observada com a
altitude transformada dos postos;
a precipitação associada a cada célula é deste modo estimada com base no
modelo identificado célula a célula e na informação altimétrica da célula.
O modelo PRISM foi aplicado à faixa oeste dos Estados Unidos da América e, com
maior profundidade, à parte norte do estado de Oregon. Foi para este estado que
se procedeu à comparação dos resultados obtidos através do PRISM com os de
modelos alternativos (krigagem ordinária, krigagem ordinária sobre os resíduos
resultantes da regressão linear da precipitação com a altitude -Detrended Kriginge cokrigagem utilizando a altitude como variável auxiliar), tendo-se constatado que
os erros absolutos produzidos pelo PRISM através de validação cruzada foram
inferiores aos produzidos pelos restantes métodos acima mencionados. Na
estimação das precipitações mensais para o estado do Oregon, os erros
percentuais absolutos médios produzidos pelo PRISM variaram entre os 18 e os
27%. No que diz respeito à precipitação anual, o erro percentual absoluto médio foi
de 16%.
Num trabalho aplicado à região do Algarve, Goovaerts (1999) comparou o
desempenho de sete métodos de interpolação na estimação das precipitações
mensais e anual, relativas ao período de Janeiro de 1970 a Março de 1995. O
estudo baseou-se em dados de pluviosidade de 36 postos da rede meteorológica
nacional e em informação altimétrica, disponível em formato matricial com uma
resolução de 1x1 km para todo o domínio espacial. As técnicas de interpolação
testadas foram:
os polígonos de influência de Thiessen;
o inverso da distância quadrática;
a krigagem ordinária;
a regressão linear simples;
a krigagem com deriva externa;
56
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
a cokrigagem co-localizada;
a krigagem simples com média local variável.
Nas quatro últimas técnicas, a altitude foi utilizada como variável auxiliar. A
correlação entre a precipitação e a altitude variava entre 0.33 (para o mês de
Agosto) e 0.83 (para os meses de Maio e Junho). O fenómeno da precipitação foi
classificado como isotrópico em todos os períodos de tempo estudados. Os
resultados produzidos pelos sete métodos ensaiados foram comparados por
recurso à técnica de validação cruzada. A avaliação do erro quadrático médio e da
correlação entre a precipitação observada e a precipitação estimada permitiu
chegar às seguintes conclusões:
As técnicas multi-variadas do âmbito da geoestatística foram as que evidenciaram
melhor desempenho para a maioria dos intervalos de totalização da precipitação.
As precipitações relativas aos meses entre Junho e Setembro constituíram uma
excepção a esta constatação por apresentarem pequenos quantitativos de
precipitação.
De entre todas as técnicas ensaiadas, a Krigagem simples com média local
variável (construída a partir da relação local entre a precipitação e a altitude) e a
Krigagem utilizando a altitude como deriva externa produziram as estimativas que
menos se afastavam dos valores observados.
3.3.4
Estimação de Precipitações Diárias
No âmbito da estimação de precipitações diárias, destaca-se o modelo MTCLIM
(Hungerford et al.,1989). Trata-se de um modelo concebido para extrapolar
condições micro-climáticas diárias em terrenos montanhosos adjacentes às áreas
onde se efectua o apuramento de parâmetros climáticos. O MTCLIM produz
estimativas diárias de precipitação, temperatura, humidade do ar e radiação solar.
O modelo utiliza como input variáveis climáticas associadas aos postos
climatológicos e características fisiográficas associadas à área de estudo. As
variáveis do primeiro tipo são a temperatura do ar (máxima e mínima diárias), a
precipitação média diária e, se disponível, o ponto de orvalho. As características
fisiográficas requeridas pelo modelo são a altitude, o declive, a exposição e
azimutes. É igualmente necessária a posição geográfica dos postos climáticos
disponíveis. Cada parâmetro estimado pelo MTCLIM é obtido através de uma
rotina distinta. As estimativas de precipitação são calculadas tendo apenas em
57
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
conta a precipitação diária de um ou dois postos vizinhos e as precipitações anuais
relativas aos postos seleccionados e ao local para o qual se vai efectuar a
estimação. A precipitação anual poderá ser obtida a partir de uma carta de isoietas
para as zonas onde não há medições. No que se refere à estimação de
precipitação, constata-se que o modelo descrito ignora a maioria das variáveis
fisiográficas requeridas para a estimação dos restantes parâmetros.
O MTCLIM foi testado para as Montanhas Rochosas (Rocky Mountains) dos
Estados Unidos. A regressão das estimativas de precipitação produzidas pelo
modelo contra as observações de precipitação conduziu a coeficientes de
determinação superiores a 0.49.
Alguns anos mais tarde, Running e Thornton (1996) apresentam o modelo
MTCLIM-3D, como um sucessor do MTCLIM. Este novo modelo serve para
interpolar superfícies diárias de precipitação e de temperatura (máxima e mínima).
O MTCLIM-3D foi testado para o estado de Montana (EUA) e para o ano de 1990,
a partir de dados diários fornecidos por uma rede climatológica que apresentava
uma densidade de 0.57 postos por 1000 km2. Ao invés do MTCLIM, o novo modelo
opera sobre informação altimétrica associada a uma malha regular (células com
1x1 km). As interpolações efectuadas pelo MTCLIM-3D recorrem, numa fase
inicial, a um algoritmo baseado em polígonos proximais (verticalmente exagerados)
que é combinado com a aplicação de um filtro espacial de pesos gaussianos
(Kernel). O algoritmo baseado em polígonos proximais destina-se a subdividir o
domínio espacial em áreas de influência dos postos climatológicos. Trata-se de um
método similar ao dos polígonos de Thiessen, desenvolvido a três dimensões.
Deste modo, para além da distância medida na horizontal, os autores contemplam
a distância aferida na vertical, com um factor de ponderação superior à distância
medida na horizontal. O maior peso atribuído à distância vertical baseia-se no
pressuposto de que a altitude tem mais influência do que a distância horizontal,
nas variáveis climatológicas a estimar. Após sobreposição dos polígonos proximais
com a malha regular a que a informação altimétrica está associada, passa-se a
dispor de um conjunto de células sobre as quais irão operar os algoritmos
desenvolvidos no âmbito do MTCLIM-3D. O filtro espacial é aplicado na
identificação dos postos climatológicos a considerar na estimação dos quantitativos
de precipitação e de temperatura associados a cada célula, bem como no cálculo
das ponderações a atribuir aos postos seleccionados para cada célula. O filtro
58
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
espacial utilizado é um Kernel circular com raio fixo. Quando não nulo, o valor do
filtro define uma função de pesos gaussiana truncada. Finda esta fase inicial,
procede-se, numa segunda fase, à identificação dos coeficientes da regressão
linear entre a precipitação e a altitude, através de um algoritmo de diferenças
normalizadas. Estes coeficientes são posteriormente utilizados na interpolação da
precipitação diária associada a cada célula, que é desenvolvida a partir de uma
regressão linear ponderada. A probabilidade de ocorrência de precipitação numa
célula é modelada pela distribuição Binomial. Se, para dada célula, o somatório
dos pesos atribuídos aos postos que apresentam precipitação diária maior do que
zero for superior à probabilidade de ocorrência de precipitação na célula, procedese à estimação da precipitação ocorrida na célula. Caso contrário, assume-se que
a precipitação associada à célula é nula.
Após estimação, através de validação cruzada, de valores de precipitação para um
ano, os autores verificaram que a precipitação anual estimada pelo MTCLIM-3D
apresentava um erro percentual absoluto de 20% relativamente à precipitação
anual observada. Em termos médios, os desvios absolutos de estimação foram de
0.3 mm para o dia e de 118.3 mm para o ano.
Em Abril de 1997, um grupo de interesse da Internet designado por AI-GEOSTAT
organizou em colaboração com o Joint Research Centre da Comunidade Europeia,
um exercício científico designado por “Spatial Interpolation Comparison 97 –
SIC97” em que os participantes eram convidados a estimar valores de precipitação
diária ocorrida em 367 localizações na Suíça. Para tal, foi fornecido a todos os
participantes desta iniciativa um conjunto de 100 observações de precipitação
diária referentes ao mesmo domínio espacial, bem como as coordenadas
geográficas das 100 observações e das 367 posições relativamente às quais se
pretendiam obter estimativas. Para além dos dados de precipitação, foi
disponibilizado um modelo altimétrico da Suíça com uma resolução espacial de
1x1 km que poderia ser empregue como informação auxiliar. Embora não se
tratasse de um concurso, os 19 participantes desta iniciativa deveriam apresentar
abordagens distintas ao problema da interpolação espacial, seguindo critérios de
avaliação comuns. Após divulgação das estimativas obtidas, cada participante teve
acesso aos valores de precipitação diária efectivamente observados nas 367
localizações para as quais foram produzidas estimativas. A comparação dos
valores estimados com os observados foi desenvolvida através de três
59
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
procedimentos:
comparação de estatísticas descritivas dos valores estimados e observados;
análise das estimativas obtidas para observações extremas;
análise de parâmetros de avaliação que incluíam a raiz quadrada do erro
quadrático médio, o erro absoluto médio e a correlação entre valores
observados e estimados.
Os 19 participantes do SIC97 adoptaram técnicas de interpolação diversas, sendo
grande número destas do âmbito da geoestatística. Os métodos que evidenciaram
melhor desempenho pertencem à família da krigagem (nomeadamente krigagem
com classificação, krigagem com modelo de tendência polinomial, krigagem
baseada na co-variância generalizada). Os 19 artigos que descrevem o trabalho
realizado pelos participantes do SIC97 foram publicados em suporte digital no
Journal of Geographic Information and Decision Analysis (1998).
Num trabalho aplicado à Escócia, Prudhomme (1999) testou técnicas de
interpolação do âmbito da geoestatística na estimação da mediana da precipitação
máxima diária anual (RMED). Para tal, recorreu a dados pluviométricos de uma
rede com 1003 postos. As técnicas testadas foram a krigagem ordinária e a
krigagem desenvolvida sobre os resíduos resultantes de uma regressão linear
múltipla estabelecida entre 1000/RMED e quatro variáveis explicativas. Embora a
autora estivesse interessada no conhecimento da distribuição espacial de RMED, a
modelação foi desenvolvida sobre a razão 1000/RMED, devido aos resíduos
correlacionados gerados pela utilização directa de RMED. As variáveis auxiliares
utilizadas na explicação de 1000/RMED foram:
o ângulo médio formado entre a posição em apreciação e a barreira
altimétrica mais alta identificada num sector angular centrado na direcção
NE;
o índice de rugosidade do terreno avaliado na direcção SW;
a distância média ao mar avaliada para um sector angular de 90º, centrado
na direcção SW;
a distância média ao mar avaliada para um sector angular de 90º, centrado
na direcção NE.
Os parâmetros geográficos e topográficos mencionados foram obtidos com uma
resolução espacial de 1x1 km e permitiram explicar cerca de 43% da variabilidade
de 1000/RMED. O modelo variográfico utilizado para 1000/RMED e para os
60
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
resíduos desta variável, após subtracção da componente explicada pelas quatro
variáveis auxiliares, era uma função exponencial. Os variogramas teóricos
apresentavam amplitudes de 156 km para 1000/RMED e de 48 km para os
resíduos de 1000/RMED. A comparação dos dois modelos de interpolação foi
desenvolvida através da inspecção visual dos mapas de RMED e através da
análise de parâmetros de avaliação. Embora os resultados dos parâmetros de
avaliação fossem ligeiramente mais favoráveis à krigagem ordinária, a inspecção
visual dos mapas conduziu à selecção do método da krigagem dos resíduos,
porque a cartografia correspondente era mais detalhada e realista.
3.3.5
Estimação de Precipitações com Durações Inferiores à Diária
Apresentam-se de seguida algumas investigações que merecem referência no
âmbito da estimação de precipitações com durações inferiores ao dia.
Num estudo destinado à estimação do volume precipitado num ponto, relativo a um
evento chuvoso de curta duração ocorrido numa área montanhosa, Creutin e
Obled (1982) comparam os resultados produzidos por diversos métodos de
interpolação. As técnicas testadas incluíram os polígonos de Thiessen, a média
aritmética, Splines, interpolação óptima, krigagem universal e funções ortogonais.
Este último método de interpolação é também conhecido por análise harmónica
generalizada de processos estocásticos. Apresenta alguma similaridade com a
análise em componentes principais, na medida em que o processo aleatório é
expandido numa combinação linear de funções de amplitude (harmónicas), das
quais apenas são extraídas as que incluem a maior parte da variância do
processo. A estimação baseada em funções ortogonais fundamenta-se na
correlação existente entre as observações. Dado serem escassos os estudos que
empregam esta técnica, optou-se pela sua não apresentação no capítulo 3.1,
sugere-se no entanto ao leitor mais interessado a consulta de Creutin e Obled
(1982, pág. 416) ou de Diawara (1983, pág. 36).
Os seis métodos acima referidos foram testados na estimação pontual de dois
intervalos de integração da precipitação: chuvadas com duração igual ou inferior a
seis horas e chuvadas com duração variável entre os dois e cinco dias. Estas
chuvadas foram estudadas para 81 eventos pluviosos que decorreram no Outono,
entre 1956 e 1976, e que apresentavam no mínimo uma acumulação pontual
superior a 50 mm. O estudo foi aplicado a uma área situada na parte sudeste do
61
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
maciço central francês, que apresentava uma densidade de 4.5 postos de
precipitação por 1000 km2. As precipitações analisadas não evidenciavam
correlações significativas com a altitude (não excediam |0.4|). Uma vez que a
correlação espacial entre observações decrescia muito lentamente com a distância
devido à grande variabilidade do fenómeno, os autores optaram por analisar a
correlação espacial dos desvios resultantes da subtracção da média climatológica
aos valores observados. A média climatológica das observações foi obtida através
da ponderação da precipitação observada pela respectiva duração. Ao
correlograma empírico dos desvios referidos, foi ajustado um modelo exponencial.
Para o variograma da precipitação foi seleccionado um modelo esférico, tendo a
deriva sido modelada por uma função polinomial.
A partir de 26 postos adicionais, cuja informação não tinha sido utilizada na
estimação,
os
autores
procederam
à
comparação
dos
resultados
das
interpolações, através da correlação entre valores observados e estimados
expressa sob curvas de eficiência e através de uma análise de correspondências.
Na opinião dos autores, nenhuma das técnicas ensaiadas conseguiu reproduzir
com rigor a precipitação analisada. As funções ortogonais, a interpolação óptima e
a krigagem universal foram destacadas devido à maior fidelidade das estimativas
produzidas. De entre estas três técnicas, a interpolação óptima é a aconselhada
para estudos similares, uma vez que a Organização Meteorológica Mundial (WMO)
já havia recomendado a adopção deste método em 1970.
Posteriormente, numa análise aplicada a quatro bacias hidrográficas situadas nos
Alpes Italianos, Borga, Fattorelli e Valentini (1994) compararam os Polígonos de
Thiessen com a Krigagem ordinária e a Krigagem desenvolvida com base num
modelo polinomial de co-variância generalizada para a deriva, na interpolação de
valores de precipitação. A Krigagem baseada na co-variância generalizada é
particularmente ajustada para modelar fenómenos não estacionários. Na sua
aplicação, assume-se que o valor médio do fenómeno (a deriva) pode ser descrito
por um polinómio de ordem k construído a partir das coordenadas geográficas das
observações. Impondo algumas restrições sobre os ponderadores da krigagem e
postulando a existência de uma nova estatística designada co-variância
generalizada, procede-se à eliminação da deriva do algoritmo da krigagem (Chua e
Bras, 1982). Para uma informação mais detalhada sobre este método aconselhase a leitura de Kitanidis (1983, 1993).
62
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
O objectivo da investigação levada a cabo por Borga e seus colaboradores foi o de
estimar valores de precipitação horária para a sua posterior utilização na previsão
de cheias. Os quantitativos horários foram obtidos através da análise de seis
tempestades. As estimativas obtidas pela aplicação das três técnicas referidas
foram confrontadas com valores reais e comparadas entre si face a um número
decrescente de pontos de amostragem utilizados para o seu cálculo. Os autores
verificaram que quanto maior era a densidade de amostragem, maior era a
precisão das estimativas obtidas. Para o caso de bacias hidrográficas com área
inferior a 400 km2, constataram ser necessário recorrer a informação de maior
número de postos de medição da precipitação do que nas bacias hidrográficas de
maior superfície. Os resultados produzidos pelas técnicas de interpolação
utilizadas foram muito semelhantes. A aplicação da Krigagem foi contudo posta em
causa, devido ao escasso número de observações utilizadas na interpolação. O
recurso à co-variância generalizada para identificação da estrutura do processo
chuvada horária permitiu o reconhecimento de que não se verificaram condições
de estacionariedade em dois dos seis eventos chuvosos estudados.
Uma via alternativa de estimação de precipitações com durações inferiores à diária
baseia-se na informação recolhida a partir de radares meteorológicos. Os radares
meteorológicos são sensores activos posicionados na superfície terrestre. Estes
não medem directamente a precipitação, mas a reflectividade. Esta pode ser
convertida em precipitação através de expressões que relacionam a reflectividade
com a precipitação medida nos postos. Estas expressões integram parâmetros que
são função da dimensão das gotículas de chuva. Os parâmetros são obtidos por
calibração. Muitos autores advogam que as expressões que relacionam a
reflectividade com a precipitação medida nos postos podem conduzir a erros
elevados. Por isso, estas expressões devem ser individualmente calibradas para
os diversos tipos de precipitação (ciclónica, orográfica e convectiva).
Nos últimos vinte anos, um grande número de investigadores apresentou
aplicações ao problema de estimação da precipitação por recurso à informação de
radar (Hill et al., 1981; Krajewski, 1987; Creutin et al., 1988; Azimi-Zonooz et al.,
1989; Seo et al., 1990, 1991; Cassiraga et al.,1996; Raspa et al.; 1997).
Dado que a informação de radar não foi utilizada no presente estudo, descreve-se
a título de exemplo uma das aplicações desenvolvida por Cassiraga e GómezHernández (1996). A investigação conduzida por estes autores foi aplicada à
63
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
região de Cévennes (França) e o estudo reportou-se à precipitação ocorrida
durante uma chuvada de cinco horas. A informação de radar era integrada por
hora e apresentava uma resolução espacial de 1x1 km. Esta informação foi
relacionada com a precipitação horária avaliada em 39 postos. Neste estudo não
se procedeu apenas à modelação espacial do fenómeno, mas também à
modelação temporal. A variável tempo foi incluída como uma terceira coordenada
nos algoritmos de estimação (interpolação tridimensional). As técnicas de
interpolação testadas foram a krigagem ordinária, a cokrigagem ordinária, a
cokrigagem co-localizada e a krigagem com deriva externa. As três últimas
técnicas socorreram-se da informação de radar como variável auxiliar. Todos os
métodos referidos foram testados com a integração da correlação temporal e sem
a inclusão da correlação temporal. A análise da correlação temporal foi
desenvolvida a partir da informação de radar, uma vez que a informação dos
postos era insuficiente. A análise da variabilidade espacial incidiu sobre as duas
fontes de dados. Os autores concluíram que a integração da correlação temporal
não possibilitou melhores resultados porque a correlação espacial entre os dados
dos postos e a informação de radar era muito alta (0.8) e exercia um “efeito de
cortina” sobre a correlação temporal. Concluíram também que as técnicas de
krigagem que utilizaram a informação de radar como variável auxiliar tiveram
melhor desempenho do que a krigagem ordinária. A krigagem utilizando a
informação de radar como deriva externa é o método de interpolação
recomendado para estudos similares devido aos bons resultados fornecidos e à
sua facilidade e rapidez de aplicação.
Em suma, no que se refere à estimação de diferentes intervalos de totalização da
precipitação, verifica-se que os métodos de interpolação do âmbito da
geoestatística que se apoiam em variáveis secundárias para melhorar a estimação
da variável de interesse ou que assumem a existência de uma tendência explicável
por variáveis externas, são as técnicas mais frequentemente reportadas na
literatura como as mais recomendadas para a interpolação espacial de
precipitação.
3.3.6
Influência da Densidade de Amostragem e da Resolução Espacial na
Estimação da Precipitação
O desempenho das diversas técnicas de interpolação depende não só da
64
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
densidade de amostragem da precipitação como também do nível de detalhe das
variáveis auxiliares utilizadas na estimação da precipitação. Segundo Dirks e
alguns colaboradores (Dirks et al., 1998), à medida que a densidade de
amostragem aumenta, as técnicas do âmbito da geoestatística apresentam
desempenhos similares a técnicas mais simples, como a do inverso da distância.
Na interpolação de quantitativos para vários intervalos de totalização da
precipitação (hora, dia, mês, ano), para uma ilha situada entre a Nova Caledónia e
a Nova Zelândia (Norfolk), os autores utilizaram uma resolução espacial de
187x187 metros e densidades de amostragem de precipitação variáveis entre os
230 e os 370 postos por 1000 km2. Para este contexto, a equipa de Dirks verificou
que o método do inverso da distância era o mais ajustado à estimação da
precipitação.
Borga e Vizzaccaro (1997) também chegaram a conclusões semelhantes ao
comparar, para diversas densidades de amostragem, os resultados da estimação
por Krigagem com os da interpolação multi-quádrica. Num estudo desenvolvido
sobre uma região do Norte de Itália, os autores analisaram estimativas de
precipitação horária produzidas a partir das duas técnicas referidas, com base em
oito densidades de amostragem da precipitação. Concluíram que, para densidades
superiores a 22 postos por 1000 km2, a Krigagem baseada num modelo
variográfico linear produz estimativas similares às resultantes do ajustamento de
uma superfície multi-quádrica.
No que diz respeito à resolução espacial mais adequada à interpolação e
mapeamento da precipitação, a equipa responsável pelo desenvolvimento do
modelo PRISM (Daly et al., 1994) defende que se trata de uma função que
depende mais da densidade de amostragem do que da escala de análise dos
efeitos orográficos. Relativamente a esta última, aqueles autores referem que os
efeitos orográficos apreciados a resoluções espaciais de maior detalhe estão mais
relacionados com curtos períodos de integração da precipitação, do que com
médias associadas a escalas de maior amplitude temporal. Face ao exposto,
recomendam que em análises da precipitação de âmbito regional se adopte
resoluções espaciais variáveis entre 1 e 10 km. Solomon (Solomon et al., 1968) já
havia afirmado que a gama de resoluções espaciais mais ajustada à resolução da
maioria dos problemas hidrológicos varia entre 0.8 e 8 km. Salvo raras excepções,
a maioria das abordagens descritas na literatura não relaciona a densidade de
65
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
amostragem com a resolução espacial adoptada. O quadro que se segue
sistematiza algumas das resoluções espaciais e densidades de amostragem
utilizadas na modelação da precipitação.
Quadro 3.2 – Exemplos de resoluções espaciais e densidades de amostragem
utilizadas na modelação da precipitação
Intervalo de
totalização da
precipitação
Resolução
Espacial
Adoptada
(km x km)
Densidade de
Amostragem da
Precipitação
(nº postos / 1000
2
km )
ano
10 x 10
0.3
ano
10 x 10
0.2
Pennsylvania
(EUA)
evento
chuvoso com
duração > 24
horas
0.125 x 0.125
54.6
Nevada (EUA)
ano
3x3
9.5
Oregon (EUA)
ano
6x9
1.8
Oregon (EUA)
ano; mês
6x9
1.4
ano
1.85 x 1.85
66.7
dia
1x1
0.6
Ilha de Norfolk
ano; mês; dia;
hora
0.187 x 0.187
230 a 370
Algarve
(Portugal)
ano; mês
1x1
7.2
Autor
(ano)
Região
Solomon et al.
(1968)
Pentland et al.
(1971)
Terra Nova
(Canadá)
New Brunswick
(Canadá)
White
(1988)
Hevesi et al.
(1992)
Phillips et al.
(1992)
Daly et al.
(1994)
Rodrigues
(1995)
Running et al.
(1996)
Dirks et al.
(1998)
Goovaerts
(1999)
3.3.7
Ilha de S. Miguel
(Açores)
Montana
(EUA)
Estimação da Precipitação Média Afecta a uma Área Geográfica
Se a precipitação ocorrida sobre uma zona geográfica se acumulasse sobre a sua
área de queda, gerar-se-ia uma superfície de precipitação. A determinação da
altura média da superfície de precipitação é facilitada pela subdivisão da área
geográfica de interesse num malha composta por células de dimensão regular.
Nestas circunstâncias, a altura da superfície de precipitação (r) pode ser expressa
como uma função das coordenadas do centro de cada célula r(x,y) e o cálculo da
altura média da superfície de precipitação ocorrida ( R ) obriga à resolução da
expressão que se segue:
66
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
R=
A
r(x, y)dxdy
Equação 3.25
dxdy
A
Em que:
R - altura média da superfície de precipitação ocorrida sobre a
zona geográfica de interesse
A - área da zona geográfica de interesse
r(x,y)- altura da superfície de precipitação expressa como uma
função das coordenadas geográficas
Na realidade, a função r(x,y) é sempre desconhecida, e efectua-se uma
aproximação daquela função através das observações pontuais de precipitação
disponíveis (r1, r2, .., rn) para as localizações dos postos (x1,y1; x2,y2; ...; xn,yn).
O método mais simples para ponderar a precipitação sobre uma região consiste na
determinação da média aritmética a partir dos registos pluviométricos disponíveis
para a região. No entanto, este método só deve ser aplicado se a distribuição
espacial dos postos for uniforme e as medições individuais de cada posto não
diferirem substancialmente da média calculada.
A maior parte dos métodos que têm em vista o cálculo de um valor médio de
precipitação para uma região, socorre-se de médias ponderadas. Os factores de
ponderação das observações de precipitação podem ser diversos.
Em 1911, Thiessen demonstrou alguns dos erros que podem ser cometidos ao
estimar a precipitação de uma dada área geográfica a partir da média aritmética
das observações disponíveis para essa área. O autor propôs a adopção de uma
média ponderada através da área de influência de cada posto, em substituição da
média aritmética tradicional. Diskin (1970) viria a automatizar o cálculo dos factores
de ponderação propostos por Thiessen, a partir do conhecimento das coordenadas
geográficas dos postos.
O método das isoietas também possibilita o cálculo da precipitação associada uma
região. Este método visa o traçado de isolinhas, sobre uma região, ligando postos
udométricos com registos equivalentes e interpolando valores de precipitação entre
postos adjacentes. A interpolação é baseada no pressuposto de que a variação da
precipitação entre postos é uniforme. Alternativamente, a interpolação pode ser
baseada na relação média entre a altitude e a precipitação da região em estudo.
67
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Após determinação das superfícies circundadas por uma só isoieta e das
superfícies contidas entre pares de isoietas, procede-se ao cálculo da precipitação
média associada a cada uma das superfícies avaliadas. A precipitação estimada
para uma dada área contida entre duas isoietas consecutivas corresponde à média
aritmética das precipitações associadas às duas isoietas que delimitam a área em
apreciação. A precipitação média para uma região poderá ser obtida através de
uma expressão análoga à proposta por Thiessen, em que a precipitação média de
cada superfície é ponderada pela área respectiva. Uma formulação alternativa
deste método prevê a inclusão do comprimento das isoietas, de maior e menor
valor, no cálculo da precipitação média associada à região. A aplicação do método
das isoietas requer a existência de uma rede udométrica densa e um
conhecimento aprofundado da topografia do terreno.
Embora a criação de mapas de isoietas seja mais frequente para normais de
precipitação anual, a sua construção também é viável para intervalos de tempo
mais curtos. Nestes casos, a precipitação observada em cada posto deve ser
dividida pela precipitação anual média do posto, para que o mapa de isoietas
retrate os padrões da chuvada e a influência orográfica correspondente. Em 1972,
Salter (referido por Shearman, e Salter, 1975) computorizou o traçado de isoietas.
Num trabalho datado de 1962, Peck e Brown descrevem como construíram mapas
de isoietas com base no estudo das relações entre a precipitação e a altitude para
o estado de Utah (EUA). A análise incidiu sobre normais de precipitação relativas a
dois períodos do ano (Outubro a Abril e Maio a Setembro) e contemplou
observações de aproximadamente 300 postos, desde 1921 até 1950. Com vista à
definição das isoietas, o estado de Utah foi subdividido em 20 regiões que
evidenciaram, nas duas estações do ano, boas correlações entre a precipitação e
a altitude. Estas relações foram simultaneamente analisadas por agrupamentos de
regiões (com relações similares) e por postos. O traçado de isoietas foi efectuado
sobre uma quadrícula (representativa do estado de Utah) com base nas relações
identificadas entre a precipitação e a altitude, bem como nos desvios observados.
Segundo os autores, o mapeamento de anomalias reduz substancialmente o
tempo necessário ao traçado das isoietas e possibilita identificar localizações para
novos postos de medição.
O método dos dois eixos (Bethlahmy, 1976) constitui uma abordagem alternativa
para o cálculo da precipitação média associada a uma área geográfica. Bethlahmy
68
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
propõe o traçado de dois eixos perpendiculares entre si, de modo a identificar a
maior e a menor amplitude da área geográfica. No cálculo da média regional, a
ponderação de cada observação de precipitação dependerá da localização do
respectivo posto relativamente aos dois eixos traçados. Deste modo é atribuído
maior peso às observações situadas na zona central da área geográfica de
interesse.
O método dos polígonos modificados (Pande & Al-Mashidani, 1978) é similar ao
dos polígonos de Thiessen, mas difere deste no traçado das áreas de influência de
cada posto de precipitação. O traçado das áreas de influência de cada posto
depende da existência ou não de um posto central. Caso não exista nenhum posto
localizado no centro, deve-se identificar primeiro qual a posição central da área de
estudo. O peso atribuído a cada observação depende da configuração espacial da
área de interesse. As observações localizadas no centro da área de interesse
recebem maior peso do que as situadas na periferia. Os polígonos obtidos de
acordo com este método podem ser côncavos, o que facilita o ajuste das áreas de
influência dos postos aos aspectos orográficos do terreno.
Outras metodologias que possibilitam o cálculo da precipitação média ocorrida
sobre uma região obrigam à partição do domínio espacial em sub-regiões, de
acordo com um ou mais critérios. Um exemplo do exposto é a técnica que visa a
obtenção de uma média ponderada em função da área de sub-regiões definidas
com base em patamares altimétricos e na orientação das vertentes.
Outra técnica alternativa consiste no cálculo de uma média ponderada em função
das superfícies dos polígonos definidos em torno de cada posto, apenas com base
em critérios altimétricos.
Uma técnica que também se enquadra nesta categoria propõe a partição do
domínio espacial em triângulos e a atribuição de pesos às observações que são
função das áreas dos triângulos.
O método de Myers (referenciado em Singh, 1989) tem igualmente em vista a
obtenção de uma média regional em que as observações são ponderadas pela
altitude e pela sua distância à posição central (centroide) da zona geográfica de
interesse.
As técnicas de interpolação sistematizadas no ponto 3.1 também possibilitam, na
sua maioria, o cálculo de uma estimativa da precipitação média associada a uma
região. Tendo em consideração a função ajustada às observações de precipitação
69
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
f(x,y), o volume precipitado sobre uma área poderá ser obtido por integração dessa
função relativamente à área da zona geográfica de interesse. De um modo similar,
a precipitação média associada à zona geográfica de interesse será fornecida por:
R=
Equação 3.26
f(x, y)ds
s
ds
s
Em que:
R - é a altura média da superfície de precipitação ocorrida sobre
a zona geográfica de interesse
f(x,y) – é a função (superfície) ajustada às observações de
precipitação
s – corresponde à área da zona geográfica de interesse
f(x, y)ds - representa o volume precipitado sobre a zona
s
geográfica
Se as técnicas de interpolação forem aplicadas com subdivisão da área de
interesse em células de geometria regular, a determinação do volume precipitado
sobre uma zona geográfica fica facilitada.
O método dos elementos finitos foi utilizado por Akin (1971) no cálculo da
precipitação
média
regional.
Na
aplicação
desta
técnica,
o
autor
une
arbitrariamente as n observações de precipitação, existentes dentro e em torno da
área geográfica de interesse, através de segmentos de recta de modo a formar m
sub-regiões de geometria triangular. Dentro de cada sub-região, assume que a
precipitação varia linearmente com as três observações associadas aos vértices do
triângulo. Após definição dos triângulos, a superfície de interpolação é análoga à
fornecida pela Equação 3.9.
A análise de variância adoptada por Clarke e Edwards (1972) constitui uma
abordagem similar à interpolação polinomial ajustada por mínimos quadrados.
Para um polinómio do primeiro grau, a variância residual é igual ao somatório dos
quadrados dos resíduos dividido pelo número de graus de liberdade dos resíduos.
A maior diferença entre a interpolação polinomial ajustada por mínimos quadrados
e a abordagem seguida por aqueles autores reside no cálculo da variância residual
e na sua avaliação como uma medida de precisão da estimativa da precipitação
média regional calculada.
70
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Edwards (1972) comparou a interpolação polinomial com as séries de Fourier, na
obtenção de estimativas médias regionais de precipitação anual e mensal para
duas zonas da Escócia. Na utilização das séries de Fourier, a superfície de
precipitação foi aproximada por duas harmónicas. A interpolação polinomial
ajustada por mínimos quadrados foi desenvolvida por recurso a polinómios
ortogonais devido à ocorrência de problemas numéricos. Alguns dos polinómios
testados eram tri-variados dado que incluíam a altimetria, a par das coordenadas
geográficas
já
tradicionalmente
incluídas
nos
polinómios bi-variados.
Os
polinómios tri-variados de grau dois, foram os mais eficientes na determinação da
precipitação média anual ponderada sobre a área de interesse. A inclusão da
altimetria nos polinómios permitiu, segundo o autor, diminuir a magnitude da
variância residual. A aplicação das séries de Fourier só é aconselhada se a área
for coberta por um número elevado de postos.
Também em 1972, Shaw e Lynn testaram o ajustamento de Splines bi-cúbicas e
de uma superfície multi-quádrica na estimação da precipitação média associada a
uma região. Os períodos de precipitação analisados incluíram dados anuais,
mensais, diários e chuvadas de duração inferior ao dia. Embora os resultados da
aplicação das Splines tenham sido considerados muito satisfatórios, o facto desta
técnica apenas poder ser aplicada em formato matricial levou os autores a concluir
que a interpolação multi-quádrica era preferível. A interpolação multi-quádrica só
foi no entanto recomendada para redes de dimensão fixa.
As técnicas do âmbito da geoestatística também possibilitam o cálculo de uma
estimativa do valor médio de um determinado fenómeno ponderado sobre uma
dada região e/ou para um dado período de tempo. A técnica de interpolação
óptima tem sido aplicada em diversos estudos entre os quais se destacam os
trabalhos pioneiros de Gandin (1965) e de Matheron (1965). Matheron pesquisou
qual a melhor combinação linear de estimadores não enviesados para obtenção de
uma média regional de um processo estocástico. Gandin procurou estimar a
precisão (em termos de erro quadrático médio) associada à ponderação de um
campo meteorológico sobre uma região. A integração das componentes espaço e
tempo na ponderação de um fenómeno observado pontualmente, constituíram
matéria de estudo de Bras e Rodríguez-Iturbe (1976a, 1976b) e de Lenton e
Rodriguez-Iturbe (1977).
Chua e Bras (1982) utilizaram duas técnicas da família da krigagem para estimar a
71
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
precipitação associada a nove chuvadas e proceder à respectiva ponderação
sobre uma região montanhosa do Colorado. Partindo do pressuposto que na área
de estudo não se podia assumir que o valor médio do fenómeno em análise era
estacionário, os métodos testados foram a Krigagem desenvolvida sobre os
resíduos resultantes da regressão linear entre a precipitação e a altitude e a
Krigagem baseada na co-variância generalizada. Enquanto que no primeiro
método se considera que a média do fenómeno (a deriva ou tendência) pode ser
descrita por uma relação linear entre a precipitação e a altitude, no segundo
método assume-se a existência de uma deriva polinomial de ordem k. O grau do
polinómio determina se o fenómeno é ou não estacionário. Os nove eventos
pluviosos analisados reportavam-se aos meses de Outubro a Dezembro do
período 1970-1973 e apresentavam todos uma duração superior a um dia. A
densidade de amostragem da precipitação variou entre os 4.8 e os 6.6 postos por
1000 km2. Após aplicação do procedimento de validação cruzada na estimação
dos valores pontuais, os autores concluíram que a krigagem desenvolvida sobre os
resíduos (após remoção do efeito orográfico) apresentou melhor desempenho do a
krigagem baseada na co-variância generalizada. Assumindo que os erros de
estimação eram normalmente distribuídos, a krigagem baseada na co-variância
generalizada foi, no entanto, o método que possibilitou representar com mais
fidelidade a variância dos erros de estimação.
Num estudo idêntico ao de Chua e Bras (1982), uma equipa de investigação
distinta (Dingman et al., 1988) avaliou o desempenho das mesmas técnicas de
interpolação na estimação da precipitação média anual de New Hampsire e
Vermont (EUA). A precipitação reportava-se ao período de 1951 a 1980,
correspondendo a uma densidade de amostragem de 1.5 postos por 1000 km2. A
correlação identificada entre a precipitação e a altitude foi de 0.7. Os modelos
variográficos ajustados à precipitação anual e aos resíduos da precipitação anual
foram respectivamente, uma função exponencial com uma amplitude de 110 km e
uma função esférica com uma amplitude de 104 km. Os autores deste estudo
concluíram que, à excepção das estimativas pontuais obtidas para grandes
altitudes, a estimativas da precipitação anual obtidas através da krigagem dos
resíduos estavam associadas a uma menor incerteza.
Singh e Chowdhury (1986) efectuaram uma análise comparativa de 13 métodos na
obtenção de uma estimativa da precipitação média associada a uma região. Os
72
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
métodos foram avaliados face às estimativas produzidas para as precipitações
médias diária, mensal e anual. O estudo foi desenvolvido sobre duas zonas do
Novo México e uma terceira zona em Inglaterra. Os métodos analisados foram os
seguintes:
média aritmética simples
polígonos de Thiessen
método das isoietas
método dos dois eixos
método dos polígonos modificados
média ponderada em função da área de sub-regiões definidas com base em
patamares altimétricos e na orientação das vertentes
média ponderada em função da área de sub-regiões definidas com base na
altitude
média ponderada em função da área de sub-regiões triangulares
média ponderada pela distância das observações à posição central
(centroide) da zona geográfica de interesse e pela altitude
interpolação polinomial ajustada por mínimos quadrados (polinómios de
grau um, dois e três)
interpolação em função do inverso da distância quadrática
elementos finitos
análise de variância.
Os autores constataram que as diferenças entre os resultados obtidos foram tanto
mais significativas quanto mais desagregado era o período de observação
utilizado. Assim, as estimativas de precipitação média anual e mensal fornecidas
pelos 13 métodos foram similares e as variações entre estimativas não
ultrapassaram os 10%. A maior variabilidade das estimativas de precipitação
média diária sugeriu que os 13 métodos pudessem ser agrupados em algumas
categorias, sendo os resultados de cada categoria comparáveis entre si. Singh e
Chowdhury destacaram os métodos média aritmética simples e interpolação
polinomial linear pela sua simplicidade e rapidez de cálculo, enquanto que os
métodos de interpolação polinomial quadrática e cúbica foram classificados como
sendo os mais complexos, devido à morosidade dos cálculos requeridos. Os
autores ressaltaram que os resultados obtidos não permitiram identificar vantagens
na adopção destas duas últimas técnicas em detrimento das duas primeiras.
73
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
3.4 SUBDIVISÃO
DO DOMÍNIO ESPACIAL EM ÁREAS HOMOGÉNEAS COM BASE NA
PRECIPITAÇÃO E OUTROS FACTORES CLIMÁTICOS E OROGRÁFICOS
Existem duas técnicas de análise de dados que são empregues pela maioria dos
autores na identificação de áreas homogéneas do ponto de vista da precipitação e
de outros factores climáticos e orográficos: a análise em componentes principais e
a análise de clusters. Estas duas técnicas podem ser aplicadas em separado ou
sequencialmente.
A identificação de áreas homogéneas através da análise de clusters (técnica
também designada de classificação) destina-se a agrupar observações que são
descritas por um conjunto de variáveis ou atributos. Cada grupo a identificar será
composto de uma ou mais observações que apresentam características comuns
relativamente a um ou mais parâmetros. As observações pertencentes ao mesmo
grupo podem ser tratadas como equivalentes. O desenvolvimento de uma análise
de clusters pressupõe a selecção de uma medida quantificadora da semelhança,
ou da distância, entre observações e a escolha de um algoritmo que defina as
regras relativas ao modo como as observações serão agrupadas em função da
medida escolhida.
A selecção de uma medida quantificadora da semelhança, ou da distância, entre
observações, depende do tipo de variáveis que caracterizam essas observações.
Se as variáveis a utilizar na análise de clusters, são medidas numa escala de
intervalos, é possível recorrer a métricas tais como a distância Euclidiana, cuja
equação se apresenta de seguida.
ép
ù
D ij = ê å (X ik −X jk ) 2
ëk =1
1/2
Equação 3.27
Em que:
Dij- expressa a distância Euclidiana entre as observações i e j,
calculada a partir de p variáveis
Xik = valor da variável k para a observação i
Xjk = valor da variável k para a observação j.
Podem-se no entanto utilizar diversas medidas alternativas à distância Euclidiana,
nomeadamente o quadrado da distância Euclidiana ou a correlação entre variáveis.
Existem várias famílias de algoritmos vocacionados para a análise de clusters.
74
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Estes algoritmos podem ser classificados em duas grandes categorias: os métodos
hierárquicos e os métodos não hierárquicos. Nos primeiros, tal como a sua
designação sugere, é possível conhecer a hierarquia dos agrupamentos
efectuados. Os métodos não hierárquicos efectuam partições sobre o conjunto de
observações ou seleccionam observações a partir das quais iniciam a formação de
grupos. A grande diferença destes métodos relativamente aos hierárquicos é a de
permitirem que as observações transitem de um grupo para outro grupo.
Na sua essência, todos os métodos conducentes à formação de clusters visam
maximizar a variabilidade entre os grupos formados, comparativamente à
variabilidade dentro de cada grupo.
A determinação do número de grupos a constituir depende do conhecimento que
se dispõe dos dados, complementado pela análise dos resultados fornecidos.
Trata-se de um processo iterativo, porque não existe nenhum parâmetro que
indique qual o número de grupos mais adequado. Este número é dependente dos
objectivos a atingir sendo, portanto, variável caso a caso.
A utilização da análise em componentes principais antes da análise de clusters
torna mais fácil, na maioria dos casos, a identificação dos diversos grupos e das
suas posições relativas. A análise em componentes principais transforma um
conjunto inicial de variáveis num outro conjunto de variáveis, que não são mais do
que combinações lineares das variáveis originais. Nesta transformação ortogonal
garante-se que as novas variáveis - os factores ou componentes - não estão
correlacionadas. Ao efectuar este tipo de análise pretende-se normalmente uma
redução do número de variáveis finais relativamente às iniciais. Embora sejam
produzidas tantas componentes quantas as variáveis de partida, apenas são
seleccionadas algumas que, conjuntamente, traduzem a maior parte da variância
apresentada pelo grupo original de variáveis. Em consequência do exposto, a
aplicação deste método serve frequentemente o propósito de reduzir a dimensão
dos problemas. Muitas vezes, os factores são passíveis de interpretação no
contexto do problema e facilitam a compreensão dos dados.
Desde muito cedo, diversos investigadores (Spreen, 1947; Peck e Brown, 1962;
Osborn, 1984) sentiram a necessidade de subdividir o domínio espacial em áreas
homogéneas ou zonas afins para melhor modelar a variabilidade espacial da
precipitação associada a grandes extensões territoriais.
Em 1965, Steiner (citado por Guiot, 1986) desenvolveu uma análise para os EUA,
75
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
conducente à delimitação de regiões homogéneas do ponto de vista climatológico.
O estudo baseou-se em 16 parâmetros climáticos relativos a 67 postos, para os
quais foram apuradas médias com base em 30 anos de observações. Através de
uma análise em componentes principais, seguida da aplicação de um algoritmo de
classificação (análise de clusters) e de uma análise discriminante, o autor
procedeu à delimitação de 10 sub-regiões.
A análise em componentes principais tem sido aliás a técnica de análise mais
frequentemente empregue na identificação de regiões homogéneas do ponto de
vista da pluviosidade (Taboni, 1981; Fortin et al., 1982; Wigley et al., 1984;
Goossens, 1985).
Em 1982, Beaudoin e Rousselle também recorreram à análise em componentes
principais para estudar a variação espacial da precipitação diária de uma zona do
Canadá (Montreal). Os autores sugerem que a técnica aplicada pode ser adoptada
quer na racionalização de redes de medição de precipitação, quer na identificação
dos postos contributivos para a estimação de precipitação em qualquer ponto de
uma região. Partindo de dados referente a 19 postos com 25 anos de observações
diárias, desenvolveram análises independentes para a Primavera, Verão, Outono e
Inverno. Para cada estação do ano, após selecção dos dias com registo de
precipitação superior a 0.25 mm, procederam ao cálculo dos coeficientes de
correlação entre postos. O estudo das correlações possibilitou concluir que a
magnitude da correlação depende da distância e azimute entre os postos, do tipo e
intensidade da precipitação, das características topográficas e do mês do ano. A
análise em componentes principais foi desenvolvida separadamente para as quatro
estações do ano, a partir das correlações entre postos. Após identificação do
número de componentes (ou factores) necessárias à explicação de 80% da
variabilidade das 19 variáveis originais (19 séries de precipitação), os autores
optaram por seleccionar as seis primeiras componentes em cada estação do ano.
A identificação de grupos homogéneos de postos (para cada estação do ano)
tornou-se viável após mapeamento de isolinhas dos seis factores anteriormente
seleccionados. O traçado das isolinhas associadas aos coeficientes de ponderação
dos factores (factor loadings) iguais a 0.5 possibilitou delimitar áreas geográficas
distintas. Este procedimento foi desenvolvido para os seis factores associados a
cada uma das quatro estações do ano. À excepção de um caso anómalo
identificado para o Inverno, em que não foi possível traçar a isolinha de peso igual
76
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
a 0.5 correspondente ao sexto factor, todas as restantes isolinhas delimitavam
áreas homogéneas cuja configuração era aproximadamente semelhante nas 4
estações do ano. No Verão, a proporção de variância explicada pelos seis factores
foi contudo inferior às restantes estações do ano, devido à existência de
fenómenos convectivos mais localizados que determinam uma maior variabilidade
do fenómeno. Os autores repetiram as análises acima explanadas, para registos
de precipitação diária igual ou superior a 1.27 mm e para registos de precipitação
diária inferiores a 1.27 mm. As conclusões apresentadas são válidas para os três
subconjuntos estudados.
Em 1983, Diawara apresenta um zonamento hidro-meteorológico desenvolvido
com base em funções ortogonais empíricas, que foi aplicado ao Mali. Neste
estudo, para além da altitude, latitude e longitude dos 97 postos, Diawara utilizou
seis parâmetros climáticos (médias mensais de precipitação, temperatura,
insolação, evaporação, humidade relativa e velocidade do vento). Após
transformação das séries temporais climáticas em funções de amplitude, o autor
seleccionou as três primeiras, que conjuntamente explicavam cerca de 95% da
variância das seis variáveis climáticas. Em seguida, os pesos das funções de
amplitude, relativos a cada variável climática, foram relacionados com a altitude, a
latitude e a longitude através de regressões lineares múltiplas. Deste modo foram
identificadas relações que, com base na altitude, latitude e longitude de uma
posição do domínio, possibilitam estimar os pesos relativos a cada uma das seis
variáveis climáticas nas principais funções de amplitude e, consequentemente, as
séries associadas a cada localização. Diawara também verificou que os pesos
atribuídos a cada posto nas duas primeiras funções de amplitude permitiam
agrupar postos com afinidades. Uma vez que os pesos estavam relacionados com
a altitude, a latitude e a longitude, os agrupamentos possibilitavam demarcar
regiões no terreno. Deste modo, com base na análise dos pesos atribuídos a cada
posto, o domínio espacial foi subdivido em sete zonas afins. Para cada uma destas
zonas, o autor estimou as séries climáticas associadas a determinados postos,
recorrendo ao procedimento de validação cruzada. A análise dos desvios obtidos
face aos valores reais permitiu concluir que a interpolação desenvolvida através
das funções ortogonais empíricas possibilita estimar melhor séries que não se
desviem dos valores médios representativos da área de estudo, do que séries que
expressem valores extremos. Face ao exposto, compreende-se que a metodologia
77
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
proposta por Diawara constitui simultaneamente um método de interpolação e um
método de classificação.
Em 1985, Goossens publica um trabalho que descreve a metodologia adoptada na
identificação de regiões homogéneas do ponto de vista da pluviosidade anual. O
estudo foi aplicado à Europa do Sul, contemplando oito países que, parcialmente
ou no seu todo, sofrem influência do Mediterrâneo. Portugal Continental foi uma
das áreas abrangidas. Para delimitação das regiões homogéneas, Goossens
utilizou a análise em componentes principais, seguida de uma classificação
hierárquica (desenvolvida através do algoritmo de Ward). Com base em 31 anos
de registos de precipitação anual relativos a 90 estações climáticas, o autor
identificou cinco regiões homogéneas. Através da classificação obtida, o território
Continental foi subdividido em duas regiões: uma que abrange a bacia do Tejo e
todas as bacias hidrográficas situadas a norte desta e outra região que inclui,
grosso modo, as bacias hidrográficas situadas a sul do Tejo. Segundo Goossens a
primeira região sofre influência de um clima diferenciado, característico dos países
da Europa Ocidental. A grande maioria dos locais de monitorização incluídos nesta
região apresenta uma precipitação anual superior a 700 mm. A segunda região
abarca as estações climáticas onde a pluviosidade só tem significado durante a
metade do ano que inclui o período invernal. Nesta segunda região, os
quantitativos de precipitação registados durante o Verão são muito reduzidos.
Num trabalho aplicado a uma zona do sudeste de França, Guiot (1986) testou três
abordagens metodológicas distintas na delimitação de sub-regiões climáticas. A
informação de base utilizada abarcou 42 séries mensais de precipitação e de
temperatura, compostas de 30 anos de observações.
A primeira abordagem testada na delimitação de regiões baseou-se apenas nos
dados mensais de precipitação e consistiu na aplicação de uma análise em
componentes principais, seguida de uma análise de clusters desenvolvida sobre as
três primeiras componentes através de um algoritmo hierárquico.
A segunda abordagem conducente à identificação de sub-regiões consistiu no
desenvolvimento de uma análise espectral sobre as 12 séries mais longas de
precipitação mensal, seguida de uma análise em componentes principais
desenvolvida sobre a co-variância dos espectros.
A terceira abordagem baseou-se numa análise cronológica que envolveu a
modelação temporal de informação mensal e anual de precipitação e de
78
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
temperatura, seguida de uma análise em componentes principais.
Através da confrontação dos resultados disponibilizados pelas três abordagens
descritas, o autor procedeu à divisão do domínio espacial em quatro sub-regiões.
O modelo PRISM (Daly et al., 1994), apresentado no ponto 3.3.3, constitui outro
exemplo de modelação da precipitação por recurso a zonas afins. Os seus autores
utilizaram a exposição (orientação das vertentes) na definição de regiões
homogéneas contíguas. Para o cálculo de cada estimativa de precipitação só são
utilizadas observações vizinhas que se enquadrem numa região de exposição
idêntica à da posição geográfica para a qual se pretende obter a estimativa.
O zonamento do território Continental com base em aspectos climáticos tem sido
uma área de investigação privilegiada por alguns estudiosos nacionais (Barros
Gomes, 1878; Meneses Pimentel, 1914; Pina Manique e Albuquerque, 1957;
Daveau et al., 1977; Alcoforado et al., 1993).
Em 1947, Pina Manique e Albuquerque sugere a subdivisão do Continente em
regiões pluviométricas definidas com base no diferencial entre a pluviosidade anual
e altitude de cada posto. Segundo o autor, esta diferença expressa a precipitação
após remoção do efeito orográfico. Cada sector pluviométrico definido pelo autor
corresponde a uma faixa do território em que pluviosidade em decímetros, à
mesma altitude, é aproximadamente constante. A zonagem baseou-se no
pressuposto de que se verifica “uma variação hipso-udométrica de 100 milímetros
por 100 metros nos valores normais”. A metodologia foi aplicada por Pina Manique
e Albuquerque para a parte do Continente situada a sul do paralelo de Lisboa e
para o período de referência de 1932-1953, dando origem a oito sectores
pluviométricos.
Num estudo publicado em 1977, Daveau e alguns colaboradores (pág. 166)
propõem a subdivisão do Continente em quatro regiões pluviométricas:
a
região
Noroeste.
Trata-se
de
uma
zona
montanhosa
exposta
perpendicularmente aos ventos dominantes. Estende-se ao longo da costa,
desde o Minho até à bacia do Mondego, sendo delimitada a este pelas
cadeias montanhosas que separam o Minho de Trás-os-Montes. É das
quatro regiões, a que recebe maiores quantitativos de precipitação.
a região Nordeste. Trata-se de uma área abrigada que inclui Trás-os-
Montes e parte da Beira Alta. Esta região apresenta reduzidas frequências
relativas para todos os intervalos de totalização da precipitação.
79
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
a região Centro. Esta região inclui grande parte da Estremadura e parte da
Beira Alta. Abrangendo o Mondego, confina com a bacia do Douro a NE e
com a bacia do Tejo a sul. Trata-se de uma região onde o número de dias
com chuva no ano é elevado, mas os quantitativos registados são inferiores
aos da região Noroeste.
a região Sul, que inclui o Ribatejo, o Alentejo e o Algarve, sendo delimitada
a norte pela bacia do Tejo. Esta região é caracterizada por precipitação
pouco abundante e uma média de quatro meses de secura estival (Daveau
et al., 1977, pág. 168).
No que diz respeito à delimitação de regiões bioclimáticas para Portugal
Continental, merece destaque o trabalho desenvolvido em 1982 (e reeditado em
1993) por uma equipa de investigadores do Centro de Estudos Geográficos da
Faculdade de Letras de Lisboa (Alcoforado et al., 1993). Neste trabalho, os autores
identificaram cinco regiões bioclimáticas a partir da análise da variabilidade
espacial de dois índices climáticos: o Índice Xerotérmico de Gaussen e o
Quociente Bioclimático de Emberger. O primeiro índice é calculado a partir de
informação diária de precipitação, temperatura, nevoeiro e humidade relativa, que
é posteriormente totalizada em termos mensais. As variáveis necessárias ao
cálculo do segundo índice são a temperatura mínima média do mês mais frio, a
temperatura máxima média do mês mais quente e a precipitação total anual. Tal
como referido pelos autores deste estudo “os dois índices não comparam
exactamente as mesmas características climáticas: o de Gaussen estuda o
comportamento dos meses do ano, ao passo que o de Emberger tem em conta as
características pluviométricas e térmicas do conjunto do ano”. Os dados utilizados
reportavam-se ao período 1960-1971 e abrangiam 101 estações climatológicas do
Continente. As cinco regiões bioclimáticas foram identificadas por aplicação de um
algoritmo de classificação aglomerativo (algoritmo de clustering hierárquico) sobre
a matriz das correlações observadas entre os índices normalizados.
Da revisão da literatura efectuada no âmbito do presente sub-capítulo ressalta que
a necessidade de subdividir o domínio espacial decorre da falta de homogeneidade
evidenciada pelos fenómenos estudados.
3.5 AVALIAÇÃO DOS EFEITOS DA VARIAÇÃO DA RESOLUÇÃO ESPACIAL / ESCALA
Segundo a definição apresentada por Cao e Lam (1997), o conceito de escala
80
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
pode ter quatro significados distintos:
a escala cartográfica, que expressa a relação existente entre a distância
medida num mapa e a distância equivalente medida no mundo real;
a escala de observação ou escala geográfica, que é aplicável à extensão
espacial dos fenómenos estudados;
a escala a que determinado fenómeno se manifesta (escala operacional),
que constitui a granularidade ideal para a observação e análise do
fenómeno;
a resolução espacial, que reflecte o nível de detalhe com que determinado
fenómeno é estudado ou cartografado.
A dependência da escala é uma propriedade inerente aos fenómenos geográficos.
A falácia ecológica, também conhecida na literatura como Modifiable Areal Unit
Problem (MAUP), constitui um paradigma fundamental associado aos processos
geográficos, que resulta da análise da informação expressa a diferentes níveis de
agregação espacial. O MAUP determina que as relações identificadas para
determinado nível de detalhe não devem ser generalizadas para níveis de detalhe
diferentes. A maior parte das análises desenvolvidas sobre informação geográfica
são afectadas pelo nível de detalhe, pelo que são dependentes deste.
Os métodos apresentados na literatura para avaliação dos efeitos de escala /
resolução são a variância geográfica, a variância local, a análise de textura e a
análise fractal.
Argumentando que os processos geográficos se desenrolam a diversas escalas,
em 1972 Mollering e Tobler (citados por Cao e Lam, 1997) defendem que a escala
a que se encontra associada a maior variabilidade de um fenómeno coincide com a
escala operacional deste, ou seja, a escala mais ajustada à observação e análise
do fenómeno. O método proposto por Mollering e Tobler para determinação da
variância geográfica associada a cada escala é muito similar à análise de
variância, mas não é aplicável a informação representada em formato matricial
(raster) porque obriga à existência de uma relação de hierarquia entre as unidades
geográficas (partições do domínio espacial) presentes em cada escala.
O método da variância local parte de um pressuposto idêntico ao da variância
geográfica, procurando de igual modo identificar a escala / resolução a que se
encontra associada a maior variabilidade do fenómeno. Para cada escala /
resolução, este método visa a determinação da média das variâncias locais
81
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
avaliadas por recurso a uma vizinhança móvel formada por 3x3 células. Ao invés
do método da variância geográfica, o presente método é aplicável a informação
organizada numa estrutura matricial.
A análise de textura procura caracterizar uma superfície de interesse relativamente
à granularidade, suavidade ou alisamento e regularidade evidenciadas. A textura
pode ser medida através de diversos parâmetros, entre os quais se destaca a
variância, o desvio padrão e o diferencial entre os valores máximo e mínimo.
Todos estes parâmetros devem ser determinados com base numa janela móvel. O
método da variância local conduz, na realidade, a um dos diversos indicadores
utilizados na análise de textura. A análise de textura procura, tal como os métodos
apresentados anteriormente, determinar qual a escala de observação mais
adequada ao fenómeno em estudo através da sua identificação com a resolução
espacial a que ocorre a maior variabilidade do fenómeno.
A análise fractal constitui uma abordagem alternativa à detecção de efeitos de
escala / resolução. A designação de fractal foi introduzida nos anos 70 por
Mandelbrot (referenciado por Lima, 1998) para descrever fenómenos ou objectos
que apresentam grande irregularidade. A geometria fractal possibilita quantificar a
estrutura
de
padrões
complexos,
através
da
identificação
de
escalas
características e de comportamentos associados a escalas distintas. A análise
fractal contribui igualmente para a identificação de processos associados a
dinâmicas observáveis a diversas escalas espaciais e temporais. A complexidade,
irregularidade ou o grau de homogeneidade podem muitas vezes expressar-se por
uma relação existente entre as estruturas do mesmo fenómeno, que é observável
a diferentes resoluções espaciais ou escalas.
A geometria das estruturas fractais pode ser descrita por um índice de escala que
se designa por dimensão fractal. A dimensão fractal é um número real que
expressa a complexidade ou o grau de irregularidade dos fenómenos ou dos
objectos. Esse número real é sempre superior à dimensão topológica do fenómeno
em apreciação. Para uma função linear, a dimensão fractal pode variar entre 1 e 2
(Burrough, 1981). Enquanto o valor 1 corresponde a uma função linear
diferenciável, o valor extremo de 2 reflecte a existência de uma função muito
irregular e complexa. Para superfícies, a dimensão fractal pode variar entre 2 e 3,
correspondendo este último valor a uma superfície infinitamente irregular e
complexa. A análise da complexidade de fenómenos espacialmente distribuídos
82
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
obriga ao estudo da sua variabilidade com diversas escalas e à determinação da
importância relativa de cada uma delas no fenómeno globalmente apreciado. A
análise fractal possibilita, por vezes, distinguir escalas de variação distintas do
mesmo fenómeno. A identificação de tais escalas permite ajustar o processo de
monitorização e as metodologias de interpolação à variabilidade observada. A
dimensão fractal máxima reporta-se à escala / resolução associada à maior
variabilidade do fenómeno, que é, como já foi referido, a mais adequada ao estudo
de um fenómeno. A dimensão fractal de fenómenos geográficos pode ser estimada
através de diversos métodos. Procede-se de seguida à apresentação de dois
métodos que se consideraram relevantes para a presente investigação.
O método de Box Counting, descrito por Lima (1998) e adaptado ao presente
contexto, prevê a subdivisão do domínio espacial numa malha regular formada por
células quadrangulares não sobrepostas. A dimensão da célula determina a
resolução espacial adoptada. Para cada resolução espacial, este método tem em
vista a contabilização do número de células que intersectam o conjunto de dados
em análise. Após repetição do procedimento descrito para diversas resoluções
espaciais, procede-se à construção de um gráfico que apresente em abcissas o
logaritmo decimal da dimensão da célula associada a cada resolução espacial
testada. As ordenadas do gráfico deverão representar o logaritmo decimal do
número de células que intersectam o conjunto de dados para as diferentes
resoluções espaciais. Se o fenómeno em apreciação for invariante com a escala, o
gráfico evidencia a existência de uma única relação linear. A dimensão fractal
corresponde ao valor absoluto do declive da recta referente à relação linear
observada. Um valor absoluto do declive igual a um (dimensão fractal unitária)
corresponde a uma situação de saturação, que no limite traduz a existência de
uma única célula que contém todo o conjunto de dados. Um valor absoluto do
declive igual ou muito próximo de zero (dimensão fractal nula ou quase nula)
corresponde a outra situação de saturação que revela que todas as células em que
se subdividiu o domínio intersectam o conjunto de dados. Nenhuma das duas
situações de saturação referidas expressa a verdadeira dimensão fractal do
fenómeno em análise. Esta corresponderá certamente a um valor intermédio,
relativo ao valor absoluto do declive do segmento de recta que une as duas
situações de saturação.
Outro método que permite evidenciar as características fractais de um fenómeno
83
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
fundamenta-se na análise variográfica e é conhecido por método do semivariograma. Neste método também se procede à construção de um gráfico a partir
do qual se determinará a dimensão fractal do fenómeno em estudo. O gráfico é
obtido por aplicação de logaritmos decimais às ordenadas e abcissas do semivariograma do fenómeno de interesse. Se o fenómeno for invariante com a escala,
o gráfico evidencia a existência de uma única relação linear. Para fenómenos
correspondentes a superfícies, a dimensão fractal é igual a três menos metade do
declive da recta observada. Para fenómenos lineares, a dimensão fractal
corresponde a dois menos metade do declive da recta observada (Burrough,
1981).
Frequentemente, os gráficos obtidos através de qualquer um dos métodos
descritos evidenciam várias relações lineares em vez de uma única. Deste modo
podem-se representar diversos segmentos de recta com declives distintos. Tal
acontece quando o processo em análise não pode ser descrito por um único factor
de escala (dimensão fractal), mas sim por um conjunto de factores de escala que
se podem integrar numa função dimensão. Nestas circunstâncias, o processo deve
ser classificado como multi-fractal. Os processos ou fenómenos multi-fractais
revelam a existência de diversas dimensões fractais, estando cada uma associada
a uma gama de escalas / resoluções espaciais. As descontinuidades que
assinalam uma variação da dimensão fractal (visível através da mudança abrupta
do declive da recta associada ao gráfico Log-Log) apontam para escalas /
resoluções a que ocorre uma alteração estrutural relevante.
Embora a análise fractal constitua matéria de investigação recente, já existem
diversos estudos que se dedicaram à quantificação da dimensão fractal da
precipitação, encarando-a como um fenómeno linear. O estudo da precipitação
ocorrida no Chad, desenvolvido em 1973 por Definer e Delhomme, revelou uma
dimensão fractal de 1.7. A dimensão referida foi obtida para as mais pequenas
distâncias entre observações, com base num variograma construído com um
passo de 1 km. Burrough (1986) obteve dimensões fractais variáveis entre 1.13 e
1.36 para a precipitação anual. Dubois (2000) reportou dimensões fractais
variáveis entre 1.6 e 1.7 para observações de precipitação diária da Suíça. Estas
dimensões foram calculadas para distâncias até 80 km.
As conclusões alcançadas por Mark e Aronson (1984) no que diz respeito à análise
fractal de 17 superfícies topográficas de diversas áreas dos EUA, são
84
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
extrapoláveis para além do domínio da topografia. A pesquisa desenvolvida por
aqueles autores comprovou que na maioria dos casos a mesma superfície
topográfica apresentava várias dimensões fractais. Cada dimensão fractal
identificada nestas circunstâncias estava associada a uma gama de escalas, cujos
limites inferior e superior caracterizavam mudanças abruptas da superfície
topográfica analisada. Deste modo, foi formulada a hipótese de que as escalas a
que a variação da dimensão fractal ocorre, traduzem mudanças da importância
relativa para o fenómeno em estudo, de diferentes processos, de aspectos
estruturais e/ou de aspectos temporais. No que diz respeito ao processo de
amostragem, Mark e Aronson concluíram que as superfícies que apresentam uma
dimensão fractal elevada têm uma auto-co-variância reduzida, motivo pelo qual a
interpolação do fenómeno a partir das observações vizinhas não é muito precisa.
Consequentemente, perde-se informação considerável à medida que se aumenta
o intervalo de amostragem. Ao invés, as superfícies que apresentam uma
dimensão fractal reduzida proporcionam uma maior fiabilidade nas estimativas
calculadas a partir das observações vizinhas.
3.6 DESENHO E REDIMENSIONAMENTO DE REDES DE MONITORIZAÇÃO DE PRECIPITAÇÃO
O planeamento e dimensionamento de uma rede de monitorização de precipitação
visa a satisfação de objectivos múltiplos tais como a disponibilização de dados de
base para a gestão global dos recursos hídricos e para utilização como informação
de suporte à criação de redes de maior especificidade ou de maior detalhe.
O desenho de uma rede de monitorização envolve, segundo a opinião de Rodda
(1969), três aspectos fundamentais:
o cálculo do número de postos necessários para descrever o fenómeno;
a identificação das respectivas localizações espaciais;
a determinação do período de tempo necessário para obter uma fiel
caracterização do fenómeno.
A implantação dos postos de medição de precipitação da maior parte dos países
não foi numa fase inicial planeada de raiz, através de critérios económicos e/ou
estatísticos, mas sim condicionada pela distribuição espacial das actividades
desenvolvidas pelo homem. Deste modo, actualmente o planeamento de uma rede
de monitorização da pluviosidade passa quase sempre pela reorganização de uma
configuração espacial que foi fruto da evolução da ocupação do território pelo
85
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
homem. De acordo com alguns autores (Langbein, 1959; Rodda, 1969), a
variabilidade climática e as características fisiográficas do território são os
aspectos mais relevantes no planeamento de uma rede meteorológica. Na prática,
os autores constataram que os factores que mais condicionam a localização
geográfica de postos de monitorização são a distribuição espacial da população,
que afecta a disponibilidade de técnicos para aferição das medições e manutenção
do equipamento, a inacessibilidade de determinados locais e a escassez de
fundos.
Em 1979, Crawford (1979) descreveu um estudo experimental conducente à
definição de um plano de amostragem de precipitação. Crawford verificou que o
plano de amostragem dependia de aspectos físicos da chuvada, de factores
associados à medição do fenómeno e do procedimento adoptado para analisar a
informação medida. O autor concluiu que qualquer plano de amostragem de
precipitação traduz um compromisso entre aspectos climatológicos e económicos.
Num estudo publicado pela Organização Meteorológica Mundial (WMO - World
Meteorological Organization) (Langbein,1959) é recomendada a existência de um
mínimo de dois postos de medição de precipitação por cada 1000 km2. Este rácio
de referência é no entanto indicativo, devendo ser inflacionado em zonas de
elevada densidade populacional. No volume dedicado a redes de monitorização de
recursos hídricos (Rodrigues et al, 2001) que integra o actual Plano Nacional da
Água, é salientado que se considera razoável a existência de oito postos de
medição de precipitação por cada 1000 km2, para um clima como o de Portugal
Continental.
Segundo O’Connell (1982) existem três abordagens distintas para planear e
dimensionar uma rede de monitorização de precipitação:
planear a rede tendo em vista a minimização do erro de estimação da
precipitação, condicionado por um determinado limite superior do número de
postos de medição, mas sem ter em conta restrições explícitas relativas ao
custo da rede;
planear a rede com vista à minimização do erro de estimação da
precipitação, tendo como restrição uma disponibilidade monetária prédeterminada;
planear a rede tendo em vista um custo mínimo que será determinado por
fixação de um limite superior de erro, abaixo do qual se considera a
86
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
precisão da rede satisfatória.
De acordo com O’Connell (1982), a maior parte dos trabalhos conducentes à
avaliação de redes de monitorização assentam na obtenção de medidas de
avaliação da rede existente ou a implementar, através da caracterização estatística
do fenómeno da pluviosidade quer em termos espaciais como temporais.
Entre as mais antigas contribuições neste domínio destaca-se a de Horton (1923)
que deduziu uma equação que possibilita determinar o afastamento entre a
verdadeira média do fenómeno e um valor médio estimado a partir de um número
de postos inferior ao disponível. Outros investigadores identificaram relações que
quantificam a precisão alcançada por uma rede de monitorização de precipitação
por análise da influência da variação do número de postos nos parâmetros
amostrais variância e/ou coeficiente de variação.
Este tipo de abordagem foi seguido por Ahuja (1959) para analisar a rede de
monitorização de precipitação então disponível na Índia. Através da Equação 3.28,
Ahuja estimou qual o número de postos em falta em cada sub-bacia hidrográfica,
de modo a assegurar que o erro cometido na estimação da precipitação média
associada a cada bacia não fosse superior a 10%. A equação adoptada só é válida
quando a precipitação associada a cada bacia resulta da média da precipitação
dos postos situados na bacia.
2
N = (Cv / P)
Equação 3.28
Em que:
P - representa a % de erro considerada aceitável na estimação
da precipitação média associada a uma bacia hidrográfica
Cv – representa o coeficiente de variação da precipitação
medida pela rede existente
N - corresponde ao número de postos que são necessários para
assegurar P
A diferença entre N e o número de postos já disponíveis em cada bacia possibilitou
ao autor determinar os postos em falta. A determinação da localização aproximada
dos novos postos foi efectuada a partir do traçado de isoietas, utilizando os postos
existentes dentro e em torno de cada bacia. Após medição com um planímetro da
superfície entre cada par de isoietas consecutivas e normalização do valor medido
relativamente à área total da bacia em causa, os novos postos foram afectados a
87
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
cada uma das superfícies proporcionalmente à sua área.
Uma metodologia alternativa para avaliação e planeamento de uma rede de
monitorização foi sugerida por Langbein (1954). O método em causa visa a
subdivisão dos postos de monitorização de uma rede em duas categorias: os
postos principais ou de base e os postos auxiliares ou secundários. Enquanto os
postos principais são estruturantes da rede de monitorização e permitem avaliar a
variabilidade temporal do fenómeno, os postos auxiliares possibilitam avaliar a
variabilidade espacial do fenómeno. O autor defende que os postos auxiliares
devem ser reorganizados no espaço face à analise estatística e confrontação
temporal dos seus registos com os dos postos principais. Deste modo, a
localização geográfica dos postos principais deve ser fixa, enquanto que a
localização dos postos auxiliares deve variar em função do respectivo período de
operação. Cada posto auxiliar só deve funcionar durante o tempo estritamente
necessário para assegurar a existência de uma correlação significativa entre os
seus registos e os do posto principal mais próximo. Findo o período de
funcionamento do posto auxiliar, a associação linear existente entre os seus
registos e os do posto principal mais próximo deverá permitir estimar a informação
em falta no posto auxiliar. Langbein (1954) fundamentou a sua teoria na
constatação de que o erro padrão associado à correlação existente entre duas
séries é tanto maior quanto maior a distância entre os locais de amostragem e é
tanto menor quanto maior for o comprimento das séries. Face ao exposto, os
factores que limitam o crescimento do erro padrão associado à correlação entre
duas séries são a diminuição da distância entre postos principais e o alargamento
do período de operação dos postos auxiliares.
O problema da reorganização de uma rede de monitorização no espaço e no
tempo passa, segundo o autor, pela determinação do número óptimo de postos
principais e auxiliares e pelo cálculo do período de operação dos postos auxiliares,
tendo em vista a maximização do número de locais amostrados num dado
horizonte temporal. O comprimento efectivo de uma série relativa a um posto
auxiliar que foi estendida (ou estimada) a partir da série associada ao posto
principal mais próximo pode ser determinado através da seguinte expressão
sugerida por Langbein (1954):
88
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
N=
Nr + Ne
N
1 + e (1 − r 2 )
Nr - 2
Equação 3.29
Em que:
N - representa o comprimento efectivo da série associada ao
posto auxiliar após ser estendida
Nr – expressa o número de registos disponíveis no posto auxiliar
Ne - corresponde ao número de registos estimados para o posto
auxiliar
Nr + Ne – traduz o horizonte temporal em apreciação
r – representa a correlação existente entre a série do posto
principal e a série do posto auxiliar
O factor (1 − r 2 ) pode ser aproximado por: (
0.4k 2 A
)
B
Sendo:
k – o acréscimo do erro padrão associado à correlação entre
séries, por km de distância
A – a área da região de interesse
B – o número de postos principais a atribuir à região de
interesse
Para uma dada área geográfica e para determinado horizonte temporal, esta
expressão possibilita o cálculo do número de postos auxiliares a atribuir à região
de interesse, bem como o respectivo período de operação. Dado que se pretende
maximizar a diferença entre o comprimento efectivo da série associada a cada
posto auxiliar e o comprimento real da mesma série (N-Nr), a expressão acima
apresentada pode ser resolvida por métodos iterativos.
A delimitação de regiões homogéneas por identificação de grupos de postos de
medição de precipitação com características afins constitui outra abordagem
alternativa para avaliar e reorganizar uma rede de monitorização. O traçado dos
limites entre regiões pode basear-se na correlação entre observações adjacentes.
Para tal, é usual traçar isolinhas de correlação em torno dos postos.
Hershfield (1965) defendeu que a correlação espacial da precipitação medida entre
postos de monitorização adjacentes não deveria ser inferior a 0.9, devendo a
89
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
distribuição espacial dos postos ser realizada com base naquele valor.
Hendrick e Comer (1970) advogaram que se deveria ter em conta os efeitos
anisotrópicos do fenómeno da pluviosidade e recomendaram que cada posto se
localizasse no centro de uma elipse correspondente à correlação espacial de 0.9
em torno do posto.
A correlação aferida entre postos de precipitação adjacentes também pode ser
utilizada como uma medida de avaliação da duplicação de informação recolhida
por uma rede. Uma correlação unitária obtida para postos adjacentes que estejam
sujeitos às mesmas condições fisiográficas evidencia redundância de informação.
A função adoptada para modelar a correlação espacial entre postos de
precipitação proposta por Hutchinson (1969) incluía, para além da precipitação e
da distância entre postos, outras variáveis como as diferenças altimétricas entre
postos, o declive e a exposição. As regiões homogéneas identificadas com base
numa função do tipo da proposta por Hutchinson reflectem não só características
da precipitação mas também aspectos fisiográficos.
O erro padrão de estimação da precipitação obtido por agregação dos postos em
regiões permite igualmente identificar as zonas do território onde a monitorização é
sobreavaliada e as zonas em que a rede de monitorização exige um reforço.
A análise do erro cometido na estimação da precipitação e a sua representação
em mapa é provavelmente a metodologia mais frequentemente adoptada na
reorganização espacial e redimensionamento de redes de monitorização.
Em 1936, Drozdov (citado por Rodda, 1969) analisou o erro quadrático médio
associado à interpolação linear de precipitação desenvolvida entre dois postos
equidistantes. Em 1946, Drozdov e Shepelevskii (citados por Rodda, 1969)
demonstraram que tal erro era linearmente dependente da média das diferenças
quadráticas entre valores aferidos entre os dois postos de referência.
Delhomme e Delfiner (1973) (consulte-se também Delfiner e Delhomme, 1973)
adoptaram a técnica de Krigagem Universal para estimar a precipitação intensa
associada a uma malha regular em que foi subdividida uma zona árida do Chad.
Com base na análise da variância de estimação da precipitação, aqueles autores
avaliaram qual o benefício ou ganho no cálculo da precipitação média associada a
cada evento pluvioso, devido à adição de mais um posto à rede de monitorização
existente. O ganho percentual máximo avaliado com base na variância do erro de
estimação foi de 13%.
90
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
Num estudo sobre o planeamento de redes de medição de precipitação aplicado a
uma área da Venezuela, Rodriguez-Iturbe e Mejia (1974a) referem que os
aspectos mais importantes a considerar no dimensionamento de uma rede são a
correlação espacial, a correlação temporal, o número de postos, o respectivo
período de operação (comprimento das séries) e a configuração espacial da rede.
A função utilizada para modelar a correlação espacial deve ser ajustada à distância
para a qual a correlação atinge o valor de 0.5 (distância característica da função
correlação). Com base na análise da variância de estimação da precipitação média
regional, Rodriguez-Iturbe e Mejia avaliaram qual o número de postos e qual o
número de anos de operação da rede que assegurariam determinada redução de
variância. Para tal, estimaram pesos a atribuir às observações que fossem função
da correlação espacial entre observações, da correlação temporal associada a
cada série e do comprimento de cada série. Os autores mencionam que os
diversos aspectos que influenciam o dimensionamento de uma rede têm pesos
variáveis consoante se pretenda estimar a média espacial de um evento de
precipitação (chuvada) ou estimar a média espacial da precipitação acumulada
durante um período de tempo relativamente longo (ano, semestre, mês). O período
de operação da rede é o factor mais determinante na estimação da média espacial
da precipitação acumulada durante um período de tempo relativamente longo.
Cislerova e Hutchinson (1974) basearam-se no erro obtido por interpolação óptima
para pares de postos e na densidade mínima de um posto por 900 km2, para
reorganizar a rede pluviométrica da Zâmbia. A identificação das zonas do território
que apresentavam uma deficiente cobertura do fenómeno, face aos objectivos
traçados, foi levada a cabo através da construção de mapas do erro de estimação
da precipitação anual. O erro de estimação foi expresso em percentagem da
precipitação média anual. Foram consideradas como inaceitáveis, áreas que
apresentavam erros superiores a 10% com ocupação humana, uso agrícola ou
afectas à exploração de recursos hídricos e áreas com erros superiores a 15% de
uso condicionado.
Morin e diversos colegas (Morin et al., 1979) adoptaram a técnica de interpolação
óptima para obtenção de estimativas de precipitação diária, a partir de registos de
30 postos situados numa bacia hidrográfica do Quebec. O estudo foi
posteriormente repetido utilizando apenas 5 dos 30 postos inicialmente
seleccionados. Os autores concluíram que os erros de interpolação associados à
91
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
redução da dimensão da rede eram inferiores aos erros de interpolação devidos às
irregularidades micro climáticas e às próprias medições da precipitação.
A análise e redimensionamento de redes de monitorização de precipitação
localizadas no Reino Unido constituiu matéria de estudo de duas equipas de
investigadores (O’Connell et al, 1978; Jones et al, 1979) que utilizaram a
interpolação óptima para avaliar os erros produzidos na estimação de
precipitações correspondentes a vários períodos. A precipitação foi interpolada
através do ajustamento de uma função teórica do tipo exponencial à correlação
espacial da precipitação observada. Enquanto que a investigação conduzida por
O’Connell se dedicou ao estudo das precipitações mensais e anual, o trabalho
liderado por Jones abordou igualmente as precipitações mensais e a precipitação
acumulada em períodos de meia hora. Ambos os autores procederam à
representação cartográfica dos erros absolutos de estimação da precipitação. Para
confrontação dos erros absolutos de estimação com os requisitos de precisão
sugeridos pelos utilizadores da informação, o mapeamento do erro foi
repetidamente desenvolvido para um número variável de postos e para diferentes
espaçamentos entre postos. A representação cartográfica do erro absoluto de
estimação da precipitação foi recomendada como estratégia de identificação de
localizações sobreavaliadas ou subavaliadas face à monitorização existente. Os
autores concluíram que os procedimentos adoptados possibilitam reduzir os custos
de operação de redes de monitorização, bem como os custos de processamento
dos dados recolhidos pelas mesmas redes.
Alguns anos mais tarde, Hughes e Lettenmaier (1981) referem a importância da
técnica de Krigagem como suporte ao planeamento de redes de monitorização. Os
autores destacam que a variância do erro de estimação pontual, obtido através da
Krigagem, depende da função seleccionada para modelar a variabilidade espacial
do fenómeno em apreciação e da geometria ou configuração espacial da rede
utilizada. Mas a variância do erro de estimação do valor de determinado fenómeno
afecto a uma área depende unicamente da configuração espacial da rede que
monitoriza o fenómeno. Deste modo, é possível reorganizar a rede existente de
forma a minimizar a variância do erro associada à estimativa do fenómeno, quando
este for ponderado sobre uma área geográfica.
A relação não linear existente entre a variância do erro de estimação de
determinado fenómeno ponderado sobre uma área [Var(A)] e as coordenadas
92
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
geográficas dos postos que monitorizam o fenómeno (X1, Y1; ...; Xn, Yn) na mesma
área (Equação 3.30) pode ser aproximada pelos dois primeiros termos resultantes
da expansão de uma série de Taylor (Equação 3.31).
Var(A) = F = f (X1, Y1; ...; Xn, Yn)
Var(A) = F ≈ c + (X1 - X10 )
∂F
∂F
∂F
+ (Y1 - Y10 )
+ ... + (Yn - Yn0 )
∂X1
∂Y1
∂Yn
Equação 3.30
Equação 3.31
Em que:
Var(A) = F - representa a variância do erro de estimação de
determinado fenómeno ponderado sobre uma área
(X10 , Y10 ; ...; X n0 , Yn0 ) são as coordenadas geográficas dos postos
que monitorizam o fenómeno
(X1, Y1; ...; X n , Yn ) são as coordenadas geográficas das posições
para as quais se pretende avaliar a variância do erro de
estimação
Um valor aceitável para a variância do erro de estimação acima descrita pode ser
obtido por minimização da Equação 3.31 e por imposição de algumas restrições
que assegurem que as soluções alcançadas se encontram numa vizinhança
admissível da posição geográfica actual dos postos de medição. Após uma
correcta formulação, o problema da minimização da variância do erro de estimação
pode ser resolvido por iteração.
Foi ainda com base na variância das estimativas produzida por cokrigagem, que
Hevesi e seus colaboradores (1992b) propuseram a localização de novos postos
udométricos, destinados a reduzir o erro cometido na estimação da precipitação.
As localizações dos postos sugeridos foram as correspondentes às estimativas
que apresentaram maior variância de estimação.
No cálculo de valores médios de precipitação associados a uma região, verifica-se
que, para idêntica densidade de postos, o erro de estimação decresce com o
aumento do período de análise da pluviosidade. O aumento da área da região de
interesse permite também, para igual densidade de postos, reduzir o erro de
estimação da precipitação média. Para iguais circunstâncias, os erros cometidos
no cálculo de valores médios de precipitação convectiva são usualmente muito
superiores aos da precipitação originada por superfícies frontais (Rodda, 1969).
93
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
De entre as abordagens que visam o planeamento e dimensionamento de redes de
monitorização com vista ao cálculo de valores médios de precipitação associados
a uma região, destacam-se as de Bras e Rodríguez-Iturbe (1976b) e de Lenton e
Rodriguez-Iturbe (1977) pelo facto de terem simultaneamente em conta custos e
requisitos de precisão. Embora prosseguindo caminhos distintos, os dois grupos de
autores partem de uma função objectivo similar que visa a minimização do erro
quadrático médio associado à ponderação do fenómeno sobre a região de
interesse e a minimização dos custos anuais de operação e de processamento da
rede de monitorização. Os custos são, em ambas as abordagens, afectados de um
factor de equivalência entre custos e precisão pretendida para a rede.
Para Bras e Rodríguez-Iturbe (1976b), a precisão da rede e o seu custo são função
da densidade e da localização relativa dos postos, do tipo de instrumentos de
medição utilizados e da variabilidade espacial e temporal do fenómeno. A
componente da função objectivo utilizada pelos autores para descrever o erro
quadrático médio associado à ponderação do fenómeno sobre uma área
geográfica subdivide-se no somatório de três termos:
o erro decorrente da modelação, ou seja, o erro cometido ao aproximar um
integral contínuo (que traduz a precipitação ocorrida sobre uma área) por
uma série de somatórios de ponderações de precipitações observadas em
pontos discretos do espaço;
o erro devido à adopção da precipitação medida em representação do
verdadeiro valor da precipitação ocorrida;
o erro associado à dependência entre os dois erros anteriormente referidos.
Estes três termos podem ser expressos em através da função co-variância
associada ao processo em análise, tendo sido desta forma que Bras e RodríguezIturbe os integraram na função objectivo. Através desta abordagem, os autores
conseguiram, num caso de estudo, definir para cada limiar de precisão pretendido:
a dimensão da rede, a localização dos postos de monitorização que a compõem e
o custo mínimo associado à sua operação e processamento.
Lenton e Rodriguez-Iturbe (1977) usaram a programação matemática para
solucionar o problema acima referido. As variáveis de decisão utilizadas foram o
número de postos, as coordenadas geográficas dos postos e os factores de
ponderação das observações a adoptar na estimação da precipitação.
O planeamento e o dimensionamento de uma rede de monitorização de
94
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
precipitação pode ainda ser desenvolvido com base em modelos de precipitação –
escoamento. Nestas circunstâncias, pretende-se determinar qual a densidade e a
configuração de postos que assegura uma determinada precisão na estimação do
caudal recorrendo a dado modelo de precipitação – escoamento.
Num estudo muito recente, Dubois (2000) descreve algumas medidas que
permitem avaliar a adequação da configuração espacial associada a determinada
rede de monitorização. A aplicação dos métodos é ilustrada para duas redes de
monitorização de precipitação na Suíça. As duas redes cobrem a mesma
superfície territorial com diferentes números de postos: 167 postos na rede menos
densa e 467 postos na rede de maior densidade. Os parâmetros de avaliação que
Dubois descreve para analisar a adequação da configuração espacial associada a
determinada rede de monitorização são:
o índice do vizinho mais próximo;
a dimensão fractal;
a superfície dos polígonos de Thiessen;
o coeficiente de representatividade.
O índice do vizinho mais próximo foi apresentado por Clark e Evans em 1954
(citados por Dubois, 2000). Este indicador compara a distância média entre as
posições de amostragem mais próximas com a distância média hipotética que
ocorreria se a posições de amostragem fossem uniformemente distribuídas. O
índice do vizinho mais próximo assume valores próximos da unidade para uma
rede com postos uniformemente distribuídos. Valores do índice inferiores a um são
devidos
a
configurações
espaciais
mais
agregadas
que
o
expectável
comparativamente a uma configuração espacial uniforme, apresentando um
elevado número de postos muito próximos uns dos outros. Ao invés, valores do
índice superiores a um indiciam a existência de locais de amostragem mais
dispersos que os propiciados por uma configuração espacial uniforme.
A dimensão fractal, quando aplicada a um plano de amostragem, pode ser
reveladora do grau de heterogeneidade do arranjo espacial de observações
(Lovejoy et al., 1986, citado por Dubois, 2000). Aqueles autores afirmam que se a
dimensão fractal de uma rede de monitorização (D) for inferior à respectiva
dimensão euclidiana (E), então a configuração espacial associada à rede de
monitorização não possibilita detectar fenómenos de dimensão fractal inferior a ED.
95
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
O histograma de frequências construído a partir da área dos polígonos de
Thiessen relativos a uma rede de monitorização, auxilia à descrição da
homogeneidade evidenciada pela rede. A comparação da distribuição real de
áreas de influência dos postos com uma distribuição teórica uniforme (onde todos
os polígonos apresentam igual área) permite detectar inconsistências na rede.
Estas estão associadas à ocorrência de polígonos de área muito inferior ou muito
superior à superfície média teórica.
O coeficiente de representatividade é um parâmetro de avaliação proposto por
Dubois (2000) que pode ser cartografado através de polígonos de Thiessen. Tratase de um índice que possibilita avaliar se uma determinada posição de
amostragem é ideal ou se se verifica um distanciamento excessivo ou reduzido
relativamente às restantes localizações de amostragem. O coeficiente de
representatividade (Cr) pode ser calculado para cada ponto de amostragem da
rede, através da seguinte expressão:
Cr = A * B
Equação 3.32
A = Ath / A th
B = NNdist2 / A th
Em que:
Cr - é o coeficiente de representatividade
A – é o rácio entre a superfície real do polígono de Thiessen
associado à observação e a superfície média teórica do
polígono de Thiessen se a rede fosse homogénea
B - é o rácio entre o quadrado da distância à observação mais
próxima e a superfície média teórica do polígono de Thiessen se
a rede fosse homogénea
Ath – área efectiva do polígono de Thiessen associado à
observação
A th – área do polígono de Thiessen se a rede fosse homogénea
NNdist - distância da observação à observação mais próxima
Um coeficiente de representatividade igual a um está associado a pontos de
amostragem equilibradamente distribuídos. Um coeficiente de representatividade
inferior a um evidencia observações agrupadas ou em excesso. Um coeficiente de
96
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
representatividade superior a um evidencia observações isoladas. O cálculo do
coeficiente de variação relativo aos coeficientes de representatividade de uma rede
facilita a detecção da irregularidade da rede que é expressa por um coeficiente de
variação superior a um.
Os estudos apresentados ao longo do presente sub-capítulo cobrem os aspectos
mais importantes a ter em conta na reorganização de uma rede de monitorização
de precipitação. Estes são a variabilidade espacial e temporal da precipitação, as
características fisiográficas do território, o número de postos, o respectivo período
de operação (comprimento das séries), a configuração espacial da rede, o nível de
precisão considerado aceitável para quantificar o fenómeno e aspectos
económicos. A metodologia mais frequentemente adoptada na reorganização
espacial de redes de monitorização da pluviosidade consiste na análise e
representação em mapa dos desvios cometidos na estimação da precipitação.
3.7 LACUNAS
Desconhecem-se até à data estudos no domínio da interpolação espacial multivariada de precipitação que tenham analisado o problema da resolução espacial
mais ajustada ao mapeamento da precipitação. Em abordagens uni-variadas, a
análise fractal possibilita, por exemplo, detectar as resoluções espaciais
associadas à maior variabilidade dos fenómenos e portanto as mais indicadas para
a sua análise. Em abordagens multi-variadas onde a densidade de amostragem da
informação auxiliar pode ser bastante mais detalhada do que a da variável a
estimar, parece estar em aberto a determinação da resolução espacial mais
indicada ao mapeamento da variável de interesse. Ainda neste âmbito,
desconhecem-se investigações que tenham avaliado as consequências da
variação do nível de detalhe das variáveis auxiliares na estimação multi-variada da
precipitação.
Parecem ser igualmente escassas as abordagens que confrontam as estimativas
de precipitação obtidas com base na subdivisão do domínio espacial em áreas
afins, com as estimativas de precipitação que se obteriam sem proceder à criação
de regiões homogéneas.
Sistematizam-se de seguida algumas deficiências identificadas na literatura revista
na área da modelação da variabilidade espacial da precipitação. Constatou-se que
a maioria dos autores não adopta medidas de avaliação para os modelos testados
97
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
que sejam independentes da gama de valores da precipitação observada e da
região da superfície terrestre onde se verificaram tais quantitativos. Tal inviabiliza,
por exemplo, a comparação de resultados obtidos por diversos estudos que
utilizaram, em diferentes regiões do mundo, a mesma metodologia de interpolação
para o mesmo intervalo de integração da precipitação. A correlação entre valores
estimados e observados e o erro percentual absoluto médio são alguns dos
parâmetros de avaliação independentes das escalas de variação dos fenómenos
analisados, sendo por isso medidas de avaliação preferenciais. Verificou-se, por
outro lado, que a maioria dos estudos mais recentes analisam os dados de
precipitação sem proceder à selecção e ajustamento das séries disponíveis. Deste
modo, os mapas criados reproduzem a variabilidade do fenómeno com desvios
que se propagam através do processo de estimação.
Da revisão da literatura efectuada, conclui-se que os estudos conducentes à
criação de mapas da distribuição espacial de precipitação desenvolvidos para
Portugal Continental são escassos e quase sempre referentes à precipitação
anual. Quando existentes, as análises ou não cobrem todo o Continente ou
reportam-se a períodos de referência que carecem de actualização. À excepção de
duas cartas de precipitação total anual, ambas relativas à normal climatológica de
1931-1960, uma editada em 1975 pelo Serviço Meteorológico Nacional e outra
publicada em 1977 por uma equipa liderada por Suzanne Daveau, desconhecemse outras iniciativas recentes que tenham aprofundado a presente temática com
vista à produção de mapas para o território Continental.
A base metodológica utilizada na construção dos mapas existentes é muitas vezes
pouco clara e o erro associado à interpolação nunca é quantificado. Por outro lado,
e até à data, todos os trabalhos de mapeamento da precipitação aplicados ao
território Continental conduziram à publicação de cartas de isoietas.
No que concerne à diversidade da cartografia disponível, constata-se mesmo a
inexistência de mapas, com cobertura continental, sobre a distribuição espacial de
precipitações em anos seco e húmido, de precipitações mensais e de precipitações
máximas diárias anuais.
Justifica-se assim a análise comparativa de diversas metodologias de interpolação
da precipitação, visando a aplicação a Portugal Continental da metodologia que
evidenciar melhor desempenho face a critérios quantitativos que se fundamentem
nos desvios de estimação desenvolvidos. Justifica-se igualmente a divulgação ao
98
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
público dos mapas de precipitação obtidos no âmbito do presente trabalho, uma
vez que, pela primeira vez para Portugal, viabilizarão a quantificação da
precipitação associada a localizações específicas. Com efeito, os mapas de
distribuição espacial da precipitação actualmente disponíveis apenas possibilitam a
associação de intervalos de precipitação a extensas áreas do território.
99
CAPÍTULO 3 – SISTEMATIZAÇÃO DE CONCEITOS E REVISÃO DA LITERATURA
100
Download

3. - sistematização de conceitos e revisão da literatura