Alan Cosme Rodrigues da Silva
Análise da Coerência de Medidas de Risco no
Mercado Brasileiro de Ações e Críticas ao
Desenvolvimento de uma Metodologia Híbrida
COPPEAD / UFRJ
Março de 2004
ii
Análise da Coerência de Medidas de Risco no
Mercado Brasileiro de Ações e Críticas ao
Desenvolvimento de uma Metodologia Híbrida
Alan Cosme Rodrigues da Silva
Universidade Federal do Rio de Janeiro
Instituto COPPEAD de Administração
Orientador: Eduardo Facó Lemgruber
Ph.D. em Finanças (UCLA, EUA)
Rio de Janeiro
Março de 2004
iii
Análise da Coerência de Medidas de Risco no
Mercado Brasileiro de Ações e Críticas ao
Desenvolvimento de uma Metodologia Híbrida
Alan Cosme Rodrigues da Silva
Dissertação submetida ao corpo docente do Instituto COPPEAD de
Administração da Universidade Federal do Rio de Janeiro – UFRJ, como parte
dos requisitos necessários à obtenção do grau de Mestre.
Aprovada por:
Rio de Janeiro
Março de 2004
iv
Silva, Alan Cosme Rodrigues da.
Análise da Coerência de Medidas de Risco no Mercado
Brasileiro de Ações e Críticas ao Desenvolvimento de uma
Metodologia Híbrida / Alan Cosme Rodrigues da Silva. – Rio de
Janeiro, 2004.
xvii, 87.
Dissertação (Mestrado em Administração) – Universidade
Federal do Rio de Janeiro – UFRJ, Instituto COPPEAD de
Administração, 2004.
Orientador: Eduardo Facó Lemgruber.
1. Valor em Risco (VaR). 2. Expected Shortfall 3. Medidas
coerentes de risco. 4. Finanças – Teses.
I. Lemgruber, Eduardo
Facó (Orient.). II. Universidade Federal do Rio de Janeiro. Instituto
Coppead de Administração. III. Título
v
À minha grande família,
a quem tanto amo.
vi
AGRADECIMENTOS
Agradeço primeiramente a Deus nosso Pai não só pela dissertação, mas por
tudo em minha vida, pelos acontecimentos bons os quais não mereço por
completo e pelos não tão bons que me fortalecem cada vez mais a fé.
Ao Banco Central do Brasil, meu empregador e duplamente aos contribuintes
brasileiros, pela oportunidade de fazer este curso de mestrado de excelência.
À minha amada esposa, Gabriela, pelo incentivo para ingressar no curso.
Aos meus pais, Faustino e Ana, pois as oportunidades que me deram foram
fundamentais para eu chegar até aqui.
Ao Prof. Eduardo Facó, pela idéia do tema, pela orientação com maestria e
pela confiança depositada, à qual espero ter correspondido.
Aos amigos do COPPEAD pelo apoio que me deram durante o curso, em
especial, ao amigo Marcelo Nuno, vulgo, De Nuno.
Aos amigos do Depep-RJ pelas trocas de idéias, pelas sugestões que
auxiliaram a elaboração desta dissertação e até mesmo por emprestarem seus
computadores.
vii
Ajuizado serás não supondo que sabes o que ignoras.
Sócrates
viii
RESUMO
SILVA, Alan Cosme Rodrigues da. Análise da Coerência de Medidas de
Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de
uma Metodologia Híbrida. Orientador: Eduardo Facó Lemgruber. Rio de
Janeiro: UFRJ/COPPEAD, 2004. Dissertação (Mestrado em Administração).
O trabalho busca analisar empiricamente a coerência do VaR pela
definição de Artzner et al. (1997) no Mercado Brasileiro de Ações, calculado
pela metodologia da simulação histórica, pela analítica com volatilidade EWMA
do RiskMetricsTM e pela híbrida desenvolvida em Boudoukh et al. (1998) com
alterações. Utilizam-se como amostra as dez ações mais líquidas da Bovespa
em novembro de 2003, com os preços abrangendo o período de 04/jul/1994 a
31/out/2003. É também estudada com os dados empíricos a coerência do
Expected Shortfall calculado pela metodologia definida em Acerbi e Tasche
(2001), pela metodologia analítica com volatilidade EWMA e pela metodologia
híbrida, sendo esta última desenvolvida no presente trabalho. Para estas duas
últimas, em vez de se utilizar um dado fator de decaimento (lambda), é
desenvolvido e implementado um processo de otimização de lambdas que
procura obter a melhor estimativa do Expected Shortfall. Todas essas medidas
de risco são calculadas para 12 combinações de parâmetros, com os níveis de
significância α de 1%, 2,5%, 5% e 10% e com os tamanhos de janela K de 50,
100 e 250 dias. A fim de se testar o VaR utiliza-se o teste desenvolvido em
Kupiec (1995) e para o Expected Shortfall, o teste de Berkowitz (2001),
concluindo-se que este último não serve para testar as metodologias histórica e
híbrida. Chega-se à conclusão de que o Expected Shortfall calculado pela
metodologia híbrida passa pelo critério da sub-aditividade, sendo também uma
medida coerente de risco.
ix
ABSTRACT
SILVA, Alan Cosme Rodrigues da. Análise da Coerência de Medidas de
Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de
uma Metodologia Híbrida. Orientador: Eduardo Facó Lemgruber. Rio de
Janeiro: UFRJ/COPPEAD, 2004. Dissertação (Mestrado em Administração).
This work seeks to analyze empirically the coherence of VaR by the
definition of Artzner et al. (1997) at Brazilian Stock Market, calculated by
historical simulation methodology, analytical methodology with EWMA volatility
from RiskMetricsTM and hybrid approach with some modifications. The sample
used were the ten most traded stocks of Bovespa in November 2003 with prices
covering the period from July 4th 1994 through October 31st 2003. Using the
empirical data, the coherence of Expected Shortfall calculated by methodology
from Acerbi and Tasche (2001), analytical methodology and hybrid approach is
also studied. This last approach was developed in this work. For analytical
methodology and hybrid approach, instead of using a given decay factor
(lambda), an optimization process that looks for the best Expected Shortfall was
implemented. All these measures of risk were calculated for twelve sets of
parameters, covering the significance levels of 1%, 2,5%, 5% e 10% and 50,
100 and 250 days of moving windows. For the purpose of backtesting VaR, the
test developed in Kupiec (1995) is used and for Expected Shortfall the test
developed in Berkowitz (2001), coming to the conclusion that this last one is not
useful to backtesting historical simulation and hybrid approaches.
We also
came to the conclusion that the Expected Shortfall calculated by the developed
hybrid approach is also a sub-additive measure of risk, being considered a
coherent measure of risk.
x
LISTA DE SIGLAS E ABREVIATURAS
CAS
- Casualty Actuarial Society
cdf
- cumulative distribution function
ES
- Expected Shortfall
EWMA
- Exponential Weighted Moving Average
iid
- Independent and identically distributed
LR
- log-likelihood ratio
pdf
- probability density function
Qtde
- quantidade
VaR
- Valor em risco
xi
LISTA DE ILUSTRAÇÕES
Figura 1 - Lucros e perdas da posição vendida nas opções digitais A e B e na carteira vendida
nas duas opções. A opção A, vendida por u, paga 1.000 se o preço do ativo subjacente S
for maior que o preço de exercício U, enquanto a opção B, vendida por λ, paga 1.000 se
S < L. ..................................................................................................................................... 11
Figura 2 - Função Densidade de Probabilidade (pdf) dos lucros e perdas com distribuição
Normal, e representação do VaR e do Expected Shortfall, obtidos ao nível de significância
de α%. ................................................................................................................................... 15
Figura 3 - Relação linear entre o percentil e a ordem da série de K valores ordenados em
ordem crescente de valor...................................................................................................... 36
Figura 4 - Esquematização da definição das janelas de calibragem e de teste no processo de
otimização do lambda das metodologias analítica com EWMA e híbrida com a primeira
janela de calibragem iniciando-se após K dias úteis, sendo K o parâmetro que define o
tamanho da janela na metodologia híbrida. .......................................................................... 50
Gráfico 1 - Backtesting do Valor em Risco calculado pela metodologia analítica com EWMA e
pela metodologia de simulação histórica para a posição comprada na carteira igualmente
ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o
período de 15/jul/1996 a 31/out/2003, calculado com os parâmetros α = 5% e K=250. Os
lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo
sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo
da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira
janela de calibragem de 250 dias. ........................................................................................ 67
Gráfico 2 - Backtesting do Expected Shortfall calculado pela metodologia analítica com EWMA
e pela metodologia de simulação histórica para a posição comprada na carteira igualmente
ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o
período de 15/jul/1996 a 31/out/2003, calculados com os parâmetros α = 5% e K=250. Os
lambdas utilizados na metodologia analítica com EWMA variaram a cada 100 dias da
amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o
ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o
início da primeira janela de calibragem de 250 dias............................................................. 68
xii
LISTA DE ILUSTRAÇÕES
Gráfico 3 - Backtesting do VaR e do Expected Shortfall calculados pela metodologia híbrida
para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da
Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003,
calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados variaram a cada
100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a
carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K
definido o início da primeira janela de calibragem de 250 dias. ........................................... 77
Gráfico 4 - Backtesting do Expected Shortfall calculado pelas três metodologias para a posição
comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em
novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculado com os
parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica com EWMA e
híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de
otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o
VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250
dias. ....................................................................................................................................... 80
Quadro 1 - VaR ao nível de confiança de 99% e lucros e perdas da posição vendida nas
opções digitais A e B e na carteira vendida nas duas opções. A opção A, vendida por u,
paga 1.000 se o preço do ativo subjacente S for maior que o preço de exercício U,
enquanto a opção B, vendida por λ , paga 1.000 se S < L. ................................................. 12
Quadro 2 - Janelas de calibragem, de teste e respectivos lambdas selecionados para o
parâmetro janela K = 250 dias no processo de otimização que procurava obter o Expected
Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o
período de 04/jul/1994 a 31/out/2003. .................................................................................. 52
Quadro 3 - Janelas de calibragem, de teste e respectivos lambdas selecionados para o
parâmetro janela K = 100 dias no processo de otimização que procurava obter o Expected
Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o
período de 04/jul/1994 a 31/out/2003. .................................................................................. 52
Quadro 4 - Janelas de calibragem, de teste e respectivos lambdas selecionados para o
parâmetro janela K = 50 dias no processo de otimização que procurava obter o Expected
Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o
período de 04/jul/1994 a 31/out/2003. .................................................................................. 53
xiii
LISTA DE ILUSTRAÇÕES
Quadro 5 - Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia
histórica para as 10 ações mais líquidas da Bovespa e para a carteira igualmente
ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a
31/out/2003. .......................................................................................................................... 60
Quadro 6 - Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia
analítica com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira
igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a
31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da
amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o
ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o
início da primeira janela de calibragem de 250 dias............................................................. 62
Quadro 7 - Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia híbrida
para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada,
somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os
lambdas utilizados na metodologia híbrida variaram a cada 100 dias da amostra, tendo sido
obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da
perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira
janela de calibragem de 250 dias. ........................................................................................ 75
Tabela 1 - Ações mais líquidas selecionadas do Ibovespa de forma que contivessem dados
desde 04/07/1994 até 31/10/2003 e a sua respectiva participação relativa na composição
do índice em 10/11/2003....................................................................................................... 33
Tabela 2 - Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período de 12/06 a
31/10/2003, após a realização do segundo passo definido por Boudoukh et al. (1998),
mostrando a ordem original dos retornos, a ordem após o ordenamento crescente dos
retornos, o peso dado para o retorno pela metodologia EWMA e o peso acumulado, os
quais foram utilizados para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros
α=5%, K=100 e λ=0,94. ........................................................................................................ 41
xiv
LISTA DE ILUSTRAÇÕES
Tabela 3 - Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período de 12/06 a
31/10/2003, após realizado o segundo passo definido por Boudoukh et al. (1998) e a
adição da coluna de peso acumulado do retorno anterior, proposta neste trabalho,
mostrando também a ordem original dos retornos, a ordem após o ordenamento crescente
dos retornos, o peso dado para o retorno pela metodologia EWMA e o peso acumulado, os
quais foram utilizados para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros
α=5%, k=100 e λ=0,94.......................................................................................................... 44
Tabela 4 - Falhas na sub-aditividade das Medidas de Risco VaR e Expected Shortfall
calculadas pela metodologia histórica e analítica com EWMA para as 10 ações mais
líquidas da Bovespa e para a carteira igualmente ponderada, abrangendo o período de
04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada
100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a
carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K
definido o início da primeira janela de calibragem de 250 dias.. .......................................... 57
Tabela 5 - Resultado do teste de Kupiec com valor crítico de 5% aplicado sobre o VaR
calculado pela metodologia histórica e pela metodologia analítica com EWMA para as 10
ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição
comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na
metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por
processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva
quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de
calibragem de 250 dias ......................................................................................................... 59
Tabela 6 - Razão de verossimilhança caudal do teste de Berkowitz (2001) calculada para as 10
ações mais líquidas da Bovespa e para a carteira igualmente ponderada, para os níveis de
significância α, considerando toda a série de retornos do período de 05/jul/1994 a
31/out/2003, com valor crítico de 5,99. ................................................................................. 65
xv
LISTA DE ILUSTRAÇÕES
Tabela 7 - Falhas na sub-aditividade das medidas de risco VaR e Expected Shortfall calculadas
pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a carteira
igualmente ponderada, abrangendo o período de 04/jul/1994 a 31/out/2003 e tempo de
processamento do programa de cálculo elaborado no Excel das metodologias histórica,
analítica com EWMA e híbrida. Os lambdas utilizados na metodologia híbrida variaram a
cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava
para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o
parâmetro K definido o início da primeira janela de calibragem de 250 dias. ...................... 70
Tabela 8 - Resultado do teste de Kupiec com valor crítico de 5% aplicado sobre o VaR
calculado pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a
carteira igualmente ponderada, somente posição comprada, abrangendo o período de
04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia híbrida variaram a cada
100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a
carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K
definido o início da primeira janela de calibragem de 250 dias. ........................................... 74
Tabela 9 - Resultado da aplicação do critério de Pitman para a carteira igualmente ponderada,
comparando dois a dois o ES EWMA, ES Histórico e o ES Híbrido nos dias em que houve
falha comum do VaR nas três metodologias, para as 12 combinações de parâmetros nível
α e tamanho da janela K, abrangendo o período de 04/jul/1994 a 31/out/2003.................. 78
Tabela 10 - Resultado da aplicação do critério de Pitman para as 10 ações mais líquidas da
Bovespa em novembro de 2003, comparando dois a dois o ES EWMA, ES Histórico e o ES
Híbrido nos dias em que houve falha comum do VaR nas três metodologias, para as 12
combinações de parâmetros nível α e tamanho da janela K, abrangendo o período de
04/jul/1994 a 31/out/2003...................................................................................................... 79
xvi
ÍNDICE
1 INTRODUÇÃO............................................................................................... 1
2 REVISÃO DA LITERATURA.......................................................................... 4
2.1
Valor em Risco ...................................................................................... 4
2.2
Medidas Coerentes de Risco................................................................. 5
2.3
Críticas ao Valor em Risco .................................................................... 7
2.4
Expected Shortfall................................................................................ 13
2.5
Metodologia Híbrida do Cálculo do VaR – The Best of Both Worlds ... 19
2.6
Metodologias de Backtesting ............................................................... 22
2.6.1 Critério de Pitman............................................................................. 29
3 METODOLOGIA .......................................................................................... 32
3.1
Amostra ............................................................................................... 32
3.2
Metodologias de Cálculo do VaR e do Expected Shortfall................... 34
3.2.1 Simulação Histórica.......................................................................... 34
3.2.2 Método analítico com utilização do processo EWMA (Exponential
Weighted Moving Average) ....................................................................... 37
3.2.3 Metodologia Híbrida do Cálculo do VaR – The Best of Both Worlds 40
xvii
3.2.4 Proposta de uma Metodologia Híbrida para o Cálculo do Expected
Shortfall – The Best of Both Worlds .......................................................... 45
3.2.5 Obtenção do lambda ótimo .............................................................. 48
3.3
Aplicação do critério de Pitman ........................................................... 53
4 RESULTADOS ............................................................................................ 55
4.1
Valor em Risco e Expected Shortfall pela Metodologia Histórica e
Analítica com uso da Volatilidade EWMA ..................................................... 56
4.2
Valor em Risco e Expected Shortfall pela Metodologia Híbrida – The
Best of Both Worlds ...................................................................................... 69
4.3
Resultados do Critério de Pitman ........................................................ 77
5 CONCLUSÕES............................................................................................ 81
REFERÊNCIAS................................................................................................ 84
1
1 INTRODUÇÃO
No final dos anos 70 e nos anos 80, um grande número de instituições
financeiras nos EUA começou a trabalhar em modelos internos com o objetivo
de agregar riscos incorridos pelas instituições como um todo. Inicialmente as
empresas desenvolviam os modelos com o propósito de administração do
próprio risco e à medida que se tornavam maiores e mais abrangentes, os
sistemas ficavam muito mais complexos, mas ao mesmo tempo mais
importantes.
O mais conhecido desses sistemas é o sistema RiskMetricsTM
desenvolvido pelo banco JP Morgan.
Em outubro de 1994, o banco J.P.
Morgan deu início à popularização no mercado financeiro do Valor em Risco
(VaR-Value at Risk) ao apresentar pela internet e inteiramente grátis, o seu
sistema RiskMetricsTM, que fornecia orientações e dados para o cálculo do
VaR.
O primeiro passo para uma administração de risco mais rígida dado
pelos órgãos reguladores com relação às instituições financeiras foi o
estabelecimento do histórico Acordo de Basiléia de 1988, que definiu
exigências mínimas de capital para tais instituições, como forma de proteção
contra o risco de crédito. Com o tempo o Valor em Risco cresceu tanto em
importância e reconhecimento, que o Comitê de Basiléia publicou em 1996 um
adendo ao Acordo de Basiléia, oferecendo o VaR como uma abordagem
alternativa para exigências de capital baseadas nos modelos internos dos
2
bancos, incorporando definitivamente o conceito dessa medida de risco ao
contexto regulamentar, só que desta vez para fazer face ao risco de mercado.
Isto contribuiu em muito para a disseminação do VaR no mercado financeiro
mundial.
Entretanto, em 1997 alguns pesquisadores definiram o conceito de
medidas coerentes de risco e concluíram que o VaR calculado pela simulação
histórica não seria uma medida coerente de risco por não atender à
propriedade da sub-aditividade, um dos pressupostos da dita coerência. Ao
mesmo tempo definiram o conceito da medida de risco Expected Shortfall, a
qual seria totalmente coerente pelo referido conceito. Esta nova medida de
risco só não teria sido ainda adotada pelo Comitê de Basiléia pela dificuldade
existente em se fazer o seu backtesting.
Na mesma época outros pesquisadores propuseram uma nova
metodologia de cálculo do VaR, chamada de híbrida ou de The Best of Both
Worlds porque misturava e se propunha a aproveitavar o que havia de melhor
na metodologia de simulação histórica e na metodologia analítica com uso da
volatilidade EWMA proposta no RiskMetricsTM.
Surgiu então ao professor Eduardo Facó Lemgruber, a idéia de
associar ao conceito do Expected Shortfall ainda não muito abordado no Brasil,
o conceito da metodologia híbrida que já havia sido aplicada ao VaR, idéia esta
que foi implementada e analisada neste trabalho. Assim, o objetivo principal
deste trabalho de pesquisa é o de analisar a coerência do Valor em Risco e do
Expected Shortfall calculados por três métodos diferentes (metodologia da
3
simulação histórica, metodologia analítica com uso da volatilidade EWMA e
metodologia híbrida), tendo como amostra as ações mais líquidas em
novembro de 2003 do Mercado Brasileiro de Ações, no período que vai do
início do Plano Real até outubro de 2003, analisando e criticando uma inédita
metodologia híbrida para o cálculo do Expected Shortfall.
Uma delimitação do estudo a ser destacada é que não se analisou a
coerência das medidas de risco sob todos os seus quatro aspectos,
procurando-se ater a discussão à propriedade da sub-aditividade que é a
principal crítica ao VaR histórico com relação à sua coerência. A literatura
afirma que o VaR atende aos demais critérios da coerência.
Na seção 2 faz-se uma revisão da literatura dividindo-se por subtópicos conforme o tema ligado à pesquisa, na seção 3 é realizada uma
detalhada descrição da metodologia empregada; os resultados e sua discussão
são abordados na seção 4 e finalizando, as conclusões são apresentadas na
seção 5.
4
2 REVISÃO DA LITERATURA
2.1 Valor em Risco
O VaR é definido como a perda máxima provável num determinando
horizonte de tempo dentro de um determinado nível de confiança. O VaR ao
nível de confiança de 100 (1-α)%, ou nível de significância α%, é definido
como o simétrico do quantil α superior da distribuição dos retornos.
O VaR
fornece aos usuários uma medida concisa do risco de mercado, resumida num
único valor monetário. Por exemplo, diz-se que um VaR de R$ 10 milhões
significa a perda máxima provável das posições da empresa com 95% (1-α) de
probabilidade para um horizonte de tempo de 1 dia, ou seja, há apenas cinco
oportunidades em 100, sob condições normais de mercado, de ocorrer uma
perda acima de R$ 10 milhões.
Usou-se o termo simétrico na definição do VaR porque nesta
dissertação deseja-se obter um valor de VaR positivo, pois se refere a uma
perda máxima provável. Alternativamente, poder-se-ia ter trabalhado com um
VaR de valor negativo, o qual seria interpretado como um retorno mínimo
provável, mas o importante é entender que o significado é o mesmo.
Considerou-se a primeira interpretação como sendo a melhor, daí a sua
adoção. Na literatura são encontradas as duas formas de se interpretar o VaR.
A definição formal de quantil superior ( x (α ) ), quantil inferior ( x(α ) ) e de
VaR é dada em Acerbi e Tasche (2002):
5
x (α ) = inf {x ∈ ℜ Ρ[X ≤ x ] > α }
x(α ) = inf {x ∈ ℜ Ρ[X ≤ x ] ≥ α }
VaR = − x (α ) , ou seja, o simétrico do quantil α superior.
Sendo X a variável aleatória dos retornos de um ativo ou de uma
carteira.
Observando numa curva com a distribuição de probabilidades, se z é
o ponto tal que P[X ≤ z ] é exatamente igual a α, o quantil α inferior será o
próprio z ou um ponto à direita dele, e o quantil α superior será sempre um
ponto à direita de z .
Com a divulgação do sistema RiskMetricsTM e com a adoção dos
modelos internos pelo Comitê de Basiléia em 1996, o VaR tornou-se a principal
ferramenta de gerenciamento de risco das instituições financeiras. Entretanto,
no fim dos anos 90, o VaR passou a ser alvo de críticas que até o momento
ainda não provocaram de forma expressiva a diminuição de sua utilização no
mercado financeiro. Algumas dessas críticas serão abordadas adiante, mas
antes é preciso estudar o conceito de medidas coerentes de risco.
2.2 Medidas Coerentes de Risco
Artzner, Delbaen, Eber e Heath (1997) em um pequeno artigo intitulado
Thinking Coherently da revista Risk, pela primeira vez definem de uma forma
6
sucinta um conjunto de propriedades, as quais uma medida de risco deveria
possuir para ser considerada uma medida coerente de risco.
Já no artigo Coherent Measures of Risk, publicado no periódico
Matematical Finance, os mesmos Artzner, Delbaen, Eber e Heath (1999) são
bem mais completos, com apresentação de provas matemáticas ao tratar dos
axiomas para a definição de medidas coerentes de risco. Meyers (2000) cita
que as idéias do artigo de Artzner et al. (1999) mereciam ser bem entendidas
pelos membros da Casualty Actuarial Society (CAS), porém, afirma que o artigo
de Artzner et al. foi escrito para um público acadêmico com elevado
treinamento em Matemática e Estatística, havendo uma grande dificuldade na
sua leitura e no seu entendimento pelos membros da CAS. Meyers (2000),
então, apresenta as idéias de Artzner et al. (1999) numa linguagem mais
acessível àquele público. Baseando-se nestes artigos, apresenta-se a seguir a
definição de medidas coerentes de risco.
Sejam X e Y variáveis aleatórias representando as perdas de dois
ativos para diferentes cenários e ρ(X), ρ(Y) uma mesma medida de risco
tomada para as duas séries X e Y.
Para ser considerada uma medida coerente de risco, ela deve
apresentar as seguintes propriedades:
1) Sub-aditividade.
ρ ( X + Y ) ≤ ρ ( X ) + ρ (Y )
7
A medida de risco da carteira é menor ou igual à soma das medidas
individuais de risco dos ativos. Neste ponto chama-se a atenção para o fato de
que nesta verificação, os pesos dos ativos na composição da carteira devem
ser aplicados às medidas de risco individuais. A sub-aditividade reflete o efeito
da diversificação das carteiras, ou seja, que a associação de ativos em
carteiras não cria um risco adicional, pelo contrário, pode diminuir o risco.
2) Monotonicidade. Se X ≤ Y , para cada cenário, então:
ρ ( X ) ≤ ρ (Y )
3) Homogeneidade Positiva. Para todo λ ≥ 0 ,
ρ (λX ) = λρ ( X )
4) Invariância de translação. Para toda constante c,
ρ ( X + c) = ρ ( X ) + c
Uma medida de risco que satisfaça a estas quatro propriedades é
chamada de medida coerente de risco. Neste trabalho, será dada atenção
somente à propriedade da sub-aditividade.
2.3 Críticas ao Valor em Risco
O VaR tornou-se uma medida padrão usada no gerenciamento de risco
devido à simplicidade de seu conceito, facilidade computacional e sua imediata
aplicabilidade.
Entretanto, muitos autores têm levantado alguns problemas
8
com relação ao VaR. Artzner et al. (1997, 1999), por exemplo, citaram que o
VaR mede somente percentis da distribuição de lucros e perdas, não
considerando quaisquer perdas além do nível do VaR. Apesar de satisfazer as
propriedades da monotonicidade, homogeneidade e invariância de translação,
o VaR histórico falha no critério da sub-aditividade, não sendo, portanto, uma
medida coerente de risco.
Segundo Yamai e Yoshiba (2002), estes problemas na sub-aditividade
são mais graves quando a distribuição dos retornos não obedece à distribuição
Normal. Quando a distribuição é Normal é mais difícil aparecerem casos de
ausência de sub-aditividade, mas não é impossível. Isto ficou evidente num
exercício feito no programa Matlab: a partir de uma matriz de correlações entre
5 variáveis, de um vetor com 5 preços iniciais, de um vetor com 5 volatilidades
diárias e de outro com 5 retornos médios, foram gerados 5 x 504 preços
segundo o modelo geométrico browniano, utilizando a fatoração de Cholesky
(HULL, 1999).
Calculou-se o VaR histórico utilizando uma janela de 100
retornos para os 5 ativos simulados e mais para a carteira com pesos iguais
nos ativos, para os níveis de confiança de 90%. Este experimento foi repetido
10.000 vezes, obtendo-se no total 405.000 valores em risco para os 5 ativos e
carteira. Só não foi observada a sub-aditividade em pouquíssimos 27 casos.
Outra importante crítica ao VaR é que o risco presente na cauda da
distribuição dos retornos pode trazer sérios problemas práticos em alguns
casos. Yamai e Yoshiba (2002) defendem que a informação dada pelo VaR
pode enganar investidores racionais que procuram maximizar a função de
9
utilidade esperada. Investidores que empregam somente o VaR como medida
de risco estão propensos a construir posições arriscadas que podem resultar
em grandes perdas nos níveis além do VaR. A relevância da falta da subaditividade do VaR vai depender das preferências do administrador de risco
sob o ponto de vista da praticidade, pois há quem já tenha tomado
conhecimento deste problema e nem por isso deixou de utilizar o VaR histórico.
No entanto, com relação às possíveis pesadas perdas na cauda da
distribuição, o problema é de suma importância, pois está relacionado à
insolvência da instituição financeira causada por condições adversas no
mercado, que é um assunto central para a administração de risco das
instituições e para os órgãos reguladores.
Artzner et al. (1999) apresentam em seu artigo dois exemplos teóricos
que demonstram a deficiência do VaR histórico com relação a prever as perdas
presentes na cauda da distribuição e na propriedade da sub-aditividade. Um
dos exemplos trabalha com títulos de renda fixa e o outro com posições
vendidas em opções digitais, ambos não obedecendo à distribuição Normal.
Será reproduzido a seguir, com algumas alterações, o exemplo das posições
vendidas nas opções digitais por ser mais interessante e factível.
Considere duas opções digitais sobre uma ação, ambas com a mesma
data de exercício T. A primeira opção denominada A, com um prêmio inicial u,
paga 1.000 se, e somente se, o valor da ação na data T for maior que U, do
contrário não paga nada. A segunda opção denominada B, com prêmio inicial
λ , paga 1.000 se o valor da ação na data T for menor que L, sendo L<U e
10
(u + λ )<1000, e do contrário, também não paga nada. Uma vez que opções
são ativos não-lineares, é claro que a sua distribuição de lucros e perdas não é
normal, até mesmo se os preços do ativo subjacente obedecem a uma
distribuição Normal.
Suponha que L e U obedeçam a uma distribuição de probabilidade tal
que a probabilidade de S<L = Pr(S>U) = 0,008, sendo S o preço da ação na
data T, no vencimento. Considere dois operadores, A e B, vendendo uma
unidade da opção A e B, respectivamente. Na Figura 1 são apresentados os
gráficos de lucros e perdas da posição vendida nas opções e na carteira
contendo as duas.
O VaR de nível de confiança 99% (1-α) do operador A é zero, pois o
percentil 1% da sua distribuição de lucros e perdas é um lucro igual a u, logo,
seu VaR, sua perda máxima provável com 99% de certeza é zero.
Similarmente, o VaR de 99% do operador B é zero, pois o percentil 1% de sua
distribuição de retornos é um lucro igual a λ, o que resulta em VaR = 0. Este é
um claro exemplo de elevado risco presente na cauda da distribuição, ou seja,
o VaR não capta na cauda esquerda da distribuição as possíveis elevadas
perdas das opções A e B, pois a probabilidade da perda é menor do que o α
(0,01).
11
Figura 1
Lucros e perdas da posição vendida nas opções digitais A e B e na
carteira vendida nas duas opções. A opção A, vendida por u, paga 1.000
se o preço do ativo subjacente S for maior que o preço de exercício U,
enquanto a opção B, vendida por λ, paga 1.000 se S < L.
Lucros/Perdas
Pr(L<S<U)=0,984
u+λ
+λ
+u
-B
L
Pr(S<L)=0,008
-1000+λ+u
-1000+λ
-1000+u
U
S
Pr(S>U)=0,008
-(A+B)
-A
Entretanto, o VaR de 99% da carteira representada pela posição
vendida em A e B ao mesmo tempo, é de (1000 – u – λ), uma vez que este é o
simétrico de seu percentil 1%, pois Pr(S>U ou S<L) = 0,016, o que é maior do
que o α (0,01).
Logo, uma vez que VaR(A) + VaR(B) < VaR(A+B),
0+0 < (1000-u-l), fica claro neste exemplo que o VaR nem sempre é subaditivo. O Quadro 1 a seguir apresenta os lucros e perdas das opções.
12
Quadro 1
VaR ao nível de confiança de 99% e lucros e perdas da posição vendida
nas opções digitais A e B e na carteira vendida nas duas opções. A
opção A, vendida por u, paga 1.000 se o preço do ativo subjacente S for
maior que o preço de exercício U, enquanto a opção B, vendida por λ,
paga 1.000 se S < L.
Preço
da Ação
S<L
L ≤ S ≤U
U<S
Probabilidade
-A
-B
- (A + B)
0,008
0,984
0,008
u
u
-1000+u
0
-1000+u+λ
-1000+u+λ
u+λ
-1000+u+λ
1000-u-λ
VaR
λ
λ
0
Yamai e Yoshiba (2002) demonstram que a administração do risco com
base somente no VaR pode aumentar a concentração em títulos de crédito,
pois o VaR não leva em conta o aumento do risco de grandes perdas devido a
esta concentração, o mesmo ocorrendo no exemplo das opções digitais.
Baseando-se somente no VaR de 1%, um investidor pode vender a opção A,
por exemplo, acreditando que seu risco é baixo pelo fato de o VaR ser zero.
Isto ocorre porque ele não está considerando as perdas além do VaR.
Daníelsson (2002) também reforça que o embasamento do VaR num simples
quantil da distribuição de lucros e perdas implica facilidades na manipulação do
risco com estratégias engenhosamente montadas.
O VaR calculado da forma analítica não apresenta o problema de não
ser sub-aditivo, uma vez que, assumindo a normalidade dos retornos, o VaR é
sempre um múltiplo do desvio-padrão, o que satisfaz a sub-aditividade, pois o
desvio-padrão atende sempre à sub-aditividade conforme é demonstrado por
Yamai e Yoshiba (2002).
O VaR calculado da forma analítica para cada
13
unidade monetária investida e assumindo a normalidade, é o simétrico do
produto da volatilidade ( σ ) pela inversa da função distributiva acumulada da
Normal Padrão para o nível de significância α desejado ( Φ −1 (α ) ).
VaR = −σ × Φ −1 (α )
2.4 Expected Shortfall
De acordo com o dicionário Merrian-Webster Online, shortfall é o valor
ou tamanho de uma falha.
Para aliviar os problemas de falta de sub-aditividade e de não
considerar as perdas presentes na cauda inerentes ao VaR, Artzner et al.
(1997, 1999) propuseram o uso do Expected Shortfall (ES). Expected Shortfall
é definido como uma esperança condicional, é a expectativa de perda dado
que a perda foi maior do que o VaR, definição ilustrada na Figura 2 adiante.
Algumas variantes de Expected shortfall têm sido encontradas na literatura,
apresentando pequenos detalhes de um nível matemático bem profundo que
diferenciam uma definição da outra, aparecendo inclusive com terminologias
diferentes. Porém, todas procuram obter basicamente a expectativa de perda
uma vez que esta supera o VaR.
Acerbi & Tasche (2001, 2002) avaliam
algumas destas diferentes definições dadas por diferentes autores, tais como
Tail Conditional Expectations, Conditional Value-at-Risk, Tail Mean e Expected
Shortfall, concluindo que a maioria delas leva a resultados semelhantes no que
tange à obtenção da desejada sub-aditividade quando aplicadas a distribuições
14
contínuas de lucros e perdas. Entretanto, quando a distribuição de resultados
apresenta descontinuidade, estas diferentes definições de ES nem sempre
serão sub-aditivas. Concluem ainda que a definição generalizada dada por
Acerbi e Tasche (2001) para o ES é a única que é robusta no sentido de
apresentar sempre a sub-aditividade, independentemente da distribuição de
probabilidade por trás dos retornos.
A definição formal generalizada de Expected Shortfall descrita em
Acerbi e Tasche (2001, 2002), considerando o corolário 4.3 de Acerbi e Tasche
(2002) é dada por:
ES (α )
[
(
[
])
 Ε X Ι {X ≤ x (α ) } + α − Ρ X ≤ x (α ) x (α )
= −
α

[
[
]


]
 Ε X Ι {X ≤ −VaR(α ) } − (α − Ρ X ≤ −VaR(α ) )VaR(α )
= −
α

]


Onde:
X = série de retornos da janela considerada, é a variável aleatória dos
retornos;
Ι {condição} = função indicadora, que é 1 se a condição entre as chaves é
verdadeira e 0 caso não seja.
x (α ) = quantil α superior, definido anteriormente.
15
Quando a distribuição dos retornos é contínua, P[X ≤ −VaR] = α , e a
equação anterior se reduz para:
[
ES (α ) = −Ε X X ≤ −VaR(α )
]
Informalmente, enquanto o VaR histórico ao nível de confiança de 95%,
por exemplo, é o simétrico do percentil 5% de uma distribuição de retornos, o
ES é o simétrico da média dos 5% piores retornos, sendo, portanto, um valor
sempre maior do que o VaR conforme se observa na Figura 2 a seguir,
analisando-se sob a ótica da perda, do valor absoluto. Então, o ES leva em
conta a magnitude da perda além do VaR, enquanto o VaR não contém esta
informação conforme Kerkhof e Melenberg (2003).
Figura 2
Função Densidade de Probabilidade (pdf) dos lucros e perdas com
distribuição Normal, e representação do VaR e do Expected Shortfall,
obtidos ao nível de significância de α%.
16
Conforme Yamai e Yoshiba (2002) e Kerkhof e Melenberg (2003),
quando a distribuição por trás da geração dos retornos é conhecida e esta não
precisa ser necessariamente a Normal, o ES e o VaR são múltiplos um do
outro, porque ambos são múltiplos da volatilidade. Conforme o trabalho desses
autores, para a distribuição Normal, o ES é dado pela fórmula:
ES (α ) =
φ (Φ −1 (α ))
α
Sendo φ a função densidade da distribuição Normal padrão, Φ a
função distributiva acumulada da Normal padrão e α o nível de significância.
A partir desta fórmula, entendeu-se no presente trabalho que quando a
distribuição dos retornos é a Normal, a relação entre o VaR e o ES é dada por:
ES (α )
 − VaR(α ) 

φ 
σ
φ (Φ (α ))

 ×σ ,
=
×σ =
α
 − VaR(α ) 

Φ
 σ

−1
Sendo σ a volatilidade do ativo e o VaR(α ) = −Φ −1 (α )× σ .
O ES ao nível de α% corresponderá ao VaR a um determinado nível
β%, sempre menor que α%. Por exemplo, considerando-se a distribuição
Normal, o ES ao nível de 2,5% (o ES calculado considerando-se como
condição o VaR de 2,5%) tem o mesmo valor que o VaR ao nível de 1%.
Obteve-se então a relação entre o α e o β para a distribuição Normal:
17
[
]
φ Φ −1 (α ) 
β = 1 − Φ

α


Da mesma forma, se considerarmos para os retornos uma outra
distribuição conhecida como a distribuição Uniforme U(0,1), haverá uma
equivalência entre o ES a um nível α e um VaR a um nível β. O ES ao nível de
5% será igual ao VaR ao nível de 2,5%, por exemplo.
Yamai e Yoshiba (2002) também analisaram as implicações práticas do
uso do VaR e do ES para o gerenciamento do risco em Finanças. Conforme
visto anteriormente, concluíram que a informação dada pelo VaR pode orientar
mal investidores que querem maximizar a sua função utilidade, pois se
baseando somente no VaR podem estar construindo uma perigosa posição que
resultaria numa elevada perda nos níveis além do VaR.
Usando o ES,
investidores poderiam diminuir este problema, dado que estariam considerando
também as perdas além do VaR. Para estes autores, a efetividade do ES,
entretanto, ainda depende de se obter estabilidade na estimação de seu valor e
da escolha de eficientes métodos de backtesting. É mais difícil de testar o ES
do que o VaR e este é um dos motivos pelos quais o ES ainda está ausente do
acordo de Basiléia.
O VaR é a medida mais utilizada para calcular o capital econômico na
administração de risco financeiro, sendo também adotado pelos órgãos
reguladores para as exigências de capital devido à sua simplicidade conceitual:
o VaR ao nível de significância de 1% corresponde ao capital necessário para
manter a probabilidade de insolvência da empresa abaixo de 1%. Por outro
18
lado, o Expected Shortfall mede na média quanto se pode perder nos níveis
além do VaR. Como por definição o ES é maior do que o VaR, o cálculo do
capital econômico usando o ES é mais conservador do que usando o VaR.
Todavia, para Yamai e Yoshiba (2002) o capital econômico calculado pelo ES
fica difícil de ser interpretado com relação à probabilidade de insolvência da
instituição. Diferentemente do VaR, o ES não corresponde necessariamente ao
capital necessário para manter a probabilidade de quebra da empresa abaixo
de um determinado nível.
Ramos, Santos e Lemgruber (2002) estudaram para uma amostra da
ação Petrobrás, o comportamento do Expected Shortfall, ou BvaR (Beyond
VaR), que é como se referem à medida de risco no artigo, calculado pelo
método histórico e pela aproximação normal, concluindo que à medida que o
nível de confiança é aumentado, o BVaR calculado pelo método histórico tende
a divergir do VaR, enquanto que pela aproximação normal o BVaR tende a
convergir para o VaR.
Entende-se que se adotando uma conhecida
distribuição de retornos, há uma relação entre o VaR e o ES conforme
explicado anteriormente.
Analisando as perdas esperadas além do VaR
utilizando a mesma amostra, observaram ainda que as menores razões (BVaR
– VaR)/VaR foram obtidas pelo método normal, indicando que na distribuição
empírica as perdas esperadas em caso do VaR ser ultrapassado são muito
mais dispersas além do VaR do que o previsto pela distribuição Normal.
Longin (2001) é outro autor que afirma que enquanto o VaR se foca na
freqüência de ocorrência de valores extremos, o Expected Shortfall se utiliza
19
tanto da freqüência das falhas (denominador) como do tamanho das perdas
que ultrapassam o VaR (numerador), o que fica evidente na média aritmética
presente em sua fórmula. Conclui que o ES pode não convergir, mas, sim,
situar-se mais próximo do VaR, como ocorre em distribuições normais, ou ficar
mais afastado, como ocorre em distribuições com caudas gordas (fat tail).
De acordo com Longin (2001), uma dificuldade na implementação de
medidas de risco baseadas na cauda da distribuição dos retornos como o
Expected Shortfall, é a pouca quantidade de informações. Por exemplo, o ES
estimado com a distribuição empírica envolve somente poucas observações da
amostra e a média calculada com poucas observações pode resultar numa
elevada estimativa desta medida de risco.
2.5 Metodologia Híbrida do Cálculo do VaR – The Best of Both
Worlds
A abordagem híbrida de cálculo do VaR, apresentada em Boudoukh,
Richardson e Whitelaw (1998), combina as duas abordagens mais utilizadas de
estimação do VaR, que são a simulação histórica e o método analítico
RiskMetricsTM com o cálculo da volatilidade EWMA (Exponential Weighted
Moving Average), propondo-se a herdar o que há de melhor nas duas.
A utilização do alisamento exponencial (EWMA), aplicando-se pesos
exponencialmente decrescentes a retornos passados, tem a vantagem de
capturar o comportamento cíclico da volatilidade dos retornos. Entretanto, esta
metodologia tem a desvantagem de pressupor a hipótese de normalidade dos
20
retornos, estando em desacordo com as séries de dados financeiros, que
geralmente apresentam caudas gordas e assimetria.
Como previamente
documentado por Kendall (1953), Mandelbrot (1963) e Fama (1965), a
suposição de normalidade é pouco realista, à medida que a distribuição dos
retornos das séries financeiras parece tender para caudas mais gordas do que
a da distribuição Normal. Com isso, a suposição de normalidade produz uma
subestimação do Valor em Risco.
Duffie e Pan (1997) apontam que as
possíveis causas para a existência das caudas gordas nas séries financeiras
são a presença de saltos, que representam mudanças descontínuas nos
preços.
Já a metodologia da simulação histórica não faz hipóteses acerca da
distribuição dos retornos. Ela estima percentis diretamente sobre a distribuição
histórica dos retornos a fim de obter o VaR, considerando dessa forma, as
caudas gordas e assimetrias por ventura existentes na distribuição empírica.
Todavia, apresenta dois grandes problemas: a dificuldade de estimar percentis
extremos quando há poucos dados e o fato de não considerar que a
volatilidade varia com o tempo ao pressupor que os retornos são
independentes e identicamente distribuídos (iid)1. Fierli (2002) ressaltou que
esta suposição é violada pelas evidências de cluster de volatilidade e que esta
violação leva a uma inconsistência na estimativa do Valor em Risco.
Papageorgiou e Paskov (1999) também apontaram algumas críticas ao método
1
Independent and identically distributed. Identicamente distribuída significa que a probabilidade
de ocorrência de uma específica perda é a mesma para cada dia. Independência implica que a
escala do movimento do preço em um período não influenciará o movimento de preços
subseqüentes.
21
de simulação histórica, dentre elas a suposição de que a distribuição passada
dos retornos pode representar a futura distribuição, ou seja, o método
considera a distribuição como estacionária, além de apresentar uma grande
sensibilidade dos resultados em relação à extensão do período histórico.
Jorion (1997) também acrescenta como críticas o fato de o método não tratar
de forma adequada as situações de volatilidade temporariamente elevada e o
fato de o método ponderar igualmente todas as observações na janela,
inclusive os dados mais antigos. O uso de uma janela histórica maior resolveria
o primeiro problema, o da dificuldade de estimar percentis extremos com
poucos dados, ao mesmo tempo em que deixaria sem solução o segundo, o da
consideração que a volatilidade não varia com o tempo, pois a única maneira
de atribuir mais peso a informações mais recentes na abordagem da simulação
histórica pura e simples, é através da utilização de janelas históricas mais
curtas.
Enquanto na simulação histórica atribuem-se pesos iguais a cada
observação da janela considerada, na abordagem híbrida do melhor dos dois
mundos, atribuem-se pesos exponencialmente decrescentes aos retornos
históricos. Logo, enquanto na simulação histórica a obtenção do VaR de 1%
com a utilização de uma janela de 250 retornos diários implica identificar a
terceira menor observação, isso pode significar mais ou menos observações na
abordagem híbrida.
O número exato de observações vai depender de os
retornos extremamente baixos terem sido verificados num período mais recente
ou mais distante no tempo, o que ficará bem claro na seção Metodologia.
22
Os resultados empíricos em Boudoukh et al. (1998) mostraram
significativas melhorias no desempenho estatístico da metodologia híbrida em
relação à metodologia do RiskMetricsTM e da simulação histórica, o que foi
ainda mais expressivo nos ativos cuja distribuição dos retornos apresentava
caudas gordas.
Pritsker (2001) afirmou que o método híbrido parecer ser o remédio
para os principais problemas dos métodos de simulação histórica porque
muitas grandes perdas são imediatamente refletidas no VaR, mas conclui
dizendo que, infelizmente, o método híbrido não se comporta tão bem. Tanto a
simulação histórica como o método híbrido assumem implicitamente que o que
acontece na cauda superior da distribuição de lucros e perdas (lucros) não traz
nenhuma informação para a cauda esquerda (perdas), que é de onde é tirado o
VaR. Isso significa que os grandes lucros nunca refletem num aumento na
dispersão do retornos usando este dois métodos, o histórico e o híbrido.
A revisão do método híbrido tem dois propósitos: será analisado neste
trabalho a sub-aditividade desta medida no mercado brasileiro de ações e será
proposta uma metodologia híbrida de cálculo do Expected Shortfall, a exemplo
do que foi realizado com o VaR por Boudoukh et al. (1998).
2.6 Metodologias de Backtesting
De acordo com Yamai e Yoshiba (2002), a medida de risco Expected
Shortfall só não foi ainda recomendada pelo Comitê de Basiléia devido às
dificuldades de se fazer o seu backtesting. Apesar de o VaR não satisfazer o
23
critério da sub-aditividade, ele ainda é a medida de risco mais recomendada
pelos órgãos reguladores porque é uma medida de risco que possui amplos,
fáceis e bem difundidos processos de backtesting, sendo o mais conhecido
aquele desenvolvido em Kupiec (1995).
O backtesting do Expected Shortfall poderia ser feito comparando-se a
média das perdas realizadas além do nível do VaR com a perda média
estimada, o ES. Isto iria requerer mais dados do que o backtesting do VaR,
uma vez que a perda além do VaR não é muito freqüente, o que torna difícil
estimar com precisão a média dessas perdas. Para o VaR bastaria contar as
falhas, para o ES é necessário calcular uma média, o que requer mais dados
caso se deseje ser preciso.
Kerkhof e Melenberg (2003) afirmam que tanto o VaR como o Expected
Shortfall são métodos baseados em níveis de confiança, o que significa que
primeiramente é preciso escolher um nível α, e a medida de risco dependerá
da correspondente cauda esquerda da distribuição de lucros e perdas. Como o
interesse é proteger-se contra adversidades nas condições do mercado,
normalmente estes níveis são baixos como 5 e 1%, que é o nível escolhido
pelo Comitê de Basiléia em 1996. Caso se comparassem os resultados do
backtesting do Expected Shortfall e do Valor em Risco calculados com um
mesmo nível α num teste como o de Kupiec, encontrar-se-ia que o VaR
apresenta um desempenho superior, ainda que o ES seja um valor mais
conservador. Ou seja, o número de falhas do VaR se encaixaria melhor entre
os limites de Kupiec do que o número de falhas do ES, que seria um número
24
de falhas menor por ser o ES uma medida mais conservadora. Entretanto,
para uma comparação válida dos resultados de um backtesting como esse,
deve-se olhar para os quantis, z=-2,33, por exemplo, e não para os níveis,
α=1%, por exemplo. Fazendo isso para a distribuição Normal, encontra-se que
o ES de nível α = 2,5% equivale ao VaR de α = 1%.
Contudo, nesta pesquisa entendeu-se que não há muito sentido em
comparar o Expected Shortfall com o retorno efetivo verificando se houve falha,
uma vez que o ES é uma esperança condicional, ele não se propõe a dizer a
probabilidade de falhas e conseqüentemente, dizer a quantidade esperada de
falhas. Já o VaR de α = 5% sugere a idéia de que haverá falhas em 5% dos
casos. O ES simplesmente dá uma expectativa da perda caso a mesma supere
o VaR.
Testes pontuais como o de Kupiec (1995) verificam somente se o VaR
falhou ou não falhou, e não o tamanho da falha. Transformando a informação
da distribuição de lucros e perdas em somente uma de suas características, no
caso se o VaR foi violado ou não, se falhou ou não falhou, perdem-se
relevantes informações contidas na distribuição, como o tamanho da falha, por
exemplo.
Simplesmente contar o número de violações por ano usa muito
pouca informação sobre os dados.
Dessa forma, há muitos modelos em
Finanças e Economia que envolvem estimativas que não podem ser resumidas
por um simples ponto da distribuição de probabilidades prevista. Christoffersen
(1998) enfatiza que sendo intervalos de previsão, há mais informações nos
intervalos do que num simples ponto, propondo métodos para avaliar previsões
25
de intervalos. Estes métodos rebatem de uma certa forma o argumento de
Kupiec (1995) de que conjuntos extensos de dados são necessários para
verificar a precisão dos modelos. Contudo, Lopez (1999) afirma que até os
métodos de avaliação de intervalos permanecem sendo dependentes de vasta
quantidade de dados, uma vez que somente observam se uma violação ocorre
ou não, e o tamanho da violação.
Os modelos podem também ser testados com bastante precisão
examinando-se muitos de seus percentis, o que levado ao extremo significa
avaliar toda a distribuição de probabilidades prevista, comparando-se todo
percentil da previsão com os dados efetivamente realizados.
Apesar de
algumas técnicas estarem atualmente disponíveis para testar intervalos ou
previsões de distribuição de probabilidade, os métodos existentes tendem a
apresentar baixo poder em amostras de pequeno tamanho, o que ocorre com
freqüência.
Partindo dos trabalhos de Crnkovic e Drachman (1996) e de Diebold,
Gunther e Tay (1997), Berkowitz (2001) apresenta uma nova maneira de
avaliar modelos baseando-se na análise de toda a distribuição de probabilidade
prevista, fazendo com que a informação contida na previsão acerca da
distribuição de retornos combinada às realizações ex-post seja suficiente para
construir um teste robusto até com pequenas amostras de poucas 100
observações.
Berkowitz (2001) introduz uma extensão da transformação de
Rosenblatt (1952) que produz sob a hipótese nula, variáveis iid conforme a
26
distribuição N(0,1), o que permite a estimação da verossimilhança gaussiana e
a construção de testes estatísticos baseados na verossimilhança que são
convenientes, flexíveis e que possuem boas propriedades com relação ao
tamanho da amostra. Apresentam-se a seguir as bases para o teste de
Berkowitz (2001).
Seja Φ −1 (⋅) a inversa da função de distribuição da Normal Padrão, F (⋅)
a função de distribuição prevista no seu modelo e y a série de dados
efetivamente realizados, a extensão da transformação de Rosenblatt (1952) é
dada por: z t = Φ −1 [F ( yt )], sendo z t os dados transformados. Sob a hipótese
nula de que a distribuição que você está prevendo é igual à distribuição dos
dados realizados, z t é distribuído conforme a Normal (0,1).
Como sob a
hipótese nula, z t é N(0,1), uma grande variedade de testes pode ser construída
para se verificar se os z t gerados são realmente N(0,1). Em particular, a
hipótese nula pode ser testada contra uma alternativa auto-regressiva de
primeira ordem com média e variância possivelmente diferente de (0,1). Podese escrever:
z t − µ = ρ (z t −1 − µ ) + ε t
Sendo µ a média da sua amostra, ρ a auto-correlação de lag 1. Se a
hipótese nula é verdadeira, ρ =0 e var( ε t )=1. A função de log-verossimilhança
associada à função acima é dada por:
27
2
 σ 2   z1 − µ 
 
ln

T 
1 − ρ 2   1 − ρ 
(z t − µ − ρ z t −1 )2 
ln (2π )
T −1
T −1

2
−
−
−
−
ln
(
2
)
−
ln
−
π
σ


∑
2
2
2
2
2σ 2
2σ 2
t =2 


2
1− ρ
( )
Sendo σ 2 a variância do erro e T, o tamanho da amostra. Para testar
a hipótese nula de que z t é N(0,1), concentra-se no seguinte teste da razão de
verossimilhança:

 ∧ ∧ 2 ∧ 
LR = −2  L(0,1,0 ) − L µ , σ , ρ 



∧
∧ 2
∧
Sendo µ , σ , ρ , os valores estimados dos dados após a transformação.
Sob a hipótese nula, este teste estatístico é distribuído conforme a distribuição
Qui-quadrada com 3 graus de liberdade.
Entretanto, em muitos casos os administradores de risco estão
interessados exclusivamente na precisão da descrição do comportamento das
caudas da distribuição, não se interessando em modelos que rejeitem o seu
Expected Shortfall com base em discrepâncias por ventura existentes no meio
de sua distribuição prevista.
Então, Berkowitz propõe um teste que
intencionalmente ignora falhas do modelo que estão limitadas ao interior, no
meio da distribuição, ou seja, não situadas nas caudas. Em outras palavras, o
formato da cauda da distribuição estimada é comparado com a cauda dos
dados efetivamente observados. Quaisquer observações que não caiam na
cauda serão intencionalmente truncadas. Por exemplo, pode-se escolher como
28
limite um VaR = -1,64 (sob a ótica de retornos e não perdas) para focar a
cauda até o percentil 5%. Então a nova variável de interesse será:
VaR se z t ≥ VaR
z t* = 
 z t se z t < VaR
E a função de log-verossimilhança L (log-likelihood) da cauda será:
(
2

1
 1
 VaR − µ 
− ln 2πσ 2 −
z t* − µ  + ∑ ln 1 − Φ

2

2σ
 zt* =VaR 
 σ

zt* <VaR  2
) ∑
L µ ,σ / z * =
(
)
(
)
Esta expressão contém observações contidas na cauda da distribuição.
Os dois primeiros termos representam a usual verossimilhança gaussiana das
perdas. Testes baseados nesta expressão podem ser mais poderosos do que
abordagens tradicionais, permitindo ainda aos usuários ignorarem falhas que
podem não interessar por se localizarem no interior da distribuição. Para
construir um teste de razão de verossimilhança, a hipótese nula requer
novamente que µ = 0 e σ 2 = 1 e pode-se avaliar uma verossimilhança restrita,
∧
∧ 2
L(0,1) , com uma irrestrita, L( µ , σ ) . Então a razão de verossimilhança da
cauda será:
LRcauda
∧ ∧ 2 

= −2 L(0,1) − L( µ , σ ) 


Sob a hipótese nula, este teste estatístico é distribuído conforme a Quiquadrada com 2 graus de liberdade. Neste trabalho será aplicado o teste de
razão de verossimilhança caudal proposto por Berkowitz.
29
A conclusão a que se chega é que o teste de Berkowitz, assim como
outros testes encontrados na literatura, os quais se propõem a ser um bom
backtesting para o Expected Shortfall, estão, na verdade, avaliando se a
previsão que se faz acerca da distribuição de retornos é boa ou não. Ora, se
você prevê com boa precisão a distribuição dos retornos, a medida de risco
que você calcula por um método analítico em que faz suposições acerca da
distribuição de retornos, seja VaR ou ES, terá um bom desempenho naquilo a
que ela se propõe: o VaR a acertar a perda máxima com um determinado nível
de confiança e o ES a ter uma boa previsão da perda quando o VaR é
ultrapassado. Agora, quando se utiliza a própria distribuição empírica para
calcular a medida de risco, que é o que se faz bastante nesta pesquisa com a
metodologia de simulação histórica e com a híbrida, estes testes se tornam
difíceis de se aplicar, ou até mesmo inadequados.
2.6.1 Critério de Pitman
Além de se pretender testar se o Expected Shortfall está sendo uma
boa medida de risco, neste trabalho será verificado qual dos Expected
Shortfalls calculados de diferentes maneiras mais se aproxima da perda efetiva
quando o VaR falha. Fazendo isso, será possível analisar se uma metodologia
de cálculo do ES é melhor do que outra no sentido de obter resultados que se
aproximam mais da perda efetiva uma vez que o VaR tenha falhado. Para
isso, utilizou-se uma medida de afastamento conhecida como critério de
Pitman.
30
Sejam T1 e T2 estimadores do mesmo parâmetro θ calculados por
metodologias diferentes. Pitman (1937) apresentou o seguinte conceito de
proximidade: dizemos que T1 está mais próxima de θ
do que T2 se
P(T1 − θ < T2 − θ ) > 1 . Em seu artigo, Pitman realmente encontrou melhores
2
estimadores de acordo com esta regra.
Embora aparentemente natural, por um longo período este critério não
atraiu muita atenção entre estatísticos, o que provavelmente ocorreu devido a
dificuldades computacionais. Para um trabalho mais recente, veja Mendes e
Merkle (2001) que também se referem a Johnson (1950). Realmente, para
decidir qual é o melhor estimador entre dois competidores de acordo com o
critério de Pitman, só precisamos conhecer a distribuição conjunta de ( T1 , T2 ), o
que poderia ser um requerimento forte, visto que usualmente T1 e T2 não serão
independentes, uma vez que dependem das mesmas observações. O artigo
de Rao (1981) marcou o renascimento do critério de Pitman, considerando-o
uma alternativa ao erro médio quadrático. Depois do artigo de Rao, muitos
estatísticos começaram a explorar o critério de Pitman e suas propriedades, e
parece que agora este critério é uma ferramenta bem reconhecida e familiar em
teoria e aplicações. (ABRAMOVITZ, 2001)
De acordo com a definição de Rao (1981), T1 está mais próximo de θ
que T2 se P(T1 − θ ≤ T2 − θ ) ≥ 1 . Quando T1 é mais próximo de θ do que T2
2
de acordo com as definições acima, então dizemos que T1 é p-melhor que T2
31
ou T1 φ T2 .
A seguir são apresentadas algumas propriedades do critério de
Pitman:
• O tamanho dos desvios é irrelevante. Esta propriedade diferencia o
critério de Pitman entre outros métodos: ele leva em consideração apenas o
tamanho relativo dos desvios, e então registra somente qual estimador está
freqüentemente mais próximo do verdadeiro valor do parâmetro.
Este é
certamente um grande avanço sobre grandes penalidades a elevados desvios
quando se usa o erro médio quadrático.
• Não-transitividade. Transitividade significa que se T1 é p-melhor que
T2 e T2 é p-melhor que T3 , então T1 deve ser p-melhor que T3 . Isto nem
sempre é satisfeito quando comparamos estimadores por certos números
associados a cada um deles, no caso a probabilidade de um se aproximar mais
do parâmetro verdadeiro do que o outro. Uma vez que o critério de Pitman
compara apenas dois estimadores de cada vez, fica claro que eles não
precisam ser transitivos, mas quando se comparam três ou mais estimadores,
que é o que será feito neste trabalho, a falta de transitividade pode ocorrer, ou
seja, é possível que T1 φ T2 e T2 φ T3 , porém, T3 φ T1 .
32
3 METODOLOGIA
3.1 Amostra
Obteve-se pelo site da Bolsa de Mercadorias e Futuros (BM&F), a
composição da carteira do Ibovespa em 10/11/2003.
Foram obtidos do
provedor de informações Economática, optando-se pela série corrigida para
eventos, os preços de fechamento das dez ações de maior peso no Ibovespa,
consideradas por isso as mais líquidas, e que ao mesmo tempo possuíssem
dados disponíveis desde o início do Plano Real, em 04/07/1994. O cuidado em
se escolher a correta alternativa do Economática (série corrigida para eventos),
assegura que a série de retornos logarítmicos a ser calculada a partir dos
preços não estará indevidamente influenciada por eventos tais como: splits ou
desdobramentos, distribuição de dividendos e agrupamentos, entre outros
eventos.
Nos dias em que não havia informação de preço para uma determinada
ação, seja por ela não ter sido colocada em negociação naquele dia ou por
realmente não terem ocorrido negócios com a mesma, repetiu-se o preço de
fechamento do dia útil imediatamente anterior, acarretando um retorno igual a
zero no dia em questão.
Entretanto, esta ausência de dados não foi
expressiva: para um total de 2.311 dias com preços de fechamento no período
supramencionado, o pior caso ocorreu na ação PETR3, com 18 ausências de
dados, seguida de ELET3, com 7 ausências, e PETR4 com 4 ausências.
33
Considerou-se que a repetição do preço anterior na ação com ausência de
cotação num determinado dia, era preferível à eliminação de todos os dados
referentes às outras ações relativos àquele dia.
A Tabela 1 apresenta as ações que foram selecionadas com a
respectiva participação relativa na composição do Ibovespa em 10/11/2003.
Tabela 1
Ações mais líquidas selecionadas do Ibovespa de forma que contivessem
dados desde 04/07/1994 até 31/10/2003 e a sua respectiva participação
relativa na composição do índice em 10/11/2003.
Código da
negociação
Descrição
da ação
Especificação da
ação
Participação
relativa
PETR4
PETROBRAS
PN
8,145%
ELET6
ELETROBRAS
PNB*
4,443%
BBDC4
BRADESCO
PN *EJ
4,391%
CMIG4
CEMIG
PN *
3,095%
ITAU4
ITAUBANCO
PN *EJ
3,024%
VALE5
VALE R DOCE
PNA
2,871%
PETR3
PETROBRAS
ON
2,330%
USIM5
USIMINAS
PNA
2,124%
CSNA3
SID NACIONAL
ON *
2,032%
ELET3
ELETROBRAS
ON *
1,603%
Foram excluídas da amostra por não apresentarem dados desde
04/07/1994 ou por não os apresentarem até 31/10/2003, apesar de se
encontrarem entre as ações mais líquidas da Bovespa, as ações da Telemar
(TNLP3 e TNLP4), Embraer Par (EBTP4), Telesp Cel (TSPP4), Net (PLIM4),
34
Tele CTR OES (TCOC4), Brasil Telecomunicações (BRTO4), Copel (CPLE6) e
Brasil T Participações (BRTP4).
É possível que se suspeitasse que a amostra selecionada estivesse
influenciada pelo viés da sobrevivência descrito por Haugen & Baker (1996),
porém, esta questão não se aplica ao presente trabalho, uma vez que não se
está analisando empresas, mas sim, características de determinadas medidas
de risco.
3.2 Metodologias de Cálculo do VaR e do Expected Shortfall
Nesta seção serão apresentadas as metodologias utilizadas para o
cálculo do VaR e do ES. Dentre elas é apresentada a proposta para o cálculo
do ES por intermédio de uma metodologia híbrida que se utiliza do método
histórico e do analítico com uso da volatilidade EWMA, analogamente ao que
foi proposto por Boudoukh et al. (1998) para o cálculo do VaR. Ressalte-se
que para o VaR híbrido e, conseqüentemente, para o ES híbrido proposto, não
foi utilizada a metodologia exatamente da forma apresentada em Boudoukh et
al. (1998), mas sim, uma metodologia ligeiramente modificada, conforme será
demonstrado com as devidas razões.
3.2.1 Simulação Histórica
O método da simulação histórica se baseia em informações passadas
para fazer estimativas com relação aos retornos futuros.
Observa-se uma
35
janela K de retornos passados, estima-se que ela seja a distribuição futura dos
retornos e a partir dela obtém-se o VaR histórico.
De acordo com a definição de Acerbi e Tasche (2002), o quantil
superior e o VaR são obtidos pelas seguintes equações, sendo o VaR o
simétrico do quantil α superior.
x (α ) = inf {x ∈ ℜ Ρ[X ≤ x ] > α }
VaR(α ) = − x (α )
Sendo X a variável aleatória dos retornos de um ativo ou de uma
carteira.
Observando numa série ordenada de retornos passados X , se z é o
retorno tal que P[X ≤ z ] é exatamente igual a α, o quantil α superior será
sempre o primeiro retorno à direita de z .
Conforme a definição de Lopes (1999), o p-ésimo percentil tem no
mínimo p% dos valores abaixo daquele ponto e no mínimo (100-p)% dos
valores acima. Assim, utilizou-se para o VaR histórico de nível de significância
α, a função percentil do Excel que se utiliza daquela definição de Lopes (1999).
Para obter o percentil α, o Excel ordena a janela com K observações
em ordem crescente de valores, define como 0% a posição da observação de
ordem 1, e 100% a posição da observação de ordem K, conforme a Figura 3.
36
Figura 3
Relação linear entre o percentil e a ordem da série de K valores
ordenados em ordem crescente de valor.
Percentil
100%
p
0%
1
x
n
Ordem da série
A posição x correspondente ao percentil α, que será o VaR ao nível α,
é obtida pela equação:
α
x = (K − 1)
+1
100
Se x resultar num número inteiro, o VaR histórico será o simétrico do
retorno correspondente a esta posição x. Quando x não for um número inteiro,
faz-se a interpolação linear entre o retorno anterior e o posterior à posição x, e
o VaR histórico será o simétrico deste valor interpolado.
Para o cálculo do Expected Shortfall na metodologia histórica utilizouse a equação:
ES = −Ε[X X ≤ −VaRhist ]
37
Assim, o ES é o simétrico da média aritmética dos retornos inferiores
ou iguais ao simétrico do VaR histórico. Não houve problemas em não se
utilizar a definição generalizada para o ES descrita na seção 2.4, porque em
todas as séries de janela K dos retornos dos ativos e da carteira, havia no
máximo um retorno igual ao simétrico do VaR histórico.
Esta definição
reduzida só apresenta problemas para séries discretas em que mais de uma
observação se iguala ao simétrico do VaR histórico.
3.2.2 Método
analítico
com
utilização
do
processo
EWMA
(Exponential Weighted Moving Average)
A metodologia analítica desenvolvida no RiskMetricsTM assume que a
distribuição futura dos retornos segue a distribuição Normal com média zero e
volatilidade calculada pela metodologia EWMA (Exponential Weighted Moving
Average), que dá peso maior às informações mais recentes e menor às
informações mais antigas, com diminuição exponencial dos pesos de acordo
com um fator de decaimento lambda (λ).
Seguindo a metodologia EWMA, a variância móvel ponderada
exponencialmente de uma série de retornos de ações na data t ( σ t2 ) é dada
pela equação:
σ t2 =
[
)∑
(1 − λ ) T −1 λi (R
(1 − λ
T
i =0
t −i
−R
)]
2
38
Sendo λ o fator de decaimento, T o tamanho da amostra, Rt o retorno na
data t e R a média dos retornos. Assumindo que R =0 e fazendo T tender ao infinito, a
equação fica:
[
∞
σ t2 = (1 − λ )∑ λi Rt2−i = (1 − λ ) Rt2 + λRt2−1 + λ2 Rt2− 2 + λ3 Rt2−3 + L
i =0
[
= (1 − λ )Rt2 + λ (1 − λ ) Rt2−1 + λRt2− 2 + λ2 Rt2−3 + λ3 Rt2− 4 + L
[
]
]
]
Como (1 − λ ) Rt2−1 + λRt2− 2 + λ2 Rt2−3 + L é a variância calculada no dia anterior,
σ t2−1 , tem-se que:
σt =
(1 − λ )Rt2 + λσ t2−1
Esta é a conhecida fórmula recursiva do cálculo da volatilidade EWMA,
bastante utilizada pela facilidade computacional de implementação.
Neste
trabalho, a volatilidade EWMA foi calculada utilizando-se essa fórmula e
partindo-se de uma volatilidade inicial igual a zero. O cálculo do VaR e do ES
que utilizasse a volatilidade EWMA ocorreu no mínimo após 50 dias da
aplicação inicial da fórmula recursiva, o que foi considerado suficiente para que
o erro da volatilidade inicial dada fosse amortizado.
O VaR calculado da forma analítica para cada unidade monetária e
assumindo a normalidade, é obtido pelo simétrico do produto da volatilidade
( )
pela inversa da função distributiva acumulada da Normal Padrão Φ −1 para o
nível de significância α desejado.
39
VaR = −σ EWMA × Φ −1 (α )
Para o cálculo do Expected Shortfall pela metodologia analítica com
uso da volatilidade EWMA, utilizou-se a relação apresentada na seção 2.4 de
que para distribuições Normais, o ES ao nível α equivale ao VaR ao nível β,
através da relação:
[
]
φ Φ −1 (α ) 
β = 1 − Φ

α


Sendo φ a função densidade da distribuição (pdf) Normal Padrão, Φ a
função distributiva acumulada (cdf) da Normal Padrão e α o nível de
significância. Por exemplo, considerando-se a distribuição Normal, o ES ao
nível de 2,5% (o ES calculado considerando-se como condição o VaR de 2,5%)
tem o mesmo valor que o VaR ao nível de 1%.
Assim, para os quatro níveis de significância α utilizados (1%, 2,5%,
5%, e 10%), foi calculado o correspondente nível β.
resultou da equação:
ES (α ) = VaR(β ) = −σ EWMA × Φ −1 (β )
O Expected Shortfall
40
3.2.3 Metodologia Híbrida do Cálculo do VaR – The Best of Both
Worlds
A abordagem híbrida de cálculo do VaR, intitulada de The Best of Both
Worlds, foi desenvolvida em Boudoukh et al. (1998), e é implementada em três
passos:
1o Passo) Sendo Rt o retorno logarítmico do ativo ou carteira referente a data t,
para cada um dos k retornos mais recentes: Rt, Rt-1, ... , Rt-k+1, atribuem-se os
pesos:
 1− λ
  1− λ

× λ0 , 
× λ1 , Λ

k
k
1− λ
 1− λ

 1− λ

, 
× λk −1 , respectivamente.
k
1− λ

Sendo:
λ: coeficiente de decaimento exponencial dos pesos e;
K: o tamanho da janela considerada.
A constante
1− λ
assegura que o somatório final dos pesos resulte
1 − λk
sempre em 1, não importando o valor do λ ou do K utilizado.
2o Passo) Ordenam-se os retornos em ordem crescente levando-se junto os
respectivos pesos;
3o Passo) A fim de obter o VaR de α%, iniciando-se pelo menor retorno, os
pesos vão sendo acumulados até que α% seja ultrapassado. A interpolação
41
linear é utilizada entre os pontos adjacentes para obter exatamente o α% da
distribuição.
Na Tabela 2 são apresentadas, após a realização do segundo passo,
as partes inicial e final da janela com 100 retornos da ação ITAU4, abrangendo
o período de 12/06 a 31/10/2003, utilizados para o cálculo do VaR híbrido em
31/10/2003, sendo os parâmetros α = 5%, k = 100 e λ=0,94.
Tabela 2
Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período
de 12/06 a 31/10/2003, após a realização do segundo passo definido por
Boudoukh et al. (1998), mostrando a ordem original dos retornos, a ordem
após o ordenamento crescente dos retornos, o peso dado para o retorno
pela metodologia EWMA e o peso acumulado, os quais foram utilizados
para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros α=5%,
K=100 e λ=0,94.
Ordem
atual
Posição
antes do
ordenamento
Data
Retornos
Peso
Peso
acumulado
1º
2º
3º
4º
5º
62º
36º
98º
94º
74º
09/09/03
04/08/03
29/10/03
23/10/03
25/09/03
-3,398%
-3,193%
-3,160%
-3,064%
-2,804%
0,00573
0,00115
0,05313
0,04148
0,01203
0,00573
0,00687
0,06000
0,10148
0,11351
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99º
100º
78º
53º
01/10/03
27/08/03
4,298%
5,563%
0,01541
0,00328
0,99672
1,00000
Sob a abordagem híbrida, no exemplo apresentado o peso acumulado
de 5% se encontra em algum ponto entre os retornos –3,193% e –3,160%. O
42
VaR híbrido com o nível de significância de 5% será obtido pela interpolação
linear desses pontos e será igual a:
[− 3,160% − (− 3,193%)] × (0,05 − 0,00687 ) = 3,166%

VaRhíbrido = − − 3,193% +
0,06000 − 0,00687


O sinal de menos no início da expressão é para que o valor encontrado
para o VaR seja um valor positivo, pois conforme foi explicado anteriormente,
refere-se a uma perda máxima provável e não um valor negativo que seria
entendido como um retorno mínimo provável.
Esta é a metodologia híbrida proposta por Boudoukh, Richardson e
Whitelaw (1998) para o cálculo do VaR. Todavia, ela não foi utilizada ipsis
literis neste trabalho porque traz em si um problema no cálculo.
O problema ocorre quando o menor retorno da janela é a informação
mais recente. No exemplo do lambda de 0,94, o peso da informação mais
recente é de 6%, acarretando que para os níveis de significância 1%, 2,5% e
5%, o VaR seria calculado única e exclusivamente a partir deste retorno, o que
pode gerar distorções quando o retorno mínimo for um pesado out lier e
agravar consideravelmente o problema da falta de sub-aditividade do VaR.
Neste trabalho o lambda foi obtido por processo de otimização que será
descrito na seção 3.2.5, podendo assumir centésimos variando de 0,80 a 0,99.
No caso do ser selecionado um lambda ótimo de 0,80, o peso da informação
mais recente fica sendo 20%, o que agrava ainda mais o problema de calcular
o VaR a partir de um único retorno.
43
Para solucionar este problema, adicionou-se uma coluna com o peso
acumulado do retorno anterior, após o ordenamento dos retornos2.
O VaR de α% passa a ser obtido, então, nesta coluna de peso
acumulado do retorno anterior, observando-se quando o nível alfa é
ultrapassado. A interpolação linear é utilizada entre os pontos adjacentes para
obter exatamente o α% da distribuição.
Dessa forma, assegura-se que a informação (retorno acumulado do
retorno anterior) do primeiro retorno será sempre 0,00% e o VaR nunca será
obtido deste primeiro retorno.
Na Tabela 3 são apresentados, após a realização do segundo passo e
a introdução da coluna com o peso acumulado anterior, sugerido neste
trabalho, as partes inicial e final da janela com os 100 retornos da ação ITAU4,
abrangendo o período de 12/06/2003 a 31/10/2003, utilizados para o cálculo do
VaR em 31/10/2003, sendo os parâmetros α=5%, K=100 e λ=0,94.
2
Na formulação desta idéia contou-se com a contribuição de José Alberto Baranowski.
44
Tabela 3
Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período
de 12/06 a 31/10/2003, após realizado o segundo passo definido por
Boudoukh et al. (1998) e a adição da coluna de peso acumulado do
retorno anterior, proposta neste trabalho, mostrando também a ordem
original dos retornos, a ordem após o ordenamento crescente dos
retornos, o peso dado para o retorno pela metodologia EWMA e o peso
acumulado, os quais foram utilizados para o cálculo do VaR híbrido em
31/10/2003, sendo os parâmetros α=5%, k=100 e λ=0,94.
Ordem
atual
Posição
antes do
ordenamento
Peso
Peso
acumulado
Peso
acumulado
anterior
Data
Retornos
1º
2º
3º
4º
5º
62º
36º
98º
94º
74º
09/09/2003
04/08/2003
29/10/2003
23/10/2003
25/09/2003
-3,398%
-3,193%
-3,160%
-3,064%
-2,804%
0,00573
0,00115
0,05313
0,04148
0,01203
0,00573
0,00687
0,06000
0,10148
0,11351
0,00000
0,00573
0,00687
0,06000
0,10148
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99º
100º
78º
53º
01/10/2003
27/08/2003
4,298%
5,563%
0,01541
0,00328
0,99672
1,00000
0,98131
0,99672
Diferentemente do peso acumulado 0,05, que se localizou entre o 2º e
o 3º retorno, na coluna com o peso acumulado do retorno anterior, o 0,05
localizou-se entre o 3º e o 4º retorno, havendo uma postergação da região de
onde será calculado o VaR híbrido, utilizando assim mais dados para o cálculo
do VaR e do ES.
O VaR, então, será obtido pela interpolação linear considerando os
pesos acumulados dos retornos anteriores (vide a nova coluna na Tabela 3) e o
nível alfa do VaR:
[− 3,064% − (− 3,160%)] × (0,05 − 0,00687) = 3,082%

−  − 3,160% +
0,06000 − 0,00687


45
No exemplo apresentado, a diferença foi relativamente pequena,
variando o VaR híbrido de 3,166% para 3,082% com a alteração proposta.
Entretanto, em situações em que o peso dos menores retornos são mais
elevados, a diferença torna-se maior, aprimorando o cálculo do VaR e do ES
ao utilizar mais dados, havendo sempre pelo menos dois retornos para o
cálculo.
Foi constatado também que o cálculo do VaR híbrido da forma
proposta em Boudoukh et al. (1998) aumentava significativamente o número de
falhas na sub-aditividade em comparação com a alteração proposta utilizando
os percentis.
Alternativamente, para solucionar o problema citado com a metodologia
de Boudoukh et al., poder-se-ia ter considerado o VaR híbrido como sendo o
simétrico do quantil alfa superior da distribuição e o VaR híbrido seria o
simétrico do retorno para o qual o peso acumulado EWMA ultrapassa o nível
alfa, não se fazendo dessa forma nenhuma interpolação.
3.2.4 Proposta de uma Metodologia Híbrida para o Cálculo do
Expected Shortfall – The Best of Both Worlds
Para a utilização de uma metodologia híbrida no cálculo do Expected
Shortfall, primeiramente foram seguidos os mesmos passos descritos para o
cálculo do VaR híbrido com a utilização da nova coluna com os pesos
acumulados do retorno anterior. A sugestão apresentada neste trabalho para o
ES híbrido segue a definição de Expected Shortfall descrita em Acerbi e
Tasche (2001, 2002) considerando o corolário 4.3 em Acerbi e Tasche (2002):
46
ES (α )
[
([
] )
 Ε X Ι {X ≤ x (α ) } − Ρ X ≤ x (α ) − α x (α )
= −
α

]


Onde:
X = série de retornos da janela considerada, é a variável aleatória dos
retornos;
Ι {condição} = função indicadora, que é 1 se a condição entre as chaves é
verdadeira e 0 caso não seja.
x (α ) = quantil α superior, definido anteriormente, mas que pode ser visto
aqui como sendo o VaR híbrido calculado.
Informalmente e de uma forma que não faz suposições acerca da
distribuição dos retornos, dando uma ótima intuição sobre o conceito desta
nova medida de risco, o Expected Shortfall é a média dos α% piores retornos
da janela. Só que na metodologia híbrida de cálculo aqui proposta, ele será a
média ponderada pelos pesos dos α% piores retornos da janela.
Então, a fim de se calcular o Expected Shortfall, dando-se continuidade
aos passos apresentados anteriormente, criou-se o quarto passo.
4o Passo) A fim de calcular o ES ao nível de α%, obtém-se o somatório dos
produtos dos retornos inferiores ao VaR híbrido pelos respectivos pesos (não
acumulados), exceto pelo retorno imediatamente inferior ao VaR que em vez
de ser multiplicado pelo seu próprio peso, é multiplicado pelo quanto que falta
para o peso acumulado atingir o valor de alfa, tudo isso dividido pelo alfa e
47
multiplicado por -1, obtendo-se assim a média ponderada. No exemplo da
Tabela 3, todos os retornos inferiores ao simétrico do VaR híbrido de 3,082%
são multiplicados pelos respectivos pesos, exceto o retorno –3,160% que em
vez de ser multiplicado pelo seu peso de 0,05313, é multiplicado por 0,04313
que é o quanto falta para atingir um peso acumulado de valor 0,05, o nível alfa.
É como se numa série com 1.000 valores existissem 53 iguais a –3,160% e
estivessem sendo utilizados somente os primeiros 43 valores para o cálculo da
média ponderada que resultará no ES híbrido.
Poder-se-ia questionar do porquê de se utilizar não o próprio peso do
retorno imediatamente inferior ao VaR híbrido, mas o quanto que falta para
atingir o nível alfa. Mas este procedimento tem o mesmo efeito da definição
proposta por Acerbi e Tasche (2001, 2002), apresentada anteriormente e que
se propõe a ser sempre sub-aditiva, até mesmo para distribuições discretas,
como é o caso. A única diferença é que a definição primeiramente consideraria
o retorno imediatamente inferior ao VaR híbrido com o seu próprio peso
[
 Ε X Ι {X ≤ x (α ) }


α

] , a sua própria freqüência, para depois subtrair o excesso do


([
] )
 Ρ X ≤ x (α ) − α x (α )
peso acumulado sobre o nível alfa  −
α


 .

Assim, no exemplo apresentado na Tabela 3, o Expected Shortfall
híbrido seria dado por:
 − 3,398% × 0,00573 + (− 3,193% × 0,00115) + (− 3,160% )(0,05 − 0,00687 )
ES Híbrido = − 

0,05


48
ES Híbrido = 3,188%
3.2.5 Obtenção do lambda ótimo
A metodologia analítica com uso da volatilidade EWMA e a híbrida
utilizam o fator de decaimento lambda ( λ ) que teoricamente pode variar no
intervalo [0,1]. Neste trabalho o lambda pôde assumir valores variando de 0,80
a 0,99 ao passo de 0,01, fazendo com que o peso da informação mais recente
(1-λ) variasse entre 20% e 1%, respectivamente. Valores de lambda menores
que 0,80 acarretariam pesos superiores a 20% para a informação mais recente,
o que não faz muito sentido, pois estaria sendo dada exagerada importância a
uma única informação.
Mas qual lambda utilizar? O RiskMetricsTM sugere o lambda 0,94 para
ações, que foi obtido por um processo que visava obter o VaR mais apropriado.
Muitos trabalhos envolvendo o cálculo de VaR para ações utilizando o modelo
analítico com uso da volatilidade EWMA utilizam este lambda 0,94, baseandose unicamente na sugestão do RiskMetricsTM. Como o objetivo principal do
trabalho é o estudo do Expected Shortfall, não faria muito sentido utilizar esta
sugestão do RiskMetricsTM. Então, apesar da complexidade computacional
envolvida, foi desenvolvido um processo de otimização do lambda que tinha
por objetivo obter o melhor Expected Shortfall, considerando-se o lambda ótimo
aquele que obtivesse para a carteira igualmente ponderada (e não para todos
os ativos), o menor somatório das distâncias entre o ES calculado e a perda do
dia seguinte, dado que o VaR foi violado. Assim, o ES dado pelo lambda ótimo
49
seria aquele que tivesse para a carteira o maior acerto em ser a expectativa da
perda quando esta era superior ao VaR, ou seja, o ES que no geral ficasse
mais próximo da perda quando o VaR era violado.
Foi desenvolvido o mesmo processo de otimização tanto para a
metodologia analítica como para a híbrida. Para todo o período abrangido pela
amostra de preços, de 04/07/1994 a 31/10/2003, foram definidas janelas de
calibragem com 250 dias úteis nas quais era selecionado um lambda ótimo e
janelas de teste com os 100 dias úteis seguintes, nas quais eram aplicados os
lambdas ótimos selecionados. Assim, manteve-se a consistência de fazer com
que os lambdas ótimos selecionados não fossem aplicados sobre os dados que
o geraram.
A Figura 4 é a esquematização da definição das janelas de
calibragem e das janelas de teste.
50
Figura 4
Esquematização da definição das janelas de calibragem e de teste no
processo de otimização do lambda das metodologias analítica com
EWMA e híbrida com a primeira janela de calibragem iniciando-se após K
dias úteis, sendo K o parâmetro que define o tamanho da janela na
metodologia híbrida.
O processo de otimização do lambda e de cálculo do VaR e ES das
metodologias analítica e híbrida seguiu os seguintes passos:
1º Passo) Definiram-se as datas de início e fim das janelas de calibragem e de
teste, sendo que a data de início da primeira janela de calibragem se dava
após K dias úteis do primeiro dia da amostra, sendo K o tamanho da janela
para o cálculo do VaR e ES híbrido.
Quando a data final da última janela de
teste foi posterior a 31/10/2003, fim da amostra, estendeu-se o tamanho da
penúltima janela de teste até 31/10/2003.
2º Passo) Executaram-se os programas elaborados no Excel que calculavam o
VaR e ES da metodologia analítica e híbrida, variando o lambda de 0,80 a 0,99
com incremento de 0,01, armazenando-se para cada lambda, para cada janela
51
de calibragem, o somatório das distâncias entre o ES e a perda do dia seguinte
quando o VaR era violado, considerando-se somente os valores da carteira.
3º Passo) O lambda selecionado como ótimo era aquele que resultasse no
menor somatório das distâncias. Rodou-se então novamente o programa para
os lambdas ótimos selecionados, armazenando os valores de VaR e ES
correspondentes nas janelas de teste. Devido à extensão dos cálculos e à
grande quantidade de dados, o processamento tornou-se muito demorado
conforme pode ser visto na Tabela 6 da seção 4.2.
Os Quadros 2, 3 e 4 a seguir apresentam para as metodologias
analítica com EWMA e híbrida, os resultados do processo de otimização dos
lambdas para as combinações dos parâmetros janelas K de 50, 100 e 250 dias,
respectivamente, com os níveis de significância α de 1%, 2,5%, 5% e 10%
52
Quadro 2
Janelas de calibragem, de teste e respectivos lambdas selecionados para
o parâmetro janela K = 250 dias no processo de otimização que procurava
obter o Expected Shortfall que mais se aproximava da perda quando esta
superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003.
Ordem
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Janela de
calibragem
De
A
10/07/95 12/07/96
01/12/95 03/12/96
03/05/96 06/05/97
23/09/96 25/09/97
20/02/97 18/02/98
18/07/97 20/07/98
05/12/97 10/12/98
08/05/98 13/05/99
30/09/98 05/10/99
02/03/99 01/03/00
27/07/99 26/07/00
20/12/99 19/12/00
17/05/00 18/05/01
06/10/00 10/10/01
08/03/01 13/03/02
01/08/01 06/08/02
27/12/01 27/12/02
27/05/02 27/05/03
Janela de
Lambdas selecionados
teste
α = 1%
α = 2,5%
α = 5%
α = 10%
De
A
Analítico Híbrido Analítico Híbrido Analítico Híbrido Analítico Híbrido
15/07/96 03/12/96
0,99
0,97
0,99
0,97
0,99
0,96
0,99
0,96
04/12/96 06/05/97
0,89
0,93
0,94
0,96
0,98
0,94
0,99
0,95
07/05/97 25/09/97
0,90
0,99
0,92
0,93
0,93
0,94
0,82
0,94
26/09/97 18/02/98
0,95
0,98
0,92
0,99
0,88
0,98
0,82
0,94
19/02/98 20/07/98
0,81
0,99
0,83
0,94
0,80
0,92
0,81
0,96
21/07/98 10/12/98
0,81
0,99
0,86
0,94
0,86
0,95
0,92
0,91
11/12/98 13/05/99
0,81
0,99
0,80
0,99
0,88
0,96
0,88
0,96
14/05/99 05/10/99
0,81
0,99
0,80
0,97
0,88
0,94
0,88
0,98
06/10/99 01/03/00
0,94
0,80
0,83
0,95
0,94
0,92
0,94
0,94
02/03/00 26/07/00
0,97
0,97
0,97
0,98
0,98
0,94
0,85
0,95
27/07/00 19/12/00
0,80
0,99
0,99
0,99
0,89
0,99
0,99
0,99
20/12/00 18/05/01
0,92
0,99
0,99
0,99
0,99
0,99
0,99
0,98
21/05/01 10/10/01
0,99
0,99
0,96
0,99
0,99
0,99
0,99
0,99
11/10/01 13/03/02
0,89
0,99
0,91
0,99
0,99
0,95
0,99
0,95
14/03/02 06/08/02
0,88
0,99
0,82
0,98
0,94
0,95
0,99
0,94
07/08/02 27/12/02
0,88
0,99
0,82
0,99
0,86
0,98
0,99
0,99
30/12/02 27/05/03
0,89
0,99
0,94
0,97
0,94
0,98
0,98
0,99
28/05/03 31/10/03
0,94
0,99
0,95
0,98
0,94
0,97
0,98
0,98
Quadro 3
Janelas de calibragem, de teste e respectivos lambdas selecionados para
o parâmetro janela K = 100 dias no processo de otimização que procurava
obter o Expected Shortfall que mais se aproximava da perda quando esta
superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003.
Ordem
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Janela de
calibragem
De
A
28/11/94 30/11/95
27/04/95 02/05/96
19/09/95 20/09/96
15/02/96 19/02/97
15/07/96 17/07/97
04/12/96 04/12/97
07/05/97 07/05/98
26/09/97 29/09/98
19/02/98 01/03/99
21/07/98 26/07/99
11/12/98 17/12/99
14/05/99 16/05/00
06/10/99 05/10/00
02/03/00 07/03/01
27/07/00 31/07/01
20/12/00 26/12/01
21/05/01 24/05/02
11/10/01 15/10/02
14/03/02 13/03/03
Janela de
Lambdas selecionados
teste
α = 1%
α = 2,5%
α = 5%
α = 10%
De
A
Analítico Híbrido Analítico Híbrido Analítico Híbrido Analítico Híbrido
01/12/95 02/05/96
0,96
0,98
0,89
0,99
0,83
0,99
0,84
0,96
03/05/96 20/09/96
0,99
0,99
0,99
0,97
0,99
0,95
0,99
0,95
23/09/96 19/02/97
0,99
0,99
0,99
0,97
0,99
0,99
0,99
0,98
20/02/97 17/07/97
0,89
0,95
0,90
0,97
0,98
0,95
0,99
0,96
18/07/97 04/12/97
0,95
0,99
0,92
0,97
0,88
0,98
0,80
0,94
05/12/97 07/05/98
0,80
0,99
0,86
0,98
0,80
0,99
0,82
0,97
08/05/98 29/09/98
0,81
0,99
0,83
0,94
0,80
0,96
0,81
0,98
30/09/98 01/03/99
0,81
0,99
0,83
0,98
0,80
0,96
0,81
0,97
02/03/99 26/07/99
0,81
0,95
0,80
0,97
0,91
0,96
0,98
0,97
27/07/99 17/12/99
0,81
0,96
0,80
0,96
0,92
0,99
0,97
0,97
20/12/99 16/05/00
0,94
0,94
0,99
0,89
0,96
0,92
0,99
0,96
17/05/00 05/10/00
0,81
0,96
0,91
0,97
0,82
0,98
0,98
0,99
06/10/00 07/03/01
0,95
0,98
0,99
0,99
0,89
0,99
0,99
0,96
08/03/01 31/07/01
0,94
0,98
0,99
0,99
0,99
0,99
0,99
0,97
01/08/01 26/12/01
0,99
0,99
0,96
0,99
0,99
0,96
0,98
0,92
27/12/01 24/05/02
0,99
0,96
0,91
0,98
0,99
0,99
0,99
0,99
27/05/02 15/10/02
0,88
0,96
0,82
0,99
0,94
0,99
0,99
0,98
16/10/02 13/03/03
0,89
0,96
0,89
0,95
0,94
0,98
0,98
0,96
14/03/03 31/10/03
0,94
0,96
0,94
0,97
0,94
0,96
0,98
0,99
53
Quadro 4
Janelas de calibragem, de teste e respectivos lambdas selecionados para
o parâmetro janela K = 50 dias no processo de otimização que procurava
obter o Expected Shortfall que mais se aproximava da perda quando esta
superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003.
Ordem
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
Janela de
calibragem
De
A
13/09/94 18/09/95
08/02/95 14/02/96
10/07/95 12/07/96
01/12/95 03/12/96
03/05/96 06/05/97
23/09/96 25/09/97
20/02/97 18/02/98
18/07/97 20/07/98
05/12/97 10/12/98
08/05/98 13/05/99
30/09/98 05/10/99
02/03/99 01/03/00
27/07/99 26/07/00
20/12/99 19/12/00
17/05/00 18/05/01
06/10/00 10/10/01
08/03/01 13/03/02
01/08/01 06/08/02
27/12/01 27/12/02
27/05/02 27/05/03
Janela de
Lambdas selecionados
teste
α = 1%
α = 2,5%
α = 5%
α = 10%
De
A
Analítico Híbrido Analítico Híbrido Analítico Híbrido Analítico Híbrido
19/09/95 14/02/96
0,96
0,94
0,87
0,90
0,83
0,92
0,85
0,90
15/02/96 12/07/96
0,96
0,97
0,90
0,95
0,86
0,99
0,88
0,98
15/07/96 03/12/96
0,99
0,96
0,99
0,94
0,99
0,99
0,99
0,99
04/12/96 06/05/97
0,89
0,96
0,94
0,95
0,98
0,93
0,99
0,96
07/05/97 25/09/97
0,90
0,95
0,92
0,94
0,93
0,99
0,82
0,95
26/09/97 18/02/98
0,95
0,93
0,92
0,98
0,88
0,99
0,82
0,95
19/02/98 20/07/98
0,81
0,91
0,83
0,94
0,80
0,92
0,81
0,99
21/07/98 10/12/98
0,81
0,91
0,86
0,99
0,86
0,92
0,92
0,95
11/12/98 13/05/99
0,81
0,91
0,80
0,99
0,88
0,95
0,88
0,98
14/05/99 05/10/99
0,81
0,97
0,80
0,99
0,88
0,94
0,88
0,98
06/10/99 01/03/00
0,94
0,97
0,83
0,87
0,94
0,89
0,94
0,99
02/03/00 26/07/00
0,97
0,90
0,97
0,93
0,98
0,93
0,85
0,97
27/07/00 19/12/00
0,80
0,95
0,99
0,96
0,89
0,91
0,99
0,98
20/12/00 18/05/01
0,92
0,89
0,99
0,96
0,99
0,91
0,99
0,97
21/05/01 10/10/01
0,99
0,88
0,96
0,97
0,99
0,99
0,99
0,92
11/10/01 13/03/02
0,89
0,88
0,91
0,98
0,99
0,96
0,99
0,95
14/03/02 06/08/02
0,88
0,88
0,82
0,93
0,94
0,94
0,99
0,94
07/08/02 27/12/02
0,88
0,98
0,82
0,93
0,86
0,94
0,99
0,99
30/12/02 27/05/03
0,89
0,94
0,94
0,98
0,94
0,96
0,98
0,96
28/05/03 31/10/03
0,94
0,94
0,95
0,96
0,94
0,97
0,98
0,99
3.3 Aplicação do critério de Pitman
Após o cálculo do Expected Shortfall pelas metodologias histórica (EShist), analítica (ES-EWMA) e híbrida (ES-híbrido), para as 12 combinações de
parâmetros α (nível de significância) e K (tamanho da janela do cálculo da
medida), aplicou-se o critério de Pitman com o objetivo de verificar qual das
três metodologias apresentava um resultado que fosse probabilisticamente
melhor do que a perda efetiva dado que o VaR calculado pelas 3 metodologias
fora violado.
Então, primeiramente verificaram-se os dias em que havia ocorrido
uma falha comum do VaR-hist, do VaR-EWMA e do VaR-híbrido, comparandoos com a perda do dia seguinte, para cada um dos ativos separadamente e
54
para a carteira igualmente ponderada nos ativos. Depois, para cada um dos
ativos, considerando todos os dias em que houve falha comum, respondia-se
sim ou não a três perguntas: o ES-hist é probabilisticamente melhor que o
ES-EWMA (ES-hist φ ES-EWMA)? ES-hist φ ES-híbrido? ES-EWMA φ EShíbrido? Mas respondia-se sim ou não de que forma?
Verificava-se, por exemplo, se ES-hist φ ES-EWMA no dia de falha
comum para cada um dos ativos, observando se:
P( ES hist − S < ES EWMA − S ) > 1
Difhist
2
DifEWMA
Sendo S a perda do dia seguinte ao do VaR violado. Caso esta
probabilidade fosse maior que ½, a resposta era sim. O cálculo de
P(Difhist<DifEWMA) era dado por:
# ( Dif hist < Dif EWMA )
#T
Sendo # (condição) a contagem dos casos em que condição entre
parênteses é satisfeita e T={t: dia em que houve violação do VaR-hist, do VaREWMA e do VaR-híbrido ao mesmo tempo}.
55
4 RESULTADOS
A seção dos resultados foi dividida em três tópicos: o primeiro aborda o
VaR e o Expected Shortfall calculados pela metodologia histórica e pelo
método analítico com uso da volatilidade EWMA; o segundo analisa os
resultados para a metodologia híbrida de cálculo do VaR proposta por
Boudoukh et al. (1998) com as alterações explicitadas anteriormente neste
trabalho e para o cálculo do Expected Shortfall na forma híbrida proposta; o
terceiro apresenta os resultados da aplicação do critério de Pitman.
A fim de observar a propriedade sub-aditividade tanto do VaR como do
Expected Shortfall, em cada uma das 12 combinações de nível de significância
α e tamanho da janela K, obteve-se a soma dos valores das medidas de risco
calculados diariamente para os 10 ativos multiplicados cada um pelo peso 1/10.
Esta soma foi comparada com o VaR e o ES calculados para a carteira. Caso
a soma dos valores individuais dos ativos, considerando o peso 1/10 de cada
um, fosse menor do que o valor calculado para a carteira, contava-se a
ocorrência de uma falha na sub-aditividade.
Visando validar o VaR calculado pelas três metodologias, para só
então testar o Expected Shortfall, foi realizado o backtesting diário para cada
ativo e para a carteira, comparando o VaR de cada metodologia com o retorno
diário do dia seguinte, observando se houve ou não a violação do VaR. No
caso em que a quantidade de falhas situou-se dentro dos limites de Kupiec
(1995) com o valor crítico obtido ao nível de significância de 5%, o VaR não foi
56
rejeitado pelo teste. Deve-se lembrar que o processo de otimização do lambda
objetivou a obtenção de melhores resultados para o Expected Shortfall e o
teste procura verificar se o processo influenciou o VaR de forma a rejeitá-lo.
A metodologia analítica com uso da volatilidade EWMA foi a única das
três metodologias analisadas em que se entendeu nesta pesquisa ser aplicável
o teste de Berkowitz, por ser a única que faz suposição acerca da distribuição
de lucros e perdas. A metodologia histórica e a híbrida não fazem suposições
acerca da distribuição dos retornos, em vez disso, elas simplesmente utilizam
os retornos passados para fazer inferências com relação ao futuro. Assim, o
teste de Berkowitz foi aplicado para o dia 31/10/2003 para cada uma das séries
de ativos e para a carteira.
4.1 Valor em Risco e Expected Shortfall pela Metodologia
Histórica e Analítica com uso da Volatilidade EWMA
Na Tabela 4 são apresentados os resultados da verificação da subaditividade para 12 combinações dos parâmetros nível α de 1%, 2,5%, 5% e
10% e tamanho da janela K de 50, 100 e 250 dias. O nível α é um parâmetro
que diferencia os resultados de uma combinação para outra, basta verificar
novamente a seção Metodologia e constatar que o α entra no cálculo das
medidas de risco, e, conseqüentemente, alfas diferentes levam a VaR e ES
diferentes entre si, tanto na metodologia histórica como na analítica com uso da
volatilidade EWMA. Uma dúvida pode surgir quando se fala do tamanho K da
janela, pois na seção Metodologia não há indícios de que o tamanho K da
57
janela entre no cálculo do VaR e ES da metodologia analítica, e que leve,
portanto, a valores diferentes conforme o tamanho da janela.
Todavia, de
acordo com o tamanho K da janela, haverá diferença sim, e tal diferença é
gerada no processo de seleção do lambda ótimo. Conforme o tamanho da
janela, os lambdas selecionados como ótimo podem variar, o que pode ser
visto nos Quadros 2, 3 e 4 resultantes do processo de otimização. O tamanho
da janela K define a data de início da primeira janela de calibragem (vide a
Figura 4), gerando diferenças para os parâmetros K=50, 100 ou 250 até
mesmo na metodologia analítica com uso da volatilidade EWMA.
Tabela 4
Falhas na sub-aditividade das Medidas de Risco VaR e Expected Shortfall
calculadas pela metodologia histórica e analítica com EWMA para as 10
ações mais líquidas da Bovespa e para a carteira igualmente ponderada,
abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados
na metodologia analítica variaram a cada 100 dias da amostra, tendo sido
obtidos por processo de otimização que encontrava para a carteira o ES
mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro
K definido o início da primeira janela de calibragem de 250 dias.
Parâmetros
Nível
Janela
K
α
50
1%
100
250
50
2,5%
100
250
50
5%
100
250
50
10%
100
250
Quantidade de falhas na sub-aditividade
VaR
ES
VaR
ES
Hist
Hist
EWMA
EWMA
0
0
0
0
0
0
0
47
0
0
0
170
0
0
0
13
0
0
0
103
0
0
0
0
0
0
0
45
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
Quantidade de dados
Histórico
EWMA
2.261
2.211
2.061
2.261
2.211
2.061
2.261
2.211
2.061
2.261
2.211
2.061
2.011
1.961
1.811
2.011
1.961
1.811
2.011
1.961
1.811
2.011
1.961
1.811
Obs.: Apesar de não influenciar o cálculo pela metodologia analítica, o tamanho da janela K
define a data de início da primeira janela de calibragem na seleção dos lambdas ótimos,
gerando pequenas diferenças para os parâmetros K=50, 100 ou 250.
58
Conforme previsto na literatura, da análise da Tabela 4, verifica-se que
a metodologia analítica realmente não apresenta nenhuma falha na subaditividade, tanto para o VaR como para o ES. O VaR histórico apresenta
falhas na sub-aditividade para algumas combinações de parâmetros, mas que
são totalmente corrigidas pelo Expected Shortfall, o que também está de
acordo com a literatura.
Tentou-se observar uma regra que diria se a ausência da subaditividade era mais provável de ocorrer para alfas menores ou maiores, ou
então com janelas menores ou maiores, porém, os resultados da tabela não
sugerem a existência de regra parecida.
Olhando-se para o nível de
significância α de 1%, por exemplo, até se poderia dizer que quanto maior o
tamanho da janela, maior a ocorrência de falhas na sub-aditividade do VaR
histórico. Mas isto cai por terra quando se observa o nível de significância
2,5%, em que se vê um aumento de 13 para 103 no número de falhas da subaditividade da janela de 50 para a de 100 dias, mas uma diminuição para zero
quando se observa a janela de 250 dias. De forma parecida, também não se
pode afirmar que quanto maior o nível de significância, maior a possibilidade de
ocorrência de falhas na sub-aditividade. Isto leva a crer que a ocorrência de
falhas na sub-aditividade vai estar ligada unicamente à disposição dos retornos
dos ativos na distribuição, ou seja, poderá ser mais fácil ocorrer a falha na subaditividade numa janela maior ou menor, num alfa maior ou menor dependendo
dos retornos dos ativos.
59
Uma vez que o processo de otimização do lambda descrito na seção
3.2.5 objetivou a obtenção dos melhores resultados para o Expected Shortfall,
tornou-se necessária a análise dos reflexos deste processo no VaR por
intermédio do teste de Kupiec (1995).
A seguir é apresentada a Tabela 5 que mostra para cada combinação
de parâmetros, a quantidade de ativos para os quais o VaR histórico e o VaR
analítico com uso da volatilidade EWMA foram rejeitados pelo teste de Kupiec
(1995) aplicado com o valor crítico de 5% e também a rejeição ou não para a
carteira.
Tabela 5
Resultado do teste de Kupiec com valor crítico de 5% aplicado sobre o
VaR calculado pela metodologia histórica e pela metodologia analítica
com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira
igualmente ponderada, somente posição comprada, abrangendo o
período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na
metodologia analítica variaram a cada 100 dias da amostra, tendo sido
obtidos por processo de otimização que encontrava para a carteira o ES
mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro
K definido o início da primeira janela de calibragem de 250 dias.
PARÂMETROS
Nível α
1%
2,5%
5%
10%
K
50
100
250
50
100
250
50
100
250
50
100
250
METODOLOGIA HISTÓRICA
Qtde de ativos em que
houve rejeição do VaR
10
10
1
10
9
0
10
8
0
10
1
0
Houve rejeição da
carteira?
sim
sim
não
sim
sim
não
sim
sim
não
sim
sim
não
METODOLOGIA ANALÍTICA EWMA
Qtde de ativos em que
houve rejeição do VaR
9
9
10
1
0
1
0
0
0
5
7
4
Houve rejeição da
carteira?
sim
sim
sim
sim
não
não
não
não
não
não
sim
não
Obs.: Apesar de não influenciar o cálculo pela metodologia analítica, o tamanho da janela K
define a data de início da primeira janela de calibragem na seleção dos lambdas ótimos,
gerando diferenças para os parâmetros K=50, 100 ou 250.
60
O limite inferior e o superior de Kupiec, que dizem o intervalo dentro do
qual deve se situar a quantidade de falhas do modelo de VaR para não ser
rejeitado, variam conforme a quantidade de dias na amostra, o nível de
significância α do VaR e o valor crítico dado pelo nível de significância do teste
de hipóteses, no caso 5%. Isto quer dizer que para cada uma das combinações
de parâmetros havia limites diferentes, pois variavam o nível α e indiretamente
a quantidade de dias da amostra devido à variação no tamanho da janela K e
em função do processo de otimização do lambda da metodologia analítica.
O Quadro 5 apresenta os limites de Kupiec e o percentual de falhas do
VaR calculado pela metodologia histórica.
Quadro 5
Limites de Kupiec e proporção de falhas do VaR calculado pela
metodologia histórica para as 10 ações mais líquidas da Bovespa e para a
carteira igualmente ponderada, somente posição comprada, abrangendo
o período de 04/jul/1994 a 31/out/2003.
ATIVOS
Kupiec
PETR4
ELET6
BBDC4
CEMIG4
ITAU4
VALE5
PETR3
USIM5
CSNA3
ELET3
Carteira
K=50
2,96%
2,88%
2,70%
2,48%
2,83%
3,10%
2,70%
2,48%
2,48%
2,70%
3,05%
α = 1%
K=100
2,13%
1,90%
1,90%
2,35%
2,17%
2,13%
1,81%
2,17%
2,17%
2,40%
2,08%
K=250
1,31%
1,26%
1,02%
1,26%
1,12%
1,17%
1,12%
1,31%
1,46%
1,60%
1,36%
K=50
4,51%
4,38%
4,42%
4,47%
4,20%
4,34%
4,34%
4,42%
4,20%
4,60%
4,25%
α = 2,5%
K=100 K=250
3,62% 2,52%
3,62% 2,86%
3,21% 2,62%
3,48% 2,62%
3,57% 2,57%
3,71% 2,57%
2,90% 2,67%
3,26% 2,52%
3,57% 3,16%
3,80% 2,96%
3,53% 2,67%
K=50
7,08%
7,26%
6,77%
6,99%
6,90%
7,04%
6,77%
7,17%
7,12%
7,04%
6,73%
α = 5%
K=100
6,38%
6,38%
6,02%
5,70%
5,97%
5,84%
6,02%
6,47%
6,20%
6,20%
6,15%
K=250
5,24%
4,95%
5,15%
4,61%
5,19%
4,76%
5,00%
5,15%
5,05%
5,05%
5,00%
K=50
11,81%
11,77%
12,12%
11,64%
11,77%
11,77%
11,33%
11,37%
12,48%
11,55%
12,21%
α = 10%
K=100
10,90%
11,00%
11,45%
9,95%
10,86%
10,50%
10,32%
10,95%
11,00%
11,00%
11,40%
K=250
9,17%
9,61%
10,05%
9,90%
9,95%
9,27%
9,27%
9,51%
10,83%
10,10%
9,90%
Superior 1,44% 1,44% 1,46% 3,17% 3,18% 3,20% 5,92% 5,93% 5,97% 11,26% 11,27% 11,32%
Inferior
0,62% 0,61% 0,60% 1,88% 1,88% 1,86% 4,13% 4,12% 4,09%
8,79%
8,77%
8,73%
Analisando-se a Tabela 5 e o Quadro 5, constata-se que o VaR
histórico calculado para a carteira só não foi rejeitado para as combinações em
61
que a janela K era de 250 dias, o mesmo ocorrendo com os 10 ativos, o que
significa que no geral os resultados foram considerados ruins para as janelas
menores, pois o número de falhas não ficou dentro do intervalo esperado. Este
resultado para o VaR histórico está de acordo com o trabalho de Pritsker
(2001) que externa uma preocupação com metodologias históricas com janelas
de dados pequenas. Segundo o autor, há uma tendência para que o modelo
subestime o risco, devido à pouca quantidade de extremos na distribuição dos
dados. Com isso, uma maior extensão de dados passados é necessária para a
eficiência das metodologias.
Conforme apontado pelo próprio Kupiec (1995) e constatado por
Barbedo (2002), o teste de proporção de falhas tem um baixo poder para
amostras pequenas, ou seja, este teste tem uma alta probabilidade de aceitar a
hipótese nula quando ela é falsa em amostras com número de observações
limitado.
Esta constatação sobre o teste de Kupiec poderia trazer certa
confusão com relação aos resultados encontrados, de alta rejeição para janelas
pequenas, porém, ela não tem relação alguma, uma vez que as janelas de
cálculo é que são pequenas e não as amostras, que têm no mínimo 1.811
dados para K=250 dias e no máximo 2.261 dados para K=50 dias.
O Quadro 6 apresenta os limites de Kupiec e o percentual de falhas do
VaR calculado pela metodologia analítica com uso da volatilidade EWMA.
62
Quadro 6
Limites de Kupiec e proporção de falhas do VaR calculado pela
metodologia analítica com EWMA para as 10 ações mais líquidas da
Bovespa e para a carteira igualmente ponderada, somente posição
comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os
lambdas utilizados na metodologia analítica variaram a cada 100 dias da
amostra, tendo sido obtidos por processo de otimização que encontrava
para a carteira o ES mais próximo da perda efetiva quando o VaR falhava,
tendo o parâmetro K definido o início da primeira janela de calibragem de
250 dias.
ATIVOS
Kupiec
PETR4
ELET6
BBDC4
CEMIG4
ITAU4
VALE5
PETR3
USIM5
CSNA3
ELET3
Carteira
K=50
2,39%
1,44%
1,94%
1,94%
1,89%
1,69%
1,84%
2,09%
1,64%
1,64%
2,14%
α = 1%
K=100
2,04%
1,43%
1,68%
1,99%
1,63%
1,48%
1,63%
2,14%
1,53%
1,73%
2,04%
K=250
2,49%
1,49%
1,99%
1,88%
1,99%
1,71%
1,93%
2,21%
1,60%
1,60%
2,10%
K=50
3,08%
2,94%
2,54%
3,08%
3,08%
2,69%
2,84%
2,89%
2,84%
3,48%
3,28%
α = 2,5%
K=100 K=250
2,76% 2,98%
2,60% 2,93%
2,55% 2,54%
2,86% 2,98%
2,86% 2,98%
2,35% 2,60%
2,91% 2,98%
2,91% 2,87%
2,55% 2,60%
3,11% 3,43%
3,01% 3,09%
K=50
4,68%
4,73%
4,48%
5,22%
5,07%
4,13%
4,73%
4,88%
4,63%
5,57%
5,57%
α = 5%
K=100
4,54%
4,74%
4,49%
5,05%
4,74%
4,39%
4,90%
4,44%
4,29%
5,61%
5,51%
K=250
4,64%
4,64%
4,59%
4,97%
4,92%
4,03%
4,75%
4,86%
4,48%
5,30%
5,58%
K=50
7,96%
8,96%
8,51%
10,00%
9,15%
8,21%
7,41%
9,15%
8,46%
10,05%
8,96%
α = 10%
K=100
7,76%
8,21%
7,70%
8,98%
8,47%
7,50%
7,14%
8,72%
8,32%
9,13%
8,06%
K=250
7,79%
8,78%
8,78%
9,89%
9,01%
7,57%
7,46%
9,06%
8,40%
9,94%
8,95%
Superior 1,46% 1,47% 1,49% 3,21% 3,22% 3,25% 5,98% 5,99% 6,03% 11,34% 11,35% 11,41%
Inferior
0,60% 0,59% 0,58% 1,85% 1,84% 1,82% 4,08% 4,07% 4,03%
8,71%
8,70%
8,65%
Já com relação ao VaR calculado pela metodologia analítica pode-se
dizer que para os níveis α de 2,5%, 5% e 10%, os resultados são satisfatórios,
pois na maioria das combinações, ou temos a não-rejeição do VaR-EWMA da
carteira, ou a não-rejeição de pelo menos metade dos ativos. Os resultados
foram melhores ainda para o nível α de 5%, não havendo rejeição nem para a
carteira e nem para os ativos individualmente. Com base nestes resultados
para a metodologia analítica, conclui-se que não fez muito sentido a
diferenciação do modelo para os três tamanhos de janela K que definiram o
início da primeira janela de calibragem, pois os resultados foram muito
semelhantes. O único benefício da diferenciação foi igualar o processo de
otimização do lambda nas metodologias analítica e híbrida. Em trabalhos
63
futuros, será melhor iniciar o processo de calibragem do lambda para a
metodologia analítica com EWMA a partir de uma mesma data, por exemplo,
100 dias após o primeiro dado disponível, que é o tempo suficiente para que a
fórmula recursiva do EWMA não seja influenciada pela semente inicial dada
para o σ o igual a zero.
Neste ponto deve-se colocar um questionamento natural: se a partir do
VaR será calculada uma outra medida de risco, o ES, para alguns parâmetros
utilizados nas metodologias depara-se que o VaR é rejeitado pelo teste de
Kupiec, ficaria sem sentido ou imediatamente descartada a segunda medida de
risco? Entende-se que a resposta é não, porque este resultado indica que o
VaR calculado não está tendo um desempenho satisfatório em fazer aquilo a
que se propõe: definir a perda máxima esperada com uma determinada
probabilidade para o horizonte de 1 dia útil, o que em termos do backtesting
significa acertar o percentual das violações do VaR. Já o ES pretende informar
a perda esperada dado que o VaR seja violado, o que não tem o mesmo
significado e, portanto, deve ser testado de forma independente do VaR.
Não se pode concluir que nos casos em que houve a rejeição do VaR
analítico com EWMA pelo teste de Kupiec, a causa tenha sido o processo de
otimização por se preocupar com o Expected Shortfall, uma vez que há outros
fatores envolvidos como a suposição de normalidade, por exemplo. Para fazer
esta verificação, seria necessário otimizar o lambda objetivando a melhoria do
VaR sob algum critério e comparar os resultados. Mas tal averiguação foge do
escopo deste trabalho.
64
Dentre as propostas de backtesting estudadas, Härdle e Stahl (1999),
Kerkhof e Melenberg (2003) e Berkowitz (2001), foi escolhida esta última para a
realização do backtesting do Expected Shortfall. Contudo, faz-se a ressalva de
que estas metodologias avaliam se a estimativa que se faz acerca da
distribuição de probabilidade dos retornos confere com os retornos realizados,
o que torna os testes aplicáveis somente à metodologia analítica com uso da
volatilidade EWMA, pois é a única que faz suposição acerca da distribuição de
retornos, considerando-os normais. Não foi identificada na literatura nenhuma
metodologia que teste a medida Expected Shortfall independentemente de se
fazer ou não estimativas acerca da distribuição dos retornos, a exemplo do que
faz o teste de Kupiec (1995) com relação ao VaR. Como no cálculo do EShistórico não se faz previsão acerca da distribuição, utilizando-se os retornos
efetivamente
realizados,
backtesting analisadas.
tornam-se
inadequadas
as
metodologias
de
Assim, os resultados do teste de razão de
verossimilhança caudal de Berkowitz (2001) apresentados a seguir referem-se
somente à metodologia analítica com EWMA, carecendo o ES histórico de uma
metodologia estatística que o teste efetivamente, uma vez que o critério de
Pitman utilizado adiante no trabalho só serve para efeito de comparação entre
as medidas.
Para a aplicação do teste de Berkowitz foi necessária a utilização do
programa Matlab em vez do Excel, porque a função deste para o cálculo da
inversa da função distributiva acumulativa (cdf) da Normal e da Qui-quadrada,
apresentou problemas de over-flow para números menores que 1,0 × 10 −7 em
65
valor absoluto, que foi o que ocorreu para alguns valores após a transformação
de Rosenblatt (1952) descrita na seção 2.6.
A Tabela 6 apresenta as razões de verossimilhança caudal do teste de
Berkowitz calculadas para os 10 ativos e para a carteira para os diferentes
níveis de significância α do VaR, considerando toda a série de retornos do
período de 05/07/1994 a 31/10/2003.
Tabela 6
Razão de verossimilhança caudal do teste de Berkowitz (2001) calculada
para as 10 ações mais líquidas da Bovespa e para a carteira igualmente
ponderada, para os níveis de significância α do VaR, considerando toda a
série de retornos do período de 05/07/1994 a 31/10/2003, com valor crítico
de 5,99.
Ativo
PETR4
ELET6
BBDC4
CEMIG4
ITAU4
VALE5
PETR3
USIM5
CSNA3
ELET3
CARTEIRA
α = 1%
α = 2,5%
α = 5%
α = 10%
2,83
11,11
15,21
7,65
17,70
13,35
14,25
11,16
7,02
13,43
8,38
6,12
6,53
7,43
14,52
9,86
8,08
16,86
10,03
11,16
9,32
13,66
11,31
11,77
10,06
6,51
21,39
18,67
7,24
11,81
4,29
2,67
5,14
7,48
5,83
5,67
3,67
8,36
3,09
2,58
3,88
4,00
6,62
6,30
Se o LR caudal encontrado para o ativo é menor do que o valor crítico
do teste (valores não grifados), no caso 5,99, que é a inversa da cdf da Quiquadrada com 2 graus de liberdade para o nível de significância do teste de
5%, a hipótese nula não é rejeitada, ou seja, a estimativa sobre a distribuição
dos retornos não é rejeitada. Assim, a probabilidade de cometer um erro do
tipo I, rejeitar uma hipótese nula verdadeira, será de 5%. Constata-se pela
análise da Tabela 6 que os resultados do teste de Berkowitz foram bons
66
somente para o nível de significância 1%, o que significa que a suposição para
os retornos de normalidade com uma média zero e volatilidade calculada pela
metodologia EWMA foi uma boa estimativa somente na cauda até o VaR de
1%. Para os níveis de significância de 2,5%, 5% e 10%, houve rejeições para
a maioria dos ativos.
Entendeu-se pelo estudo de Berkowitz (2001) que ao se acertar na
estimativa, qualquer medida de risco, VaR ou ES, que fosse calculada com
base na estimativa, teria um bom resultado. Logo, é possível que tenham sido
encontrados resultados contraditórios entre o teste de Kupiec e de Berkowitz
no que tange ao VaR calculado pela metodologia analítica, pois os resultados
do teste de Kupiec foram satisfatórios para os níveis de significância do VaR de
2,5% e 5%, diferentemente do teste de Berkowitz, cujos resultados só foram
satisfatórios para o nível de 1%.
O Gráfico 1 apresenta o backtesting do VaR calculado pela
metodologia analítica com uso da volatilidade EWMA e pela metodologia de
simulação histórica para a posição comprada na carteira igualmente ponderada
nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o
período de 15/07/1996 a 31/10/2003, calculados com os parâmetros α = 5% e
K=250. Os lambdas utilizados na metodologia analítica variaram a cada 100
dias da amostra, tendo sido obtidos por processo de otimização. Foram
plotados os valores somente a partir de 15/07/1996 (vide o Quadro 4), porque
para o VaR EWMA só havia valores para teste a partir desta data, apesar de
existirem dados do VaR histórico desde 10/07/1995. As perdas que aparecem
67
no gráfico são aquelas que superaram pelo menos um dos dois valores em
risco do dia anterior.
Gráfico 1
Backtesting do Valor em Risco calculado pela metodologia analítica com
EWMA e pela metodologia de simulação histórica para a posição
comprada na carteira igualmente ponderada nas 10 ações mais líquidas
da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a
31/out/2003, calculado com os parâmetros α = 5% e K=250. Os lambdas
utilizados na metodologia analítica variaram a cada 100 dias da amostra,
tendo sido obtidos por processo de otimização que encontrava para a
carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo
o parâmetro K definido o início da primeira janela de calibragem de 250
dias.
0,15
Valores Decimais
0,13
0,11
0,09
0,07
0,05
0,03
Perdas Superiores ao VaR
VaR-Hist
15
/0
1/
20
03
15
/0
7/
20
03
15
/0
1/
20
02
15
/0
7/
20
02
15
/0
7/
20
01
15
/0
1/
20
01
15
/0
7/
20
00
15
/0
1/
20
00
15
/0
1/
19
99
15
/0
7/
19
99
15
/0
1/
19
98
15
/0
7/
19
98
15
/0
7/
19
97
15
/0
1/
19
97
15
/0
7/
19
96
0,01
VaR-EWMA
O Gráfico 2 apresenta o backtesting do Expected Shortfall calculado
pela metodologia analítica e pela metodologia de simulação histórica para a
posição comprada na carteira igualmente ponderada nas 10 ações mais
líquidas da Bovespa em novembro de 2003, abrangendo o período de
15/07/1996 a 31/10/2003, calculados com os parâmetros α = 5% e K=250. Os
lambdas utilizados na metodologia analítica variaram a cada 100 dias da
68
amostra, tendo sido obtidos por processo de otimização. Da mesma forma que
no Gráfico 1, foram plotados os valores somente a partir de 15/07/1996 porque
para o ES EWMA só havia valores para teste a partir desta data, apesar de
existirem dados do ES histórico desde 10/07/1995. As perdas que aparecem no
gráfico são aquelas que superaram pelo menos um dos dois valores em risco
do dia anterior. Manteve-se esta comparação da perda com o VaR e não com
o ES, apesar de se estar analisando neste momento o ES, porque é de
interesse comparar o ES com a perda no dia em que esta supera o VaR e não
quando esta supera o próprio ES.
Gráfico 2
Backtesting do Expected Shortfall calculado pela metodologia analítica
com EWMA e pela metodologia de simulação histórica para a posição
comprada na carteira igualmente ponderada nas 10 ações mais líquidas
da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a
31/out/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas
utilizados na metodologia analítica com EWMA variaram a cada 100 dias
da amostra, tendo sido obtidos por processo de otimização que
encontrava para a carteira o ES mais próximo da perda efetiva quando o
VaR falhava, tendo o parâmetro K definido o início da primeira janela de
calibragem de 250 dias.
0,19
0,17
0,13
0,11
0,09
0,07
0,05
0,03
Perdas Superiores ao VaR
ES-Hist
ES-EWMA
15
/0
1/
20
03
15
/0
7/
20
03
15
/0
1/
20
02
15
/0
7/
20
02
15
/0
1/
20
01
15
/0
7/
20
01
15
/0
7/
20
00
15
/0
1/
20
00
15
/0
1/
19
99
15
/0
7/
19
99
15
/0
1/
19
98
15
/0
7/
19
98
15
/0
1/
19
97
15
/0
7/
19
97
0,01
15
/0
7/
19
96
Valores Decimais
0,15
69
4.2 Valor em Risco e Expected Shortfall pela Metodologia
Híbrida – The Best of Both Worlds
Da mesma forma como foi feito para o VaR e o ES calculados pela
metodologia analítica com uso da volatilidade EWMA e pela metodologia da
simulação histórica, o primeiro resultado que se extraiu dos valores de VaR e
ES da metodologia híbrida foi o atendimento ou não à propriedade da subaditividade. Na Tabela 7 são apresentados os resultados da verificação da subaditividade para 12 combinações dos parâmetros nível α e tamanho da janela K
para a metodologia híbrida. Nesta tabela são apresentados também os tempos
de processamento do programa elaborado no Excel para o cálculo do VaR e do
ES pelas três metodologias.
Pela análise da Tabela 7, percebe-se que o VaR calculado pela
metodologia híbrida também apresenta falhas na propriedade da subaditividade, com persistência até maior do que o VaR histórico, ao se comparar
com a Tabela 4.
O Expected Shortfall calculado pela metodologia híbrida
também passa pelo critério da sub-aditividade.
70
Tabela 7
Falhas na sub-aditividade das medidas de risco VaR e Expected Shortfall
calculadas pela metodologia híbrida para as 10 ações mais líquidas da
Bovespa e para a carteira igualmente ponderada, abrangendo o período
de 04/jul/1994 a 31/out/2003 e tempo de processamento do programa de
cálculo elaborado no Excel das metodologias histórica, analítica com
EWMA e híbrida. Os lambdas utilizados na metodologia híbrida variaram a
cada 100 dias da amostra, tendo sido obtidos por processo de otimização
que encontrava para a carteira o ES mais próximo da perda efetiva
quando o VaR falhava, tendo o parâmetro K definido o início da primeira
janela de calibragem de 250 dias.
Parâmetros
α
1%
2,5%
5%
10%
Qtde de falhas
na sub-aditividade
Janela
VaR Híbrido
ES Híbrido
50
100
250
50
100
250
50
100
250
50
100
250
8
32
130
49
25
34
37
15
7
11
22
16
0
0
0
0
0
0
0
0
0
0
0
0
Qtde de
Observações
2.011
1.961
1.811
2.011
1.961
1.811
2.011
1.961
1.811
2.011
1.961
1.811
Tempo de processamento em horas
VaR e ES Histórico,
analítico e Híbrido
8,76
50,27
42,16
56,57
50,60
42,35
44,75
6,84
43,24
51,08
44,46
45,11
A prova de que o ES híbrido é sempre sub-aditivo é a mesma do ES
histórico, apresentada em Acerbi e Tasche (2001) e reproduzida a seguir, com
a adição de alguns comentários e um exemplo prático ao final.
O Expected Shortfall é o simétrico da média aritmética dos α% piores
resultados, ou seja, o simétrico da média dos retornos menores ou iguais ao
simétrico do VaR. Considere um grande número de realizações {X i }{i =1,...,n} de
uma variável aleatória X . Ordene a amostra em ordem crescente e faça a média das
primeiras α% observações. Para fazer isso, seja definida a estatística de ordem
X 1:n ≤ Λ ≤ X n:n com os valores ordenados de {X i }{i =1,...,n} . Aproxime o número de α%
71
elementos na amostra por w = [nα %] = max{m m ≤ nα , m ∈ N }, a parte inteira de
[nα %] .
O conjunto dos α % piores resultados é então representado pelos w menores
retornos, {X 1:n ,Λ , X w:n } retirados de {X 1:n ,Λ , X n:n }. O estimador para o Expected
Shortfall para os α % ou w piores retornos de {X i }{i =1,...,n} é dado simplesmente
por:
(α )
ES n
(X ) = − ∑
w
i =1
X i :n
w
= -(média dos α % menores retornos X i ).
É fácil verificar que ES n(α ) é sub-aditivo para qualquer n. Considere
duas variáveis X e Y e um número n de realizações simultâneas
{(X i , Yi )}{i =1,...,n} .
Pode-se provar a sub-aditividade para qualquer n numa rápida análise de:
∑ (X + Y )
ES ( ) (X + Y ) = −
w
α
n
i =1
i:n
w
∑
≤−
w
i =1
( X i:n + Yi:n )
w
= ES n(α ) (X ) + ES n(α ) (Y )
Ou seja, o ES histórico da carteira será sempre menor ou igual à soma
dos ES histórico dos ativos individuais.
Essa prova se origina da seguinte propriedade básica: o mínimo da
soma é sempre maior ou igual à soma dos mínimos individuais; a qual
multiplicada por –1, resulta em: o simétrico do mínimo da soma é sempre
menor ou igual ao simétrico da soma dos mínimos individuais.
Considere estas cinco realizações simultâneas de
{(− 6,−15), (− 2,−13), (− 4,−11), (− 5,−18), (− 7,−10)},
{(X i , Yi )}{i =1,...,5} :
todas negativas, o que é uma
característica típica das realizações presentes na cauda esquerda de uma
72
distribuição de retornos. A carteira
{(X i + Yi )}{i =1,...,5} será: {− 21,−15,−15,−23,−17}.
É fácil perceber que o simétrico do mínimo da carteira
{(X i + Yi )}, +23, é menor
ou igual ao simétrico da soma dos mínimos individuais de X i e de Yi , +25; ou
então, que o simétrico da soma dos dois menores da carteira {(X i + Yi )}, +44, é
menor ou igual ao simétrico da soma dos dois menores individuais de X i e de
Yi , +46, e assim, sucessivamente. Se a propriedade se verifica para a soma,
será verificada também para a média aritmética.
Os pesos atribuídos na metodologia híbrida podem ser vistos como
repetições dos retornos a que se referem, como numa tabela de freqüências.
Como ao último retorno que entra no cálculo do ES híbrido atribui-se não o seu
próprio peso, mas somente o quanto falta para o peso acumulado chegar ao
nível alfa, em todos os ativos individuais a posição dos últimos retornos
utilizados no cálculo do ES será a mesma. Assim, será perfeitamente aplicável
a propriedade dos mínimos.
O tempo de processamento foi apresentado na Tabela 7 com o fim de
ilustrar a pesada carga computacional que foi calcular estas medidas de risco,
com todo o processo de otimização de lambdas envolvido, para os mais de
2000 dias da amostra, de cada um dos 11 ativos no aplicativo Excel com uso
do Visual Basic. Na análise desses números, deve-se considerar que o
programa com as diferentes combinações de parâmetros foi rodado
simultaneamente em doze microcomputadores do Departamento de Estudos e
Pesquisas do Banco Central do Brasil localizado no Rio de Janeiro, havendo,
73
portanto, diferenças no desempenho relacionadas aos diferentes equipamentos
utilizados. Devido ao elevado tempo de processamento observado na Tabela 7,
fica como sugestão para trabalhos futuros, a utilização do programa Matlab,
que por ter a capacidade de trabalhar matricialmente, pode realizar o cálculo
das medidas de risco para vários ativos de uma só vez, enquanto no Excel foi
feito um ativo de cada vez, retardando em muito a geração dos resultados
quando se fazia uma alteração e se rodava novamente o programa para todos
os parâmetros.
Assim como na metodologia analítica com EWMA, o processo de
otimização do lambda descrito na seção 3.2.5 objetivou a obtenção dos
melhores resultados para o Expected Shortfall híbrido. Isso tornou necessária a
análise dos reflexos deste processo no VaR híbrido por intermédio do teste de
Kupiec (1995).
A seguir é apresentada a Tabela 8 que mostra para cada combinação
de parâmetros, a quantidade de ativos para os quais o VaR híbrido foi rejeitado
pelo teste de Kupiec (1995), aplicado com o nível de significância de 5% sobre
toda a amostra existente no período de 04/07/1994 a 31/10/2003 e também a
rejeição ou não para a carteira.
74
Tabela 8
Resultado do teste de Kupiec com o nível de significância de 5% aplicado
sobre o VaR calculado pela metodologia híbrida para as 10 ações mais
líquidas da Bovespa e para a carteira igualmente ponderada, somente
posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os
lambdas utilizados na metodologia híbrida variaram a cada 100 dias da
amostra, tendo sido obtidos por processo de otimização que encontrava
para a carteira o ES mais próximo da perda efetiva quando o VaR falhava,
tendo o parâmetro K definido o início da primeira janela de calibragem de
250 dias.
PARÂMETROS
Nível α
1%
2,5%
5%
10%
K
50
100
250
50
100
250
50
100
250
50
100
250
METODOLOGIA HÍBRIDA
Qtde de ativos em que
houve rejeição do VaR
10
10
10
10
10
7
10
8
6
10
3
1
LIMITES DE KUPIEC
CARTEIRA
Houve rejeição
da carteira?
sim
sim
sim
sim
sim
sim
sim
não
não
sim
não
não
Percentual de falhas
da carteira
3,58%
2,24%
1,82%
4,73%
3,57%
3,48%
7,21%
5,87%
5,80%
12,34%
11,17%
10,66%
Inferior
Superior
0,60%
0,59%
0,58%
1,85%
1,84%
1,82%
4,08%
4,07%
4,03%
8,71%
8,70%
8,65%
1,46%
1,47%
1,49%
3,21%
3,22%
3,25%
5,98%
5,99%
6,03%
11,34%
11,35%
11,41%
O Quadro 7 apresenta os limites de Kupiec e o percentual de falhas do
VaR calculado pela metodologia híbrida para cada um dos ativos.
Constata-se pela Tabela 8 e pelo Quadro 7, que quanto menor o nível
de significância α e quanto menor o tamanho da janela K, maior a rejeição do
VaR híbrido pelo teste de Kupiec.
O VaR híbrido só começa a não ser
rejeitado pelo teste a partir da janela de 250 dias para o nível de significância
2,5%, e a partir da janela de 100 dias para os níveis 5% e 10%.
75
Quadro 7
Limites de Kupiec e proporção de falhas do VaR calculado pela
metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a
carteira igualmente ponderada, somente posição comprada, abrangendo
o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na
metodologia híbrida variaram a cada 100 dias da amostra, tendo sido
obtidos por processo de otimização que encontrava para a carteira o ES
mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro
K definido o início da primeira janela de calibragem de 250 dias.
ATIVOS
Kupiec
PETR4
ELET6
BBDC4
CEMIG4
ITAU4
VALE5
PETR3
USIM5
CSNA3
ELET3
Carteira
K=50
3,63%
3,53%
3,58%
3,68%
3,88%
3,63%
3,43%
3,58%
3,03%
3,83%
3,58%
α = 1%
K=100
2,35%
1,99%
2,09%
2,24%
2,55%
2,55%
2,09%
2,30%
2,19%
2,40%
2,24%
K=250
1,82%
1,71%
1,60%
2,04%
1,88%
1,93%
1,71%
2,04%
1,99%
1,99%
1,82%
K=50
5,12%
4,83%
4,88%
4,83%
5,02%
4,98%
4,88%
5,17%
4,73%
4,83%
4,73%
α = 2,5%
K=100 K=250
3,78% 3,37%
3,57% 3,04%
3,62% 3,09%
3,88% 3,26%
4,29% 3,81%
3,88% 3,59%
3,72% 3,31%
3,72% 3,54%
3,32% 3,20%
3,93% 3,70%
3,57% 3,48%
K=50
7,36%
7,41%
7,41%
7,06%
7,41%
7,36%
7,96%
7,41%
7,51%
6,82%
7,21%
α = 5%
K=100
5,82%
6,22%
6,17%
5,82%
6,12%
6,12%
6,22%
6,33%
6,07%
6,02%
5,87%
K=250
5,80%
6,46%
6,13%
5,91%
6,35%
6,02%
6,63%
6,35%
5,86%
6,30%
5,80%
K=50
12,04%
11,99%
12,99%
12,44%
12,34%
11,99%
11,99%
12,39%
12,34%
11,64%
12,34%
α = 10%
K=100
11,17%
10,71%
11,53%
10,97%
11,58%
10,71%
10,87%
11,02%
11,68%
10,31%
11,17%
K=250
10,50%
10,50%
11,60%
11,16%
11,05%
10,00%
11,05%
10,72%
10,77%
10,44%
10,66%
Superior 1,46% 1,47% 1,49% 3,21% 3,22% 3,25% 5,98% 5,99% 6,03% 11,34% 11,35% 11,41%
Inferior
0,60% 0,59% 0,58% 1,85% 1,84% 1,82% 4,08% 4,07% 4,03%
8,71%
8,70%
8,65%
Na Tabela 8 e no Quadro 7 pôde-se observar a informação dada
anteriormente de que os limites de Kupiec variam conforme a quantidade de
dias na amostra, o nível de significância α do VaR e o valor crítico dado pelo
nível de significância do teste de hipóteses, no caso 5%.
A rejeição do VaR calculado pela metodologia híbrida também não
inviabiliza o estudo do Expected Shortfall híbrido, uma vez que se trata de
medidas com diferentes propósitos conforme explicitado anteriormente,
havendo a necessidade de serem testadas independentemente uma da outra.
Também não se pode concluir que nos casos em que houve a rejeição do VaR
híbrido pelo teste de Kupiec, a causa tenha sido o processo de otimização por
se preocupar exclusivamente com o Expected Shortfall. Para fazer esta
76
verificação, seria necessário otimizar o lambda objetivando a melhoria do VaR
sob algum critério e comparar os resultados. Mas tal averiguação foge do
escopo deste trabalho.
Uma questão não resolvida com relação ao Expected Shortfall é o fato
de não terem sido identificadas na literatura formas de se fazer o seu
backtesting. Como já foi dito, o teste de Berkowitz só é aplicável em
metodologias que fazem estimativas quanto à distribuição dos retornos, o que
não é o caso da metodologia híbrida aqui proposta. Este problema ocorreu
com o ES histórico, pois se constatou que ele era sub-aditivo, mas não se
aplicou nenhum teste que pudesse atestar o seu bom funcionamento ou não.
Fica como outra sugestão para trabalhos futuros, a formulação de um teste
estatístico que sirva para testar o Expected Shortfall independentemente da
distribuição dos retornos, a exemplo do que faz o teste de Kupiec, o que
certamente contribuirá para a adoção desta medida de risco pelo Comitê de
Basiléia. Como será visto na seção a seguir, o critério de Pitman só serve para
fazer comparação entre medidas.
O Gráfico 3 apresenta o backtesting do VaR e do Expected Shortfall
calculados pela metodologia híbrida para a posição comprada na carteira
igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro
de 2003, abrangendo o período de 15/07/1996 a 31/10/2003, calculados com
os parâmetros α = 5% e K=250. Os lambdas utilizados variaram a cada 100
dias da amostra, tendo sido obtidos por processo de otimização. Foram
plotados os valores somente a partir de 15/07/1996 porque só havia valores
77
para teste a partir desta data. As perdas que aparecem no gráfico são aquelas
que superaram o VaR híbrido do dia anterior.
Gráfico 3
Backtesting do VaR e do Expected Shortfall calculados pela metodologia
híbrida para a posição comprada na carteira igualmente ponderada nas 10
ações mais líquidas da Bovespa em novembro de 2003, abrangendo o
período de 15/jul/1996 a 31/out/2003, calculados com os parâmetros
α = 5% e K=250. Os lambdas utilizados variaram a cada 100 dias da
amostra, tendo sido obtidos por processo de otimização que encontrava
para a carteira o ES mais próximo da perda efetiva quando o VaR falhava,
tendo o parâmetro K definido o início da primeira janela de calibragem de
250 dias.
0,19
0,17
Valores Decimais
0,15
0,13
0,11
0,09
0,07
0,05
0,03
Perdas Superiores ao VaR
VaR-Híbrido
15
/0
1/
20
03
15
/0
7/
20
03
15
/0
1/
20
02
15
/0
7/
20
02
15
/0
1/
20
01
15
/0
7/
20
01
15
/0
7/
20
00
15
/0
1/
20
00
15
/0
1/
19
99
15
/0
7/
19
99
15
/0
1/
19
98
15
/0
7/
19
98
15
/0
1/
19
97
15
/0
7/
19
97
15
/0
7/
19
96
0,01
ES-Híbrido
4.3 Resultados do Critério de Pitman
Conforme explicado na seção 2.6.1, o critério de Pitman é uma medida
de afastamento e foi utilizado de forma a verificar qual dos Expected Shortfalls
calculados pelas três metodologias diferentes mais se aproximou da perda do
dia seguinte quanto esta foi superior ao VaR.
78
A Tabela 9 apresenta especificamente para a carteira, o resultado da
aplicação do critério de Pitman para as 12 combinações de parâmetros nível α
e tamanho de janela K.
Tabela 9
Resultado da aplicação do critério de Pitman para a carteira igualmente
ponderada, comparando dois a dois o ES EWMA, ES Histórico e o ES
Híbrido nos dias em que houve falha comum do VaR nas três
metodologias, para as 12 combinações de parâmetros nível α e tamanho
da janela K, abrangendo o período de 04/jul/1994 a 31/out/2003.
Seleção da melhor metodologia
do ES pelo critério de Pitman
Parâmetros
Nível α
Janela K
50
1%
100
250
50
2,5%
100
250
50
5%
100
250
50
10%
100
250
ES EWMA φ ES HÍBRIDO φ ES H IST
ES EWMA φ ES HIST φ ES HÍBRIDO
ES HÍBRIDO φ ES H IST φ ES EWMA
ES EWMA φ ES HÍBRIDO φ ES H IST
ES EWMA φ ES HÍBRIDO φ ES H IST
ES HIST φ ES EWMA φ ES HÍBRIDO
ES EWMA φ ES HÍBRIDO φ ES H IST
ES EWMA φ ES HÍBRIDO φ ES H IST
ES EWMA φ ES HÍBRIDO φ ES H IST
ES EWMA φ ES HIST φ ES HÍBRIDO
ES EWMA φ ES HÍBRIDO φ ES H IST
ES EWMA φ ES HÍBRIDO φ ES H IST
Verifica-se para quase todas as situações, com exceção de duas
combinações de parâmetros, que o Expected Shortfall calculado pela
metodologia
analítica
com
uso
da
volatilidade
EWMA
mostrou-se
probabilisticamente melhor do que as outras duas metodologias, ou seja,
comparando-se dois a dois, em mais de 50% dos casos de falha comum do
VaR nas três metodologias, esta medida aproximou-se mais da perda
efetivamente realizada. O ES híbrido também foi probabilisticamente melhor
do que o ES histórico.
79
A Tabela 10 apresenta os resultados da aplicação do critério de Pitman
para todos os ativos, inclusive para a carteira igualmente ponderada,
totalizando 11 ativos.
Tabela 10
Resultado da aplicação do critério de Pitman para as 10 ações mais
líquidas da Bovespa em novembro de 2003, comparando dois a dois o ES
EWMA, ES Histórico e o ES Híbrido nos dias em que houve falha comum
do VaR nas três metodologias, para as 12 combinações de parâmetros
nível α e tamanho da janela K, abrangendo o período de 04/jul/1994 a
31/out/2003.
Quantidade de ativos em que:
Parâmetros
Nível α
Janela K
ES EWMA φ ES HIST
50
100
250
50
2,5%
100
250
50
5%
100
250
50
10%
100
250
Total / complemento
1%
10
11
7
11
10
7
10
10
9
11
10
10
116/16
ES HIST φ ES HIBR
0
11
6
1
3
5
4
2
3
5
5
2
47/85
ES EWMA φ ES HIBR
11
10
5
11
10
10
10
10
8
10
8
8
111/21
Os números da Tabela 10 indicam a quantidade de ativos em que foi
afirmativa a resposta às três perguntas: ES EWMA é probabilisticamente
melhor do que ES HIST ?
ES HIST φ ES HIBR ?
ES EWMA φ ES HIBR ?
Dessa forma pode-se entender a totalização como um total de pontos a favor
da sentença e o complemento traduz os pontos favoráveis à sentença
contrária.
Percebe-se claramente a superioridade do ES EWMA em
comparação com o ES histórico e o ES híbrido, aproximando-se mais vezes da
perda quando esta superou o VaR. A segunda melhor medida foi o ES híbrido,
superando o ES histórico, conferindo os resultados para os ativos com o que já
80
havia sido observado para a carteira. O Gráfico 4 apresenta o backtesting do
Expected Shortfall calculado pelas três metodologias para a posição comprada
na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em
novembro de 2003, abrangendo o período de 15/07/1996 a 31/10/2003,
calculados com os parâmetros α = 5% e K=250. Foram plotados os valores
somente a partir de 15/07/1996, porque para o ES EWMA e híbrido só havia
valores para teste a partir desta data, apesar de existirem dados do ES
histórico desde 10/07/1995. As perdas que aparecem no gráfico são aquelas
que superaram ao mesmo tempo os valores em risco do dia anterior calculados
pelas três metodologias.
Gráfico 4
Backtesting do Expected Shortfall calculado pelas três metodologias para
a posição comprada na carteira igualmente ponderada nas 10 ações mais
líquidas da Bovespa em novembro de 2003, abrangendo o período de
15/jul/1996 a 31/out/2003, calculado com os parâmetros α = 5% e K=250.
Os lambdas utilizados na metodologia analítica com EWMA e híbrida
variaram a cada 100 dias da amostra, tendo sido obtidos por processo de
otimização que encontrava para a carteira o ES mais próximo da perda
efetiva quando o VaR falhava, tendo o parâmetro K definido o início da
primeira janela de calibragem de 250 dias.
0,19
0,17
0,13
0,11
0,09
0,07
0,05
0,03
Perdas Superiores ao VaR
ES-Histórico
ES-EWMA
15
/0
7/
20
03
15
/0
1/
20
03
15
/0
7/
20
02
15
/0
1/
20
02
15
/0
7/
20
01
15
/0
1/
20
01
15
/0
7/
20
00
15
/0
1/
20
00
15
/0
7/
19
99
15
/0
1/
19
99
15
/0
7/
19
98
15
/0
1/
19
98
15
/0
7/
19
97
15
/0
1/
19
97
0,01
15
/0
7/
19
96
Valores Decimais
0,15
ES-Híbrido
81
5 CONCLUSÕES
A alteração na metodologia de Boudoukh et al. (1998) proposta neste
trabalho, fazendo com que o VaR híbrido fosse calculado com a utilização dos
pesos acumulados dos retornos anteriores, conforme descrito na seção 3.2.3,
representou um aprimoramento tanto para o VaR como para o ES híbrido, pois
tornou obrigatória a utilização de pelo menos dois retornos em seu cálculo,
enquanto na forma original acabava-se utilizando somente um único retorno
quando o peso do menor retorno por si só já era superior ao nível α. Além
disso, o VaR híbrido calculado conforme a alteração proposta diminuiu o
número de falhas na sub-aditividade em comparação com a metodologia de
Boudoukh et al. (1998).
Quanto às falhas na sub-aditividade do VaR histórico, não foi possível
estabelecer uma regra dizendo se a sua ocorrência era mais fácil de ser
observada quando se trabalhava com janelas maiores ou menores, com alfas
menores ou maiores. Conclui-se que a ocorrência de falhas está relacionada à
disposição dos retornos dos ativos nas séries de dados, ou seja, depende
principalmente da própria distribuição dos retornos.
Com relação à metodologia analítica com utilização da volatilidade
EWMA, conclui-se que não fez muito sentido a diferenciação de parâmetros do
modelo para os três tamanhos de janela K que não entram diretamente no
cálculo da volatilidade EWMA, mas definiram diferentes inícios da primeira
janela de calibragem e acabaram por gerar lambdas ótimos diferentes para os
três K. Os resultados foram bastante semelhantes para os diferentes K e a
82
diferenciação só trouxe a vantagem computacional de igualar o processo de
otimização na metodologia analítica e na híbrida. Em trabalhos futuros será
melhor iniciar o processo de calibragem do lambda a partir de uma mesma
data, por exemplo, 100 dias após o primeiro dado disponível, que é o tempo
suficiente para que a fórmula recursiva do EWMA não seja influenciada pela
semente inicial dada para o σ o .
A inédita proposta de se calcular o Expected Shortfall por uma
metodologia híbrida também satisfaz à propriedade da sub-aditividade e,
portanto, também é uma medida coerente de risco pelo menos no que se refere
à sub-aditividade. A propriedade básica de que a soma dos mínimos é sempre
menor ou igual ao mínimo da soma explica a sub-aditividade do ES histórico,
aplicando-se também ao ES híbrido, pois os pesos aplicados aos retornos
podem ser vistos como freqüências dos mesmos e o ES híbrido é uma média
ponderada dos retornos em ordem crescente até uma mesma posição em
todos os ativos.
O teste de Berkowitz assim como outros testes encontrados na
literatura, os quais se propõem a ser um bom backtesting para o Expected
Shortfall, não serve para testar as metodologias da simulação histórica e
híbrida. Estes testes estão, na verdade, avaliando se a previsão que se faz
acerca da distribuição de retornos é boa ou não. Ora, se a estimativa que se
faz para a distribuição dos retornos tem boa precisão, a medida de risco que se
calcula por um método analítico em que faz suposições acerca da distribuição
de retornos, seja VaR ou ES, terá um bom desempenho naquilo a que ela se
83
propõe: o VaR a acertar a perda máxima com um determinado nível de
confiança e o ES a ter uma boa previsão da perda quando o VaR é
ultrapassado. Agora, quando se utiliza a própria distribuição empírica para
calcular a medida de risco, que é o que se faz bastante nesta pesquisa com a
metodologia de simulação histórica e com a híbrida, estes testes se tornam
difíceis de se aplicar, ou até mesmo inadequados. Sugere-se para trabalhos
futuros a elaboração de uma inédita metodologia de backtesting que avalie o
Expected Shortfall independentemente da estimativa da distribuição de
retornos, o que contribuirá para a adoção do ES pelo Comitê de Basiléia.
Os resultados do teste de Kupiec (1995) e do teste de Berkowitz (2001)
foram controversos.
O teste de Kupiec reprovou os Valores em Risco
calculados pela metodologia analítica com EWMA para os níveis de
significância de 1% e em parte para o nível de 10% conforme a Tabela 5. O
teste de Berkowitz relativo à cauda da distribuição, que dá um parecer acerca
da estimativa da distribuição de retornos e se estende a todas as medidas
calculadas com base nesta estimativa, aprovou a estimativa somente para o
nível de significância de 1% conforme a Tabela 6.
De acordo com o critério de Pitman, o Expected Shortfall calculado pela
metodologia analítica com EWMA foi a melhor medida na comparação entre as
três metodologias, seguida da metodologia híbrida e da metodologia da
simulação histórica. No geral, o Expected Shortfall da metodologia analítica
com EWMA foi o que mais se aproximou da perda do dia seguinte quando esta
foi superior ao VaR calculado pelas três metodologias.
84
REFERÊNCIAS
ABRAMOVITZ, L. Alguns resultados sobre a estimação de medidas de
risco usando modelagem GARCH e a Teoria dos Valores Extremos. 2001.
76 p. Dissertação (Mestrado em Estatística) – Instituto de Matemática,
Universidade Federal do Rio de Janeiro, Rio de Janeiro.
ACERBI, C. e TASCHE, P. On the coherence of expected shortfall. Journal of
Banking & Finance, v. 26, p. 1487-1503, 2002.
________. Expected Shortfall: a natural coherent alternative to Value at
Risk. Disponível em: http://www.bis.org/bcbs/ca/acertasc.pdf. Acesso em 03
mar. 2004.
ARTZNER, P.; DELBAEN, F.; EBER, J. e HEATH, D. Thinking coherently.
Risk, v. 10, nº 11, November 1997.
________. Coherent measures of risk. Mathematical Finance, v. 9, nº 3, p.
203-228, July 1999.
BARBEDO, C. H. da S. Avaliação do valor em risco de um portfólio de
opções segundo as metodologias delta-gama e simulação histórica
filtrada. 2002. 114 p. Dissertação (Mestrado em Administração) – Instituto
Coppead de Administração, Universidade Federal do Rio de Janeiro, Rio de
Janeiro.
BERKOWITZ,
J.
Testing
density
forecasts,
with
applications
to
risk
management. Journal of Business & Economic Statistics, v. 19, nº 4,
October 2001.
BOUDOUKH, J.; RICHARDSON, M.; WHITELAW, R. F. The best of both
worlds: a hybrid approach to calculating Value at Risk. Risk, v. 11, nº 5, p. 6467, 1998.
________. O melhor dos dois mundos: uma abordagem híbrida para calcular
value-at-risk. Resenha BM&F, nº 122, p. 21-37.
85
CRNKOVIC, C. e DRACHMAN, J. Model Risk Quality Control. Risk, v. 9, n.9, p.
139-143, September 1996.
DANÍELSSON, J. The emperor has no clothes: limits to risk modeling. Journal
of Banking & Finance, v. 26, p. 1273-1296, 2002.
DIEBOLD, F.; GUNTHER, T. A. e TAY, A. S. Evaluating Density Forecasts.
University
of
Pennsylvania.
August
1997.
Disponível
em:
http://www.ssc.upenn.edu/~fdiebold/papers/paper16/paper16.pdf . Acesso em 5
mar. 2004.
DUFFIE, D. e PAN, J. An overview of Value at Risk. Journal of Derivatives, 4,
Spring, p. 7-49, 1997.
FAMA, E. F. The behaviour of stock-market process. The Journal of
Business, 38, p. 34-105, 1965.
FIERLI, F. Applying and testing VaR estimation methods for non-linear
portfolios, University of Southern Switzerland, Working Paper, 2002.
HÄRDLE,
W.
e
STAHL,
G.
Backtesting
beyond
VaR.
Series
Sonderforschungsbereich 373, Humboldt Universitaet Berlin, nº 1999-105,
December 1999. Disponível em: http://ideas.repec.org/p/wop/humbsf/1999105.html. Acesso em: 5 mar. 2004.
HAUGEN, R. A. e BAKER, N. Commonality in the Determinants of
Expected Stock Returns. Journal of Financial Economics. July 1996.
HULL, J. Options, futures and other derivatives. Upper Saddle River:
Prentice Hall, fourth edition, 1999.
JOHNSON, N. L. On the comparison of estimators. Biometrika, 37, 281-287,
1950.
JORION, P. Value at Risk: uma nova fonte de referência para o controle do
risco de mercado. São Paulo: Bolsa de Mercadorias & Futuros, 1997. 305 p.
86
KENDALL, M. The analysis of economic time-series. Journal of the Royal
Statistical Society, 96, 11-25, 1953.
KERFHOF, J. e MELENBERG, B. Backtesting for risk-based regulatory capital.
Discussion Paper Series, Tilburg University, Center for Economic
Research, n. 110, May 2003.
KUPIEC, P. H. Techniques for verifying the accuracy of risk measurement
models. The Journal of Derivatives, v. 2, p. 73-84, December 1995.
LONGIN, F. M. Beyond the VaR. The Journal of Derivatives, v. 8, nº 4, p. 3648, Summer 2001.
LOPES, P. A. Probabilidades e Estatística. Rio de Janeiro: Reichmann
&Affonso Editores. 1999. 192 p.
MANDELBROT, B. The Variation of Certain Speculative Prices. The Journal of
Business, 36, p. 394-419, 1963.
MENDES, B. V. M. e MERKLE, M. Some remarks regarding Pitman
closeness. Relatório Técnico, nº 142, IM-UFRJ, 2001.
MEYERS, G. Coherent measures of risk, an exposition for the Lay Actuary.
Insurance
Services
Office,
Inc.
March
2000.
Disponível
em:
http://www.casact.org/pubs/forum/00sforum/meyers/Coherent%20Measures%2
0of%20Risk.pdf . Acesso em 5 mar. 2004.
Merrian-Webster OnLine Dictionary. Disponível em: http://www.merriamwebster.com. Acesso em: 5 mar. 2004.
PAPAGEORGIOU, A. e PASKOV, S. Deterministic simulation for risk
management. The Journal of Portfolio Management, May, p. 122-127, 1999.
PITMAN, E. The “closest” estimates of statistical parameters. Proc.
Cambridge Phil. Soc., 33, 212-222, 1937.
87
PRITSKER, M. The hidden dangers of historical simulation. Board of
Governors of the Federal Reserve System, June 2001. Disponível em
http://www.federalreserve.gov/pubs/feds/2001/200127/200127pap.pdf . Acesso
em 5 mar. 2004.
RAMOS, P. B.; SANTOS, J. F. e LEMGRUBER, E. F. Estimativas do Valor em
Risco e das perdas esperadas além do VaR. In: WETZEL, U. e TOMEI, P.
Estudos em Negócios II. Rio de Janeiro: Mauad Editora, 2002. p. 49-74.
RAO, C. R. Some comments on the minimum mean square error as a
criterion of estimation. Statistics and Related Topics, North-Holland, 1981.
ROSENBLATT, M. Remarks on a multivariate transformation. Annals of
Mathematical Statistics, 23, 1952.
YAMAI, Y. e YOSHIBA, T. On the validity of Value-at-Risk: comparative
analyses with Expected Shortfall. Monetary and Economic Studies, Bank of
Japan,
January
2002.
Disponível
em:
http://www.imes.boj.or.jp/english/
publication/mes/2002/me20-1-3.pdf. Acesso em 5 mar. 2004.
Download

História do Value at Risk - coppead