Alan Cosme Rodrigues da Silva Análise da Coerência de Medidas de Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de uma Metodologia Híbrida COPPEAD / UFRJ Março de 2004 ii Análise da Coerência de Medidas de Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de uma Metodologia Híbrida Alan Cosme Rodrigues da Silva Universidade Federal do Rio de Janeiro Instituto COPPEAD de Administração Orientador: Eduardo Facó Lemgruber Ph.D. em Finanças (UCLA, EUA) Rio de Janeiro Março de 2004 iii Análise da Coerência de Medidas de Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de uma Metodologia Híbrida Alan Cosme Rodrigues da Silva Dissertação submetida ao corpo docente do Instituto COPPEAD de Administração da Universidade Federal do Rio de Janeiro – UFRJ, como parte dos requisitos necessários à obtenção do grau de Mestre. Aprovada por: Rio de Janeiro Março de 2004 iv Silva, Alan Cosme Rodrigues da. Análise da Coerência de Medidas de Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de uma Metodologia Híbrida / Alan Cosme Rodrigues da Silva. – Rio de Janeiro, 2004. xvii, 87. Dissertação (Mestrado em Administração) – Universidade Federal do Rio de Janeiro – UFRJ, Instituto COPPEAD de Administração, 2004. Orientador: Eduardo Facó Lemgruber. 1. Valor em Risco (VaR). 2. Expected Shortfall 3. Medidas coerentes de risco. 4. Finanças – Teses. I. Lemgruber, Eduardo Facó (Orient.). II. Universidade Federal do Rio de Janeiro. Instituto Coppead de Administração. III. Título v À minha grande família, a quem tanto amo. vi AGRADECIMENTOS Agradeço primeiramente a Deus nosso Pai não só pela dissertação, mas por tudo em minha vida, pelos acontecimentos bons os quais não mereço por completo e pelos não tão bons que me fortalecem cada vez mais a fé. Ao Banco Central do Brasil, meu empregador e duplamente aos contribuintes brasileiros, pela oportunidade de fazer este curso de mestrado de excelência. À minha amada esposa, Gabriela, pelo incentivo para ingressar no curso. Aos meus pais, Faustino e Ana, pois as oportunidades que me deram foram fundamentais para eu chegar até aqui. Ao Prof. Eduardo Facó, pela idéia do tema, pela orientação com maestria e pela confiança depositada, à qual espero ter correspondido. Aos amigos do COPPEAD pelo apoio que me deram durante o curso, em especial, ao amigo Marcelo Nuno, vulgo, De Nuno. Aos amigos do Depep-RJ pelas trocas de idéias, pelas sugestões que auxiliaram a elaboração desta dissertação e até mesmo por emprestarem seus computadores. vii Ajuizado serás não supondo que sabes o que ignoras. Sócrates viii RESUMO SILVA, Alan Cosme Rodrigues da. Análise da Coerência de Medidas de Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de uma Metodologia Híbrida. Orientador: Eduardo Facó Lemgruber. Rio de Janeiro: UFRJ/COPPEAD, 2004. Dissertação (Mestrado em Administração). O trabalho busca analisar empiricamente a coerência do VaR pela definição de Artzner et al. (1997) no Mercado Brasileiro de Ações, calculado pela metodologia da simulação histórica, pela analítica com volatilidade EWMA do RiskMetricsTM e pela híbrida desenvolvida em Boudoukh et al. (1998) com alterações. Utilizam-se como amostra as dez ações mais líquidas da Bovespa em novembro de 2003, com os preços abrangendo o período de 04/jul/1994 a 31/out/2003. É também estudada com os dados empíricos a coerência do Expected Shortfall calculado pela metodologia definida em Acerbi e Tasche (2001), pela metodologia analítica com volatilidade EWMA e pela metodologia híbrida, sendo esta última desenvolvida no presente trabalho. Para estas duas últimas, em vez de se utilizar um dado fator de decaimento (lambda), é desenvolvido e implementado um processo de otimização de lambdas que procura obter a melhor estimativa do Expected Shortfall. Todas essas medidas de risco são calculadas para 12 combinações de parâmetros, com os níveis de significância α de 1%, 2,5%, 5% e 10% e com os tamanhos de janela K de 50, 100 e 250 dias. A fim de se testar o VaR utiliza-se o teste desenvolvido em Kupiec (1995) e para o Expected Shortfall, o teste de Berkowitz (2001), concluindo-se que este último não serve para testar as metodologias histórica e híbrida. Chega-se à conclusão de que o Expected Shortfall calculado pela metodologia híbrida passa pelo critério da sub-aditividade, sendo também uma medida coerente de risco. ix ABSTRACT SILVA, Alan Cosme Rodrigues da. Análise da Coerência de Medidas de Risco no Mercado Brasileiro de Ações e Críticas ao Desenvolvimento de uma Metodologia Híbrida. Orientador: Eduardo Facó Lemgruber. Rio de Janeiro: UFRJ/COPPEAD, 2004. Dissertação (Mestrado em Administração). This work seeks to analyze empirically the coherence of VaR by the definition of Artzner et al. (1997) at Brazilian Stock Market, calculated by historical simulation methodology, analytical methodology with EWMA volatility from RiskMetricsTM and hybrid approach with some modifications. The sample used were the ten most traded stocks of Bovespa in November 2003 with prices covering the period from July 4th 1994 through October 31st 2003. Using the empirical data, the coherence of Expected Shortfall calculated by methodology from Acerbi and Tasche (2001), analytical methodology and hybrid approach is also studied. This last approach was developed in this work. For analytical methodology and hybrid approach, instead of using a given decay factor (lambda), an optimization process that looks for the best Expected Shortfall was implemented. All these measures of risk were calculated for twelve sets of parameters, covering the significance levels of 1%, 2,5%, 5% e 10% and 50, 100 and 250 days of moving windows. For the purpose of backtesting VaR, the test developed in Kupiec (1995) is used and for Expected Shortfall the test developed in Berkowitz (2001), coming to the conclusion that this last one is not useful to backtesting historical simulation and hybrid approaches. We also came to the conclusion that the Expected Shortfall calculated by the developed hybrid approach is also a sub-additive measure of risk, being considered a coherent measure of risk. x LISTA DE SIGLAS E ABREVIATURAS CAS - Casualty Actuarial Society cdf - cumulative distribution function ES - Expected Shortfall EWMA - Exponential Weighted Moving Average iid - Independent and identically distributed LR - log-likelihood ratio pdf - probability density function Qtde - quantidade VaR - Valor em risco xi LISTA DE ILUSTRAÇÕES Figura 1 - Lucros e perdas da posição vendida nas opções digitais A e B e na carteira vendida nas duas opções. A opção A, vendida por u, paga 1.000 se o preço do ativo subjacente S for maior que o preço de exercício U, enquanto a opção B, vendida por λ, paga 1.000 se S < L. ..................................................................................................................................... 11 Figura 2 - Função Densidade de Probabilidade (pdf) dos lucros e perdas com distribuição Normal, e representação do VaR e do Expected Shortfall, obtidos ao nível de significância de α%. ................................................................................................................................... 15 Figura 3 - Relação linear entre o percentil e a ordem da série de K valores ordenados em ordem crescente de valor...................................................................................................... 36 Figura 4 - Esquematização da definição das janelas de calibragem e de teste no processo de otimização do lambda das metodologias analítica com EWMA e híbrida com a primeira janela de calibragem iniciando-se após K dias úteis, sendo K o parâmetro que define o tamanho da janela na metodologia híbrida. .......................................................................... 50 Gráfico 1 - Backtesting do Valor em Risco calculado pela metodologia analítica com EWMA e pela metodologia de simulação histórica para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculado com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ........................................................................................ 67 Gráfico 2 - Backtesting do Expected Shortfall calculado pela metodologia analítica com EWMA e pela metodologia de simulação histórica para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica com EWMA variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias............................................................. 68 xii LISTA DE ILUSTRAÇÕES Gráfico 3 - Backtesting do VaR e do Expected Shortfall calculados pela metodologia híbrida para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ........................................... 77 Gráfico 4 - Backtesting do Expected Shortfall calculado pelas três metodologias para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculado com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica com EWMA e híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ....................................................................................................................................... 80 Quadro 1 - VaR ao nível de confiança de 99% e lucros e perdas da posição vendida nas opções digitais A e B e na carteira vendida nas duas opções. A opção A, vendida por u, paga 1.000 se o preço do ativo subjacente S for maior que o preço de exercício U, enquanto a opção B, vendida por λ , paga 1.000 se S < L. ................................................. 12 Quadro 2 - Janelas de calibragem, de teste e respectivos lambdas selecionados para o parâmetro janela K = 250 dias no processo de otimização que procurava obter o Expected Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003. .................................................................................. 52 Quadro 3 - Janelas de calibragem, de teste e respectivos lambdas selecionados para o parâmetro janela K = 100 dias no processo de otimização que procurava obter o Expected Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003. .................................................................................. 52 Quadro 4 - Janelas de calibragem, de teste e respectivos lambdas selecionados para o parâmetro janela K = 50 dias no processo de otimização que procurava obter o Expected Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003. .................................................................................. 53 xiii LISTA DE ILUSTRAÇÕES Quadro 5 - Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia histórica para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. .......................................................................................................................... 60 Quadro 6 - Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia analítica com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias............................................................. 62 Quadro 7 - Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ........................................................................................ 75 Tabela 1 - Ações mais líquidas selecionadas do Ibovespa de forma que contivessem dados desde 04/07/1994 até 31/10/2003 e a sua respectiva participação relativa na composição do índice em 10/11/2003....................................................................................................... 33 Tabela 2 - Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período de 12/06 a 31/10/2003, após a realização do segundo passo definido por Boudoukh et al. (1998), mostrando a ordem original dos retornos, a ordem após o ordenamento crescente dos retornos, o peso dado para o retorno pela metodologia EWMA e o peso acumulado, os quais foram utilizados para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros α=5%, K=100 e λ=0,94. ........................................................................................................ 41 xiv LISTA DE ILUSTRAÇÕES Tabela 3 - Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período de 12/06 a 31/10/2003, após realizado o segundo passo definido por Boudoukh et al. (1998) e a adição da coluna de peso acumulado do retorno anterior, proposta neste trabalho, mostrando também a ordem original dos retornos, a ordem após o ordenamento crescente dos retornos, o peso dado para o retorno pela metodologia EWMA e o peso acumulado, os quais foram utilizados para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros α=5%, k=100 e λ=0,94.......................................................................................................... 44 Tabela 4 - Falhas na sub-aditividade das Medidas de Risco VaR e Expected Shortfall calculadas pela metodologia histórica e analítica com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias.. .......................................... 57 Tabela 5 - Resultado do teste de Kupiec com valor crítico de 5% aplicado sobre o VaR calculado pela metodologia histórica e pela metodologia analítica com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias ......................................................................................................... 59 Tabela 6 - Razão de verossimilhança caudal do teste de Berkowitz (2001) calculada para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, para os níveis de significância α, considerando toda a série de retornos do período de 05/jul/1994 a 31/out/2003, com valor crítico de 5,99. ................................................................................. 65 xv LISTA DE ILUSTRAÇÕES Tabela 7 - Falhas na sub-aditividade das medidas de risco VaR e Expected Shortfall calculadas pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, abrangendo o período de 04/jul/1994 a 31/out/2003 e tempo de processamento do programa de cálculo elaborado no Excel das metodologias histórica, analítica com EWMA e híbrida. Os lambdas utilizados na metodologia híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ...................... 70 Tabela 8 - Resultado do teste de Kupiec com valor crítico de 5% aplicado sobre o VaR calculado pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ........................................... 74 Tabela 9 - Resultado da aplicação do critério de Pitman para a carteira igualmente ponderada, comparando dois a dois o ES EWMA, ES Histórico e o ES Híbrido nos dias em que houve falha comum do VaR nas três metodologias, para as 12 combinações de parâmetros nível α e tamanho da janela K, abrangendo o período de 04/jul/1994 a 31/out/2003.................. 78 Tabela 10 - Resultado da aplicação do critério de Pitman para as 10 ações mais líquidas da Bovespa em novembro de 2003, comparando dois a dois o ES EWMA, ES Histórico e o ES Híbrido nos dias em que houve falha comum do VaR nas três metodologias, para as 12 combinações de parâmetros nível α e tamanho da janela K, abrangendo o período de 04/jul/1994 a 31/out/2003...................................................................................................... 79 xvi ÍNDICE 1 INTRODUÇÃO............................................................................................... 1 2 REVISÃO DA LITERATURA.......................................................................... 4 2.1 Valor em Risco ...................................................................................... 4 2.2 Medidas Coerentes de Risco................................................................. 5 2.3 Críticas ao Valor em Risco .................................................................... 7 2.4 Expected Shortfall................................................................................ 13 2.5 Metodologia Híbrida do Cálculo do VaR – The Best of Both Worlds ... 19 2.6 Metodologias de Backtesting ............................................................... 22 2.6.1 Critério de Pitman............................................................................. 29 3 METODOLOGIA .......................................................................................... 32 3.1 Amostra ............................................................................................... 32 3.2 Metodologias de Cálculo do VaR e do Expected Shortfall................... 34 3.2.1 Simulação Histórica.......................................................................... 34 3.2.2 Método analítico com utilização do processo EWMA (Exponential Weighted Moving Average) ....................................................................... 37 3.2.3 Metodologia Híbrida do Cálculo do VaR – The Best of Both Worlds 40 xvii 3.2.4 Proposta de uma Metodologia Híbrida para o Cálculo do Expected Shortfall – The Best of Both Worlds .......................................................... 45 3.2.5 Obtenção do lambda ótimo .............................................................. 48 3.3 Aplicação do critério de Pitman ........................................................... 53 4 RESULTADOS ............................................................................................ 55 4.1 Valor em Risco e Expected Shortfall pela Metodologia Histórica e Analítica com uso da Volatilidade EWMA ..................................................... 56 4.2 Valor em Risco e Expected Shortfall pela Metodologia Híbrida – The Best of Both Worlds ...................................................................................... 69 4.3 Resultados do Critério de Pitman ........................................................ 77 5 CONCLUSÕES............................................................................................ 81 REFERÊNCIAS................................................................................................ 84 1 1 INTRODUÇÃO No final dos anos 70 e nos anos 80, um grande número de instituições financeiras nos EUA começou a trabalhar em modelos internos com o objetivo de agregar riscos incorridos pelas instituições como um todo. Inicialmente as empresas desenvolviam os modelos com o propósito de administração do próprio risco e à medida que se tornavam maiores e mais abrangentes, os sistemas ficavam muito mais complexos, mas ao mesmo tempo mais importantes. O mais conhecido desses sistemas é o sistema RiskMetricsTM desenvolvido pelo banco JP Morgan. Em outubro de 1994, o banco J.P. Morgan deu início à popularização no mercado financeiro do Valor em Risco (VaR-Value at Risk) ao apresentar pela internet e inteiramente grátis, o seu sistema RiskMetricsTM, que fornecia orientações e dados para o cálculo do VaR. O primeiro passo para uma administração de risco mais rígida dado pelos órgãos reguladores com relação às instituições financeiras foi o estabelecimento do histórico Acordo de Basiléia de 1988, que definiu exigências mínimas de capital para tais instituições, como forma de proteção contra o risco de crédito. Com o tempo o Valor em Risco cresceu tanto em importância e reconhecimento, que o Comitê de Basiléia publicou em 1996 um adendo ao Acordo de Basiléia, oferecendo o VaR como uma abordagem alternativa para exigências de capital baseadas nos modelos internos dos 2 bancos, incorporando definitivamente o conceito dessa medida de risco ao contexto regulamentar, só que desta vez para fazer face ao risco de mercado. Isto contribuiu em muito para a disseminação do VaR no mercado financeiro mundial. Entretanto, em 1997 alguns pesquisadores definiram o conceito de medidas coerentes de risco e concluíram que o VaR calculado pela simulação histórica não seria uma medida coerente de risco por não atender à propriedade da sub-aditividade, um dos pressupostos da dita coerência. Ao mesmo tempo definiram o conceito da medida de risco Expected Shortfall, a qual seria totalmente coerente pelo referido conceito. Esta nova medida de risco só não teria sido ainda adotada pelo Comitê de Basiléia pela dificuldade existente em se fazer o seu backtesting. Na mesma época outros pesquisadores propuseram uma nova metodologia de cálculo do VaR, chamada de híbrida ou de The Best of Both Worlds porque misturava e se propunha a aproveitavar o que havia de melhor na metodologia de simulação histórica e na metodologia analítica com uso da volatilidade EWMA proposta no RiskMetricsTM. Surgiu então ao professor Eduardo Facó Lemgruber, a idéia de associar ao conceito do Expected Shortfall ainda não muito abordado no Brasil, o conceito da metodologia híbrida que já havia sido aplicada ao VaR, idéia esta que foi implementada e analisada neste trabalho. Assim, o objetivo principal deste trabalho de pesquisa é o de analisar a coerência do Valor em Risco e do Expected Shortfall calculados por três métodos diferentes (metodologia da 3 simulação histórica, metodologia analítica com uso da volatilidade EWMA e metodologia híbrida), tendo como amostra as ações mais líquidas em novembro de 2003 do Mercado Brasileiro de Ações, no período que vai do início do Plano Real até outubro de 2003, analisando e criticando uma inédita metodologia híbrida para o cálculo do Expected Shortfall. Uma delimitação do estudo a ser destacada é que não se analisou a coerência das medidas de risco sob todos os seus quatro aspectos, procurando-se ater a discussão à propriedade da sub-aditividade que é a principal crítica ao VaR histórico com relação à sua coerência. A literatura afirma que o VaR atende aos demais critérios da coerência. Na seção 2 faz-se uma revisão da literatura dividindo-se por subtópicos conforme o tema ligado à pesquisa, na seção 3 é realizada uma detalhada descrição da metodologia empregada; os resultados e sua discussão são abordados na seção 4 e finalizando, as conclusões são apresentadas na seção 5. 4 2 REVISÃO DA LITERATURA 2.1 Valor em Risco O VaR é definido como a perda máxima provável num determinando horizonte de tempo dentro de um determinado nível de confiança. O VaR ao nível de confiança de 100 (1-α)%, ou nível de significância α%, é definido como o simétrico do quantil α superior da distribuição dos retornos. O VaR fornece aos usuários uma medida concisa do risco de mercado, resumida num único valor monetário. Por exemplo, diz-se que um VaR de R$ 10 milhões significa a perda máxima provável das posições da empresa com 95% (1-α) de probabilidade para um horizonte de tempo de 1 dia, ou seja, há apenas cinco oportunidades em 100, sob condições normais de mercado, de ocorrer uma perda acima de R$ 10 milhões. Usou-se o termo simétrico na definição do VaR porque nesta dissertação deseja-se obter um valor de VaR positivo, pois se refere a uma perda máxima provável. Alternativamente, poder-se-ia ter trabalhado com um VaR de valor negativo, o qual seria interpretado como um retorno mínimo provável, mas o importante é entender que o significado é o mesmo. Considerou-se a primeira interpretação como sendo a melhor, daí a sua adoção. Na literatura são encontradas as duas formas de se interpretar o VaR. A definição formal de quantil superior ( x (α ) ), quantil inferior ( x(α ) ) e de VaR é dada em Acerbi e Tasche (2002): 5 x (α ) = inf {x ∈ ℜ Ρ[X ≤ x ] > α } x(α ) = inf {x ∈ ℜ Ρ[X ≤ x ] ≥ α } VaR = − x (α ) , ou seja, o simétrico do quantil α superior. Sendo X a variável aleatória dos retornos de um ativo ou de uma carteira. Observando numa curva com a distribuição de probabilidades, se z é o ponto tal que P[X ≤ z ] é exatamente igual a α, o quantil α inferior será o próprio z ou um ponto à direita dele, e o quantil α superior será sempre um ponto à direita de z . Com a divulgação do sistema RiskMetricsTM e com a adoção dos modelos internos pelo Comitê de Basiléia em 1996, o VaR tornou-se a principal ferramenta de gerenciamento de risco das instituições financeiras. Entretanto, no fim dos anos 90, o VaR passou a ser alvo de críticas que até o momento ainda não provocaram de forma expressiva a diminuição de sua utilização no mercado financeiro. Algumas dessas críticas serão abordadas adiante, mas antes é preciso estudar o conceito de medidas coerentes de risco. 2.2 Medidas Coerentes de Risco Artzner, Delbaen, Eber e Heath (1997) em um pequeno artigo intitulado Thinking Coherently da revista Risk, pela primeira vez definem de uma forma 6 sucinta um conjunto de propriedades, as quais uma medida de risco deveria possuir para ser considerada uma medida coerente de risco. Já no artigo Coherent Measures of Risk, publicado no periódico Matematical Finance, os mesmos Artzner, Delbaen, Eber e Heath (1999) são bem mais completos, com apresentação de provas matemáticas ao tratar dos axiomas para a definição de medidas coerentes de risco. Meyers (2000) cita que as idéias do artigo de Artzner et al. (1999) mereciam ser bem entendidas pelos membros da Casualty Actuarial Society (CAS), porém, afirma que o artigo de Artzner et al. foi escrito para um público acadêmico com elevado treinamento em Matemática e Estatística, havendo uma grande dificuldade na sua leitura e no seu entendimento pelos membros da CAS. Meyers (2000), então, apresenta as idéias de Artzner et al. (1999) numa linguagem mais acessível àquele público. Baseando-se nestes artigos, apresenta-se a seguir a definição de medidas coerentes de risco. Sejam X e Y variáveis aleatórias representando as perdas de dois ativos para diferentes cenários e ρ(X), ρ(Y) uma mesma medida de risco tomada para as duas séries X e Y. Para ser considerada uma medida coerente de risco, ela deve apresentar as seguintes propriedades: 1) Sub-aditividade. ρ ( X + Y ) ≤ ρ ( X ) + ρ (Y ) 7 A medida de risco da carteira é menor ou igual à soma das medidas individuais de risco dos ativos. Neste ponto chama-se a atenção para o fato de que nesta verificação, os pesos dos ativos na composição da carteira devem ser aplicados às medidas de risco individuais. A sub-aditividade reflete o efeito da diversificação das carteiras, ou seja, que a associação de ativos em carteiras não cria um risco adicional, pelo contrário, pode diminuir o risco. 2) Monotonicidade. Se X ≤ Y , para cada cenário, então: ρ ( X ) ≤ ρ (Y ) 3) Homogeneidade Positiva. Para todo λ ≥ 0 , ρ (λX ) = λρ ( X ) 4) Invariância de translação. Para toda constante c, ρ ( X + c) = ρ ( X ) + c Uma medida de risco que satisfaça a estas quatro propriedades é chamada de medida coerente de risco. Neste trabalho, será dada atenção somente à propriedade da sub-aditividade. 2.3 Críticas ao Valor em Risco O VaR tornou-se uma medida padrão usada no gerenciamento de risco devido à simplicidade de seu conceito, facilidade computacional e sua imediata aplicabilidade. Entretanto, muitos autores têm levantado alguns problemas 8 com relação ao VaR. Artzner et al. (1997, 1999), por exemplo, citaram que o VaR mede somente percentis da distribuição de lucros e perdas, não considerando quaisquer perdas além do nível do VaR. Apesar de satisfazer as propriedades da monotonicidade, homogeneidade e invariância de translação, o VaR histórico falha no critério da sub-aditividade, não sendo, portanto, uma medida coerente de risco. Segundo Yamai e Yoshiba (2002), estes problemas na sub-aditividade são mais graves quando a distribuição dos retornos não obedece à distribuição Normal. Quando a distribuição é Normal é mais difícil aparecerem casos de ausência de sub-aditividade, mas não é impossível. Isto ficou evidente num exercício feito no programa Matlab: a partir de uma matriz de correlações entre 5 variáveis, de um vetor com 5 preços iniciais, de um vetor com 5 volatilidades diárias e de outro com 5 retornos médios, foram gerados 5 x 504 preços segundo o modelo geométrico browniano, utilizando a fatoração de Cholesky (HULL, 1999). Calculou-se o VaR histórico utilizando uma janela de 100 retornos para os 5 ativos simulados e mais para a carteira com pesos iguais nos ativos, para os níveis de confiança de 90%. Este experimento foi repetido 10.000 vezes, obtendo-se no total 405.000 valores em risco para os 5 ativos e carteira. Só não foi observada a sub-aditividade em pouquíssimos 27 casos. Outra importante crítica ao VaR é que o risco presente na cauda da distribuição dos retornos pode trazer sérios problemas práticos em alguns casos. Yamai e Yoshiba (2002) defendem que a informação dada pelo VaR pode enganar investidores racionais que procuram maximizar a função de 9 utilidade esperada. Investidores que empregam somente o VaR como medida de risco estão propensos a construir posições arriscadas que podem resultar em grandes perdas nos níveis além do VaR. A relevância da falta da subaditividade do VaR vai depender das preferências do administrador de risco sob o ponto de vista da praticidade, pois há quem já tenha tomado conhecimento deste problema e nem por isso deixou de utilizar o VaR histórico. No entanto, com relação às possíveis pesadas perdas na cauda da distribuição, o problema é de suma importância, pois está relacionado à insolvência da instituição financeira causada por condições adversas no mercado, que é um assunto central para a administração de risco das instituições e para os órgãos reguladores. Artzner et al. (1999) apresentam em seu artigo dois exemplos teóricos que demonstram a deficiência do VaR histórico com relação a prever as perdas presentes na cauda da distribuição e na propriedade da sub-aditividade. Um dos exemplos trabalha com títulos de renda fixa e o outro com posições vendidas em opções digitais, ambos não obedecendo à distribuição Normal. Será reproduzido a seguir, com algumas alterações, o exemplo das posições vendidas nas opções digitais por ser mais interessante e factível. Considere duas opções digitais sobre uma ação, ambas com a mesma data de exercício T. A primeira opção denominada A, com um prêmio inicial u, paga 1.000 se, e somente se, o valor da ação na data T for maior que U, do contrário não paga nada. A segunda opção denominada B, com prêmio inicial λ , paga 1.000 se o valor da ação na data T for menor que L, sendo L<U e 10 (u + λ )<1000, e do contrário, também não paga nada. Uma vez que opções são ativos não-lineares, é claro que a sua distribuição de lucros e perdas não é normal, até mesmo se os preços do ativo subjacente obedecem a uma distribuição Normal. Suponha que L e U obedeçam a uma distribuição de probabilidade tal que a probabilidade de S<L = Pr(S>U) = 0,008, sendo S o preço da ação na data T, no vencimento. Considere dois operadores, A e B, vendendo uma unidade da opção A e B, respectivamente. Na Figura 1 são apresentados os gráficos de lucros e perdas da posição vendida nas opções e na carteira contendo as duas. O VaR de nível de confiança 99% (1-α) do operador A é zero, pois o percentil 1% da sua distribuição de lucros e perdas é um lucro igual a u, logo, seu VaR, sua perda máxima provável com 99% de certeza é zero. Similarmente, o VaR de 99% do operador B é zero, pois o percentil 1% de sua distribuição de retornos é um lucro igual a λ, o que resulta em VaR = 0. Este é um claro exemplo de elevado risco presente na cauda da distribuição, ou seja, o VaR não capta na cauda esquerda da distribuição as possíveis elevadas perdas das opções A e B, pois a probabilidade da perda é menor do que o α (0,01). 11 Figura 1 Lucros e perdas da posição vendida nas opções digitais A e B e na carteira vendida nas duas opções. A opção A, vendida por u, paga 1.000 se o preço do ativo subjacente S for maior que o preço de exercício U, enquanto a opção B, vendida por λ, paga 1.000 se S < L. Lucros/Perdas Pr(L<S<U)=0,984 u+λ +λ +u -B L Pr(S<L)=0,008 -1000+λ+u -1000+λ -1000+u U S Pr(S>U)=0,008 -(A+B) -A Entretanto, o VaR de 99% da carteira representada pela posição vendida em A e B ao mesmo tempo, é de (1000 – u – λ), uma vez que este é o simétrico de seu percentil 1%, pois Pr(S>U ou S<L) = 0,016, o que é maior do que o α (0,01). Logo, uma vez que VaR(A) + VaR(B) < VaR(A+B), 0+0 < (1000-u-l), fica claro neste exemplo que o VaR nem sempre é subaditivo. O Quadro 1 a seguir apresenta os lucros e perdas das opções. 12 Quadro 1 VaR ao nível de confiança de 99% e lucros e perdas da posição vendida nas opções digitais A e B e na carteira vendida nas duas opções. A opção A, vendida por u, paga 1.000 se o preço do ativo subjacente S for maior que o preço de exercício U, enquanto a opção B, vendida por λ, paga 1.000 se S < L. Preço da Ação S<L L ≤ S ≤U U<S Probabilidade -A -B - (A + B) 0,008 0,984 0,008 u u -1000+u 0 -1000+u+λ -1000+u+λ u+λ -1000+u+λ 1000-u-λ VaR λ λ 0 Yamai e Yoshiba (2002) demonstram que a administração do risco com base somente no VaR pode aumentar a concentração em títulos de crédito, pois o VaR não leva em conta o aumento do risco de grandes perdas devido a esta concentração, o mesmo ocorrendo no exemplo das opções digitais. Baseando-se somente no VaR de 1%, um investidor pode vender a opção A, por exemplo, acreditando que seu risco é baixo pelo fato de o VaR ser zero. Isto ocorre porque ele não está considerando as perdas além do VaR. Daníelsson (2002) também reforça que o embasamento do VaR num simples quantil da distribuição de lucros e perdas implica facilidades na manipulação do risco com estratégias engenhosamente montadas. O VaR calculado da forma analítica não apresenta o problema de não ser sub-aditivo, uma vez que, assumindo a normalidade dos retornos, o VaR é sempre um múltiplo do desvio-padrão, o que satisfaz a sub-aditividade, pois o desvio-padrão atende sempre à sub-aditividade conforme é demonstrado por Yamai e Yoshiba (2002). O VaR calculado da forma analítica para cada 13 unidade monetária investida e assumindo a normalidade, é o simétrico do produto da volatilidade ( σ ) pela inversa da função distributiva acumulada da Normal Padrão para o nível de significância α desejado ( Φ −1 (α ) ). VaR = −σ × Φ −1 (α ) 2.4 Expected Shortfall De acordo com o dicionário Merrian-Webster Online, shortfall é o valor ou tamanho de uma falha. Para aliviar os problemas de falta de sub-aditividade e de não considerar as perdas presentes na cauda inerentes ao VaR, Artzner et al. (1997, 1999) propuseram o uso do Expected Shortfall (ES). Expected Shortfall é definido como uma esperança condicional, é a expectativa de perda dado que a perda foi maior do que o VaR, definição ilustrada na Figura 2 adiante. Algumas variantes de Expected shortfall têm sido encontradas na literatura, apresentando pequenos detalhes de um nível matemático bem profundo que diferenciam uma definição da outra, aparecendo inclusive com terminologias diferentes. Porém, todas procuram obter basicamente a expectativa de perda uma vez que esta supera o VaR. Acerbi & Tasche (2001, 2002) avaliam algumas destas diferentes definições dadas por diferentes autores, tais como Tail Conditional Expectations, Conditional Value-at-Risk, Tail Mean e Expected Shortfall, concluindo que a maioria delas leva a resultados semelhantes no que tange à obtenção da desejada sub-aditividade quando aplicadas a distribuições 14 contínuas de lucros e perdas. Entretanto, quando a distribuição de resultados apresenta descontinuidade, estas diferentes definições de ES nem sempre serão sub-aditivas. Concluem ainda que a definição generalizada dada por Acerbi e Tasche (2001) para o ES é a única que é robusta no sentido de apresentar sempre a sub-aditividade, independentemente da distribuição de probabilidade por trás dos retornos. A definição formal generalizada de Expected Shortfall descrita em Acerbi e Tasche (2001, 2002), considerando o corolário 4.3 de Acerbi e Tasche (2002) é dada por: ES (α ) [ ( [ ]) Ε X Ι {X ≤ x (α ) } + α − Ρ X ≤ x (α ) x (α ) = − α [ [ ] ] Ε X Ι {X ≤ −VaR(α ) } − (α − Ρ X ≤ −VaR(α ) )VaR(α ) = − α ] Onde: X = série de retornos da janela considerada, é a variável aleatória dos retornos; Ι {condição} = função indicadora, que é 1 se a condição entre as chaves é verdadeira e 0 caso não seja. x (α ) = quantil α superior, definido anteriormente. 15 Quando a distribuição dos retornos é contínua, P[X ≤ −VaR] = α , e a equação anterior se reduz para: [ ES (α ) = −Ε X X ≤ −VaR(α ) ] Informalmente, enquanto o VaR histórico ao nível de confiança de 95%, por exemplo, é o simétrico do percentil 5% de uma distribuição de retornos, o ES é o simétrico da média dos 5% piores retornos, sendo, portanto, um valor sempre maior do que o VaR conforme se observa na Figura 2 a seguir, analisando-se sob a ótica da perda, do valor absoluto. Então, o ES leva em conta a magnitude da perda além do VaR, enquanto o VaR não contém esta informação conforme Kerkhof e Melenberg (2003). Figura 2 Função Densidade de Probabilidade (pdf) dos lucros e perdas com distribuição Normal, e representação do VaR e do Expected Shortfall, obtidos ao nível de significância de α%. 16 Conforme Yamai e Yoshiba (2002) e Kerkhof e Melenberg (2003), quando a distribuição por trás da geração dos retornos é conhecida e esta não precisa ser necessariamente a Normal, o ES e o VaR são múltiplos um do outro, porque ambos são múltiplos da volatilidade. Conforme o trabalho desses autores, para a distribuição Normal, o ES é dado pela fórmula: ES (α ) = φ (Φ −1 (α )) α Sendo φ a função densidade da distribuição Normal padrão, Φ a função distributiva acumulada da Normal padrão e α o nível de significância. A partir desta fórmula, entendeu-se no presente trabalho que quando a distribuição dos retornos é a Normal, a relação entre o VaR e o ES é dada por: ES (α ) − VaR(α ) φ σ φ (Φ (α )) ×σ , = ×σ = α − VaR(α ) Φ σ −1 Sendo σ a volatilidade do ativo e o VaR(α ) = −Φ −1 (α )× σ . O ES ao nível de α% corresponderá ao VaR a um determinado nível β%, sempre menor que α%. Por exemplo, considerando-se a distribuição Normal, o ES ao nível de 2,5% (o ES calculado considerando-se como condição o VaR de 2,5%) tem o mesmo valor que o VaR ao nível de 1%. Obteve-se então a relação entre o α e o β para a distribuição Normal: 17 [ ] φ Φ −1 (α ) β = 1 − Φ α Da mesma forma, se considerarmos para os retornos uma outra distribuição conhecida como a distribuição Uniforme U(0,1), haverá uma equivalência entre o ES a um nível α e um VaR a um nível β. O ES ao nível de 5% será igual ao VaR ao nível de 2,5%, por exemplo. Yamai e Yoshiba (2002) também analisaram as implicações práticas do uso do VaR e do ES para o gerenciamento do risco em Finanças. Conforme visto anteriormente, concluíram que a informação dada pelo VaR pode orientar mal investidores que querem maximizar a sua função utilidade, pois se baseando somente no VaR podem estar construindo uma perigosa posição que resultaria numa elevada perda nos níveis além do VaR. Usando o ES, investidores poderiam diminuir este problema, dado que estariam considerando também as perdas além do VaR. Para estes autores, a efetividade do ES, entretanto, ainda depende de se obter estabilidade na estimação de seu valor e da escolha de eficientes métodos de backtesting. É mais difícil de testar o ES do que o VaR e este é um dos motivos pelos quais o ES ainda está ausente do acordo de Basiléia. O VaR é a medida mais utilizada para calcular o capital econômico na administração de risco financeiro, sendo também adotado pelos órgãos reguladores para as exigências de capital devido à sua simplicidade conceitual: o VaR ao nível de significância de 1% corresponde ao capital necessário para manter a probabilidade de insolvência da empresa abaixo de 1%. Por outro 18 lado, o Expected Shortfall mede na média quanto se pode perder nos níveis além do VaR. Como por definição o ES é maior do que o VaR, o cálculo do capital econômico usando o ES é mais conservador do que usando o VaR. Todavia, para Yamai e Yoshiba (2002) o capital econômico calculado pelo ES fica difícil de ser interpretado com relação à probabilidade de insolvência da instituição. Diferentemente do VaR, o ES não corresponde necessariamente ao capital necessário para manter a probabilidade de quebra da empresa abaixo de um determinado nível. Ramos, Santos e Lemgruber (2002) estudaram para uma amostra da ação Petrobrás, o comportamento do Expected Shortfall, ou BvaR (Beyond VaR), que é como se referem à medida de risco no artigo, calculado pelo método histórico e pela aproximação normal, concluindo que à medida que o nível de confiança é aumentado, o BVaR calculado pelo método histórico tende a divergir do VaR, enquanto que pela aproximação normal o BVaR tende a convergir para o VaR. Entende-se que se adotando uma conhecida distribuição de retornos, há uma relação entre o VaR e o ES conforme explicado anteriormente. Analisando as perdas esperadas além do VaR utilizando a mesma amostra, observaram ainda que as menores razões (BVaR – VaR)/VaR foram obtidas pelo método normal, indicando que na distribuição empírica as perdas esperadas em caso do VaR ser ultrapassado são muito mais dispersas além do VaR do que o previsto pela distribuição Normal. Longin (2001) é outro autor que afirma que enquanto o VaR se foca na freqüência de ocorrência de valores extremos, o Expected Shortfall se utiliza 19 tanto da freqüência das falhas (denominador) como do tamanho das perdas que ultrapassam o VaR (numerador), o que fica evidente na média aritmética presente em sua fórmula. Conclui que o ES pode não convergir, mas, sim, situar-se mais próximo do VaR, como ocorre em distribuições normais, ou ficar mais afastado, como ocorre em distribuições com caudas gordas (fat tail). De acordo com Longin (2001), uma dificuldade na implementação de medidas de risco baseadas na cauda da distribuição dos retornos como o Expected Shortfall, é a pouca quantidade de informações. Por exemplo, o ES estimado com a distribuição empírica envolve somente poucas observações da amostra e a média calculada com poucas observações pode resultar numa elevada estimativa desta medida de risco. 2.5 Metodologia Híbrida do Cálculo do VaR – The Best of Both Worlds A abordagem híbrida de cálculo do VaR, apresentada em Boudoukh, Richardson e Whitelaw (1998), combina as duas abordagens mais utilizadas de estimação do VaR, que são a simulação histórica e o método analítico RiskMetricsTM com o cálculo da volatilidade EWMA (Exponential Weighted Moving Average), propondo-se a herdar o que há de melhor nas duas. A utilização do alisamento exponencial (EWMA), aplicando-se pesos exponencialmente decrescentes a retornos passados, tem a vantagem de capturar o comportamento cíclico da volatilidade dos retornos. Entretanto, esta metodologia tem a desvantagem de pressupor a hipótese de normalidade dos 20 retornos, estando em desacordo com as séries de dados financeiros, que geralmente apresentam caudas gordas e assimetria. Como previamente documentado por Kendall (1953), Mandelbrot (1963) e Fama (1965), a suposição de normalidade é pouco realista, à medida que a distribuição dos retornos das séries financeiras parece tender para caudas mais gordas do que a da distribuição Normal. Com isso, a suposição de normalidade produz uma subestimação do Valor em Risco. Duffie e Pan (1997) apontam que as possíveis causas para a existência das caudas gordas nas séries financeiras são a presença de saltos, que representam mudanças descontínuas nos preços. Já a metodologia da simulação histórica não faz hipóteses acerca da distribuição dos retornos. Ela estima percentis diretamente sobre a distribuição histórica dos retornos a fim de obter o VaR, considerando dessa forma, as caudas gordas e assimetrias por ventura existentes na distribuição empírica. Todavia, apresenta dois grandes problemas: a dificuldade de estimar percentis extremos quando há poucos dados e o fato de não considerar que a volatilidade varia com o tempo ao pressupor que os retornos são independentes e identicamente distribuídos (iid)1. Fierli (2002) ressaltou que esta suposição é violada pelas evidências de cluster de volatilidade e que esta violação leva a uma inconsistência na estimativa do Valor em Risco. Papageorgiou e Paskov (1999) também apontaram algumas críticas ao método 1 Independent and identically distributed. Identicamente distribuída significa que a probabilidade de ocorrência de uma específica perda é a mesma para cada dia. Independência implica que a escala do movimento do preço em um período não influenciará o movimento de preços subseqüentes. 21 de simulação histórica, dentre elas a suposição de que a distribuição passada dos retornos pode representar a futura distribuição, ou seja, o método considera a distribuição como estacionária, além de apresentar uma grande sensibilidade dos resultados em relação à extensão do período histórico. Jorion (1997) também acrescenta como críticas o fato de o método não tratar de forma adequada as situações de volatilidade temporariamente elevada e o fato de o método ponderar igualmente todas as observações na janela, inclusive os dados mais antigos. O uso de uma janela histórica maior resolveria o primeiro problema, o da dificuldade de estimar percentis extremos com poucos dados, ao mesmo tempo em que deixaria sem solução o segundo, o da consideração que a volatilidade não varia com o tempo, pois a única maneira de atribuir mais peso a informações mais recentes na abordagem da simulação histórica pura e simples, é através da utilização de janelas históricas mais curtas. Enquanto na simulação histórica atribuem-se pesos iguais a cada observação da janela considerada, na abordagem híbrida do melhor dos dois mundos, atribuem-se pesos exponencialmente decrescentes aos retornos históricos. Logo, enquanto na simulação histórica a obtenção do VaR de 1% com a utilização de uma janela de 250 retornos diários implica identificar a terceira menor observação, isso pode significar mais ou menos observações na abordagem híbrida. O número exato de observações vai depender de os retornos extremamente baixos terem sido verificados num período mais recente ou mais distante no tempo, o que ficará bem claro na seção Metodologia. 22 Os resultados empíricos em Boudoukh et al. (1998) mostraram significativas melhorias no desempenho estatístico da metodologia híbrida em relação à metodologia do RiskMetricsTM e da simulação histórica, o que foi ainda mais expressivo nos ativos cuja distribuição dos retornos apresentava caudas gordas. Pritsker (2001) afirmou que o método híbrido parecer ser o remédio para os principais problemas dos métodos de simulação histórica porque muitas grandes perdas são imediatamente refletidas no VaR, mas conclui dizendo que, infelizmente, o método híbrido não se comporta tão bem. Tanto a simulação histórica como o método híbrido assumem implicitamente que o que acontece na cauda superior da distribuição de lucros e perdas (lucros) não traz nenhuma informação para a cauda esquerda (perdas), que é de onde é tirado o VaR. Isso significa que os grandes lucros nunca refletem num aumento na dispersão do retornos usando este dois métodos, o histórico e o híbrido. A revisão do método híbrido tem dois propósitos: será analisado neste trabalho a sub-aditividade desta medida no mercado brasileiro de ações e será proposta uma metodologia híbrida de cálculo do Expected Shortfall, a exemplo do que foi realizado com o VaR por Boudoukh et al. (1998). 2.6 Metodologias de Backtesting De acordo com Yamai e Yoshiba (2002), a medida de risco Expected Shortfall só não foi ainda recomendada pelo Comitê de Basiléia devido às dificuldades de se fazer o seu backtesting. Apesar de o VaR não satisfazer o 23 critério da sub-aditividade, ele ainda é a medida de risco mais recomendada pelos órgãos reguladores porque é uma medida de risco que possui amplos, fáceis e bem difundidos processos de backtesting, sendo o mais conhecido aquele desenvolvido em Kupiec (1995). O backtesting do Expected Shortfall poderia ser feito comparando-se a média das perdas realizadas além do nível do VaR com a perda média estimada, o ES. Isto iria requerer mais dados do que o backtesting do VaR, uma vez que a perda além do VaR não é muito freqüente, o que torna difícil estimar com precisão a média dessas perdas. Para o VaR bastaria contar as falhas, para o ES é necessário calcular uma média, o que requer mais dados caso se deseje ser preciso. Kerkhof e Melenberg (2003) afirmam que tanto o VaR como o Expected Shortfall são métodos baseados em níveis de confiança, o que significa que primeiramente é preciso escolher um nível α, e a medida de risco dependerá da correspondente cauda esquerda da distribuição de lucros e perdas. Como o interesse é proteger-se contra adversidades nas condições do mercado, normalmente estes níveis são baixos como 5 e 1%, que é o nível escolhido pelo Comitê de Basiléia em 1996. Caso se comparassem os resultados do backtesting do Expected Shortfall e do Valor em Risco calculados com um mesmo nível α num teste como o de Kupiec, encontrar-se-ia que o VaR apresenta um desempenho superior, ainda que o ES seja um valor mais conservador. Ou seja, o número de falhas do VaR se encaixaria melhor entre os limites de Kupiec do que o número de falhas do ES, que seria um número 24 de falhas menor por ser o ES uma medida mais conservadora. Entretanto, para uma comparação válida dos resultados de um backtesting como esse, deve-se olhar para os quantis, z=-2,33, por exemplo, e não para os níveis, α=1%, por exemplo. Fazendo isso para a distribuição Normal, encontra-se que o ES de nível α = 2,5% equivale ao VaR de α = 1%. Contudo, nesta pesquisa entendeu-se que não há muito sentido em comparar o Expected Shortfall com o retorno efetivo verificando se houve falha, uma vez que o ES é uma esperança condicional, ele não se propõe a dizer a probabilidade de falhas e conseqüentemente, dizer a quantidade esperada de falhas. Já o VaR de α = 5% sugere a idéia de que haverá falhas em 5% dos casos. O ES simplesmente dá uma expectativa da perda caso a mesma supere o VaR. Testes pontuais como o de Kupiec (1995) verificam somente se o VaR falhou ou não falhou, e não o tamanho da falha. Transformando a informação da distribuição de lucros e perdas em somente uma de suas características, no caso se o VaR foi violado ou não, se falhou ou não falhou, perdem-se relevantes informações contidas na distribuição, como o tamanho da falha, por exemplo. Simplesmente contar o número de violações por ano usa muito pouca informação sobre os dados. Dessa forma, há muitos modelos em Finanças e Economia que envolvem estimativas que não podem ser resumidas por um simples ponto da distribuição de probabilidades prevista. Christoffersen (1998) enfatiza que sendo intervalos de previsão, há mais informações nos intervalos do que num simples ponto, propondo métodos para avaliar previsões 25 de intervalos. Estes métodos rebatem de uma certa forma o argumento de Kupiec (1995) de que conjuntos extensos de dados são necessários para verificar a precisão dos modelos. Contudo, Lopez (1999) afirma que até os métodos de avaliação de intervalos permanecem sendo dependentes de vasta quantidade de dados, uma vez que somente observam se uma violação ocorre ou não, e o tamanho da violação. Os modelos podem também ser testados com bastante precisão examinando-se muitos de seus percentis, o que levado ao extremo significa avaliar toda a distribuição de probabilidades prevista, comparando-se todo percentil da previsão com os dados efetivamente realizados. Apesar de algumas técnicas estarem atualmente disponíveis para testar intervalos ou previsões de distribuição de probabilidade, os métodos existentes tendem a apresentar baixo poder em amostras de pequeno tamanho, o que ocorre com freqüência. Partindo dos trabalhos de Crnkovic e Drachman (1996) e de Diebold, Gunther e Tay (1997), Berkowitz (2001) apresenta uma nova maneira de avaliar modelos baseando-se na análise de toda a distribuição de probabilidade prevista, fazendo com que a informação contida na previsão acerca da distribuição de retornos combinada às realizações ex-post seja suficiente para construir um teste robusto até com pequenas amostras de poucas 100 observações. Berkowitz (2001) introduz uma extensão da transformação de Rosenblatt (1952) que produz sob a hipótese nula, variáveis iid conforme a 26 distribuição N(0,1), o que permite a estimação da verossimilhança gaussiana e a construção de testes estatísticos baseados na verossimilhança que são convenientes, flexíveis e que possuem boas propriedades com relação ao tamanho da amostra. Apresentam-se a seguir as bases para o teste de Berkowitz (2001). Seja Φ −1 (⋅) a inversa da função de distribuição da Normal Padrão, F (⋅) a função de distribuição prevista no seu modelo e y a série de dados efetivamente realizados, a extensão da transformação de Rosenblatt (1952) é dada por: z t = Φ −1 [F ( yt )], sendo z t os dados transformados. Sob a hipótese nula de que a distribuição que você está prevendo é igual à distribuição dos dados realizados, z t é distribuído conforme a Normal (0,1). Como sob a hipótese nula, z t é N(0,1), uma grande variedade de testes pode ser construída para se verificar se os z t gerados são realmente N(0,1). Em particular, a hipótese nula pode ser testada contra uma alternativa auto-regressiva de primeira ordem com média e variância possivelmente diferente de (0,1). Podese escrever: z t − µ = ρ (z t −1 − µ ) + ε t Sendo µ a média da sua amostra, ρ a auto-correlação de lag 1. Se a hipótese nula é verdadeira, ρ =0 e var( ε t )=1. A função de log-verossimilhança associada à função acima é dada por: 27 2 σ 2 z1 − µ ln T 1 − ρ 2 1 − ρ (z t − µ − ρ z t −1 )2 ln (2π ) T −1 T −1 2 − − − − ln ( 2 ) − ln − π σ ∑ 2 2 2 2 2σ 2 2σ 2 t =2 2 1− ρ ( ) Sendo σ 2 a variância do erro e T, o tamanho da amostra. Para testar a hipótese nula de que z t é N(0,1), concentra-se no seguinte teste da razão de verossimilhança: ∧ ∧ 2 ∧ LR = −2 L(0,1,0 ) − L µ , σ , ρ ∧ ∧ 2 ∧ Sendo µ , σ , ρ , os valores estimados dos dados após a transformação. Sob a hipótese nula, este teste estatístico é distribuído conforme a distribuição Qui-quadrada com 3 graus de liberdade. Entretanto, em muitos casos os administradores de risco estão interessados exclusivamente na precisão da descrição do comportamento das caudas da distribuição, não se interessando em modelos que rejeitem o seu Expected Shortfall com base em discrepâncias por ventura existentes no meio de sua distribuição prevista. Então, Berkowitz propõe um teste que intencionalmente ignora falhas do modelo que estão limitadas ao interior, no meio da distribuição, ou seja, não situadas nas caudas. Em outras palavras, o formato da cauda da distribuição estimada é comparado com a cauda dos dados efetivamente observados. Quaisquer observações que não caiam na cauda serão intencionalmente truncadas. Por exemplo, pode-se escolher como 28 limite um VaR = -1,64 (sob a ótica de retornos e não perdas) para focar a cauda até o percentil 5%. Então a nova variável de interesse será: VaR se z t ≥ VaR z t* = z t se z t < VaR E a função de log-verossimilhança L (log-likelihood) da cauda será: ( 2 1 1 VaR − µ − ln 2πσ 2 − z t* − µ + ∑ ln 1 − Φ 2 2σ zt* =VaR σ zt* <VaR 2 ) ∑ L µ ,σ / z * = ( ) ( ) Esta expressão contém observações contidas na cauda da distribuição. Os dois primeiros termos representam a usual verossimilhança gaussiana das perdas. Testes baseados nesta expressão podem ser mais poderosos do que abordagens tradicionais, permitindo ainda aos usuários ignorarem falhas que podem não interessar por se localizarem no interior da distribuição. Para construir um teste de razão de verossimilhança, a hipótese nula requer novamente que µ = 0 e σ 2 = 1 e pode-se avaliar uma verossimilhança restrita, ∧ ∧ 2 L(0,1) , com uma irrestrita, L( µ , σ ) . Então a razão de verossimilhança da cauda será: LRcauda ∧ ∧ 2 = −2 L(0,1) − L( µ , σ ) Sob a hipótese nula, este teste estatístico é distribuído conforme a Quiquadrada com 2 graus de liberdade. Neste trabalho será aplicado o teste de razão de verossimilhança caudal proposto por Berkowitz. 29 A conclusão a que se chega é que o teste de Berkowitz, assim como outros testes encontrados na literatura, os quais se propõem a ser um bom backtesting para o Expected Shortfall, estão, na verdade, avaliando se a previsão que se faz acerca da distribuição de retornos é boa ou não. Ora, se você prevê com boa precisão a distribuição dos retornos, a medida de risco que você calcula por um método analítico em que faz suposições acerca da distribuição de retornos, seja VaR ou ES, terá um bom desempenho naquilo a que ela se propõe: o VaR a acertar a perda máxima com um determinado nível de confiança e o ES a ter uma boa previsão da perda quando o VaR é ultrapassado. Agora, quando se utiliza a própria distribuição empírica para calcular a medida de risco, que é o que se faz bastante nesta pesquisa com a metodologia de simulação histórica e com a híbrida, estes testes se tornam difíceis de se aplicar, ou até mesmo inadequados. 2.6.1 Critério de Pitman Além de se pretender testar se o Expected Shortfall está sendo uma boa medida de risco, neste trabalho será verificado qual dos Expected Shortfalls calculados de diferentes maneiras mais se aproxima da perda efetiva quando o VaR falha. Fazendo isso, será possível analisar se uma metodologia de cálculo do ES é melhor do que outra no sentido de obter resultados que se aproximam mais da perda efetiva uma vez que o VaR tenha falhado. Para isso, utilizou-se uma medida de afastamento conhecida como critério de Pitman. 30 Sejam T1 e T2 estimadores do mesmo parâmetro θ calculados por metodologias diferentes. Pitman (1937) apresentou o seguinte conceito de proximidade: dizemos que T1 está mais próxima de θ do que T2 se P(T1 − θ < T2 − θ ) > 1 . Em seu artigo, Pitman realmente encontrou melhores 2 estimadores de acordo com esta regra. Embora aparentemente natural, por um longo período este critério não atraiu muita atenção entre estatísticos, o que provavelmente ocorreu devido a dificuldades computacionais. Para um trabalho mais recente, veja Mendes e Merkle (2001) que também se referem a Johnson (1950). Realmente, para decidir qual é o melhor estimador entre dois competidores de acordo com o critério de Pitman, só precisamos conhecer a distribuição conjunta de ( T1 , T2 ), o que poderia ser um requerimento forte, visto que usualmente T1 e T2 não serão independentes, uma vez que dependem das mesmas observações. O artigo de Rao (1981) marcou o renascimento do critério de Pitman, considerando-o uma alternativa ao erro médio quadrático. Depois do artigo de Rao, muitos estatísticos começaram a explorar o critério de Pitman e suas propriedades, e parece que agora este critério é uma ferramenta bem reconhecida e familiar em teoria e aplicações. (ABRAMOVITZ, 2001) De acordo com a definição de Rao (1981), T1 está mais próximo de θ que T2 se P(T1 − θ ≤ T2 − θ ) ≥ 1 . Quando T1 é mais próximo de θ do que T2 2 de acordo com as definições acima, então dizemos que T1 é p-melhor que T2 31 ou T1 φ T2 . A seguir são apresentadas algumas propriedades do critério de Pitman: • O tamanho dos desvios é irrelevante. Esta propriedade diferencia o critério de Pitman entre outros métodos: ele leva em consideração apenas o tamanho relativo dos desvios, e então registra somente qual estimador está freqüentemente mais próximo do verdadeiro valor do parâmetro. Este é certamente um grande avanço sobre grandes penalidades a elevados desvios quando se usa o erro médio quadrático. • Não-transitividade. Transitividade significa que se T1 é p-melhor que T2 e T2 é p-melhor que T3 , então T1 deve ser p-melhor que T3 . Isto nem sempre é satisfeito quando comparamos estimadores por certos números associados a cada um deles, no caso a probabilidade de um se aproximar mais do parâmetro verdadeiro do que o outro. Uma vez que o critério de Pitman compara apenas dois estimadores de cada vez, fica claro que eles não precisam ser transitivos, mas quando se comparam três ou mais estimadores, que é o que será feito neste trabalho, a falta de transitividade pode ocorrer, ou seja, é possível que T1 φ T2 e T2 φ T3 , porém, T3 φ T1 . 32 3 METODOLOGIA 3.1 Amostra Obteve-se pelo site da Bolsa de Mercadorias e Futuros (BM&F), a composição da carteira do Ibovespa em 10/11/2003. Foram obtidos do provedor de informações Economática, optando-se pela série corrigida para eventos, os preços de fechamento das dez ações de maior peso no Ibovespa, consideradas por isso as mais líquidas, e que ao mesmo tempo possuíssem dados disponíveis desde o início do Plano Real, em 04/07/1994. O cuidado em se escolher a correta alternativa do Economática (série corrigida para eventos), assegura que a série de retornos logarítmicos a ser calculada a partir dos preços não estará indevidamente influenciada por eventos tais como: splits ou desdobramentos, distribuição de dividendos e agrupamentos, entre outros eventos. Nos dias em que não havia informação de preço para uma determinada ação, seja por ela não ter sido colocada em negociação naquele dia ou por realmente não terem ocorrido negócios com a mesma, repetiu-se o preço de fechamento do dia útil imediatamente anterior, acarretando um retorno igual a zero no dia em questão. Entretanto, esta ausência de dados não foi expressiva: para um total de 2.311 dias com preços de fechamento no período supramencionado, o pior caso ocorreu na ação PETR3, com 18 ausências de dados, seguida de ELET3, com 7 ausências, e PETR4 com 4 ausências. 33 Considerou-se que a repetição do preço anterior na ação com ausência de cotação num determinado dia, era preferível à eliminação de todos os dados referentes às outras ações relativos àquele dia. A Tabela 1 apresenta as ações que foram selecionadas com a respectiva participação relativa na composição do Ibovespa em 10/11/2003. Tabela 1 Ações mais líquidas selecionadas do Ibovespa de forma que contivessem dados desde 04/07/1994 até 31/10/2003 e a sua respectiva participação relativa na composição do índice em 10/11/2003. Código da negociação Descrição da ação Especificação da ação Participação relativa PETR4 PETROBRAS PN 8,145% ELET6 ELETROBRAS PNB* 4,443% BBDC4 BRADESCO PN *EJ 4,391% CMIG4 CEMIG PN * 3,095% ITAU4 ITAUBANCO PN *EJ 3,024% VALE5 VALE R DOCE PNA 2,871% PETR3 PETROBRAS ON 2,330% USIM5 USIMINAS PNA 2,124% CSNA3 SID NACIONAL ON * 2,032% ELET3 ELETROBRAS ON * 1,603% Foram excluídas da amostra por não apresentarem dados desde 04/07/1994 ou por não os apresentarem até 31/10/2003, apesar de se encontrarem entre as ações mais líquidas da Bovespa, as ações da Telemar (TNLP3 e TNLP4), Embraer Par (EBTP4), Telesp Cel (TSPP4), Net (PLIM4), 34 Tele CTR OES (TCOC4), Brasil Telecomunicações (BRTO4), Copel (CPLE6) e Brasil T Participações (BRTP4). É possível que se suspeitasse que a amostra selecionada estivesse influenciada pelo viés da sobrevivência descrito por Haugen & Baker (1996), porém, esta questão não se aplica ao presente trabalho, uma vez que não se está analisando empresas, mas sim, características de determinadas medidas de risco. 3.2 Metodologias de Cálculo do VaR e do Expected Shortfall Nesta seção serão apresentadas as metodologias utilizadas para o cálculo do VaR e do ES. Dentre elas é apresentada a proposta para o cálculo do ES por intermédio de uma metodologia híbrida que se utiliza do método histórico e do analítico com uso da volatilidade EWMA, analogamente ao que foi proposto por Boudoukh et al. (1998) para o cálculo do VaR. Ressalte-se que para o VaR híbrido e, conseqüentemente, para o ES híbrido proposto, não foi utilizada a metodologia exatamente da forma apresentada em Boudoukh et al. (1998), mas sim, uma metodologia ligeiramente modificada, conforme será demonstrado com as devidas razões. 3.2.1 Simulação Histórica O método da simulação histórica se baseia em informações passadas para fazer estimativas com relação aos retornos futuros. Observa-se uma 35 janela K de retornos passados, estima-se que ela seja a distribuição futura dos retornos e a partir dela obtém-se o VaR histórico. De acordo com a definição de Acerbi e Tasche (2002), o quantil superior e o VaR são obtidos pelas seguintes equações, sendo o VaR o simétrico do quantil α superior. x (α ) = inf {x ∈ ℜ Ρ[X ≤ x ] > α } VaR(α ) = − x (α ) Sendo X a variável aleatória dos retornos de um ativo ou de uma carteira. Observando numa série ordenada de retornos passados X , se z é o retorno tal que P[X ≤ z ] é exatamente igual a α, o quantil α superior será sempre o primeiro retorno à direita de z . Conforme a definição de Lopes (1999), o p-ésimo percentil tem no mínimo p% dos valores abaixo daquele ponto e no mínimo (100-p)% dos valores acima. Assim, utilizou-se para o VaR histórico de nível de significância α, a função percentil do Excel que se utiliza daquela definição de Lopes (1999). Para obter o percentil α, o Excel ordena a janela com K observações em ordem crescente de valores, define como 0% a posição da observação de ordem 1, e 100% a posição da observação de ordem K, conforme a Figura 3. 36 Figura 3 Relação linear entre o percentil e a ordem da série de K valores ordenados em ordem crescente de valor. Percentil 100% p 0% 1 x n Ordem da série A posição x correspondente ao percentil α, que será o VaR ao nível α, é obtida pela equação: α x = (K − 1) +1 100 Se x resultar num número inteiro, o VaR histórico será o simétrico do retorno correspondente a esta posição x. Quando x não for um número inteiro, faz-se a interpolação linear entre o retorno anterior e o posterior à posição x, e o VaR histórico será o simétrico deste valor interpolado. Para o cálculo do Expected Shortfall na metodologia histórica utilizouse a equação: ES = −Ε[X X ≤ −VaRhist ] 37 Assim, o ES é o simétrico da média aritmética dos retornos inferiores ou iguais ao simétrico do VaR histórico. Não houve problemas em não se utilizar a definição generalizada para o ES descrita na seção 2.4, porque em todas as séries de janela K dos retornos dos ativos e da carteira, havia no máximo um retorno igual ao simétrico do VaR histórico. Esta definição reduzida só apresenta problemas para séries discretas em que mais de uma observação se iguala ao simétrico do VaR histórico. 3.2.2 Método analítico com utilização do processo EWMA (Exponential Weighted Moving Average) A metodologia analítica desenvolvida no RiskMetricsTM assume que a distribuição futura dos retornos segue a distribuição Normal com média zero e volatilidade calculada pela metodologia EWMA (Exponential Weighted Moving Average), que dá peso maior às informações mais recentes e menor às informações mais antigas, com diminuição exponencial dos pesos de acordo com um fator de decaimento lambda (λ). Seguindo a metodologia EWMA, a variância móvel ponderada exponencialmente de uma série de retornos de ações na data t ( σ t2 ) é dada pela equação: σ t2 = [ )∑ (1 − λ ) T −1 λi (R (1 − λ T i =0 t −i −R )] 2 38 Sendo λ o fator de decaimento, T o tamanho da amostra, Rt o retorno na data t e R a média dos retornos. Assumindo que R =0 e fazendo T tender ao infinito, a equação fica: [ ∞ σ t2 = (1 − λ )∑ λi Rt2−i = (1 − λ ) Rt2 + λRt2−1 + λ2 Rt2− 2 + λ3 Rt2−3 + L i =0 [ = (1 − λ )Rt2 + λ (1 − λ ) Rt2−1 + λRt2− 2 + λ2 Rt2−3 + λ3 Rt2− 4 + L [ ] ] ] Como (1 − λ ) Rt2−1 + λRt2− 2 + λ2 Rt2−3 + L é a variância calculada no dia anterior, σ t2−1 , tem-se que: σt = (1 − λ )Rt2 + λσ t2−1 Esta é a conhecida fórmula recursiva do cálculo da volatilidade EWMA, bastante utilizada pela facilidade computacional de implementação. Neste trabalho, a volatilidade EWMA foi calculada utilizando-se essa fórmula e partindo-se de uma volatilidade inicial igual a zero. O cálculo do VaR e do ES que utilizasse a volatilidade EWMA ocorreu no mínimo após 50 dias da aplicação inicial da fórmula recursiva, o que foi considerado suficiente para que o erro da volatilidade inicial dada fosse amortizado. O VaR calculado da forma analítica para cada unidade monetária e assumindo a normalidade, é obtido pelo simétrico do produto da volatilidade ( ) pela inversa da função distributiva acumulada da Normal Padrão Φ −1 para o nível de significância α desejado. 39 VaR = −σ EWMA × Φ −1 (α ) Para o cálculo do Expected Shortfall pela metodologia analítica com uso da volatilidade EWMA, utilizou-se a relação apresentada na seção 2.4 de que para distribuições Normais, o ES ao nível α equivale ao VaR ao nível β, através da relação: [ ] φ Φ −1 (α ) β = 1 − Φ α Sendo φ a função densidade da distribuição (pdf) Normal Padrão, Φ a função distributiva acumulada (cdf) da Normal Padrão e α o nível de significância. Por exemplo, considerando-se a distribuição Normal, o ES ao nível de 2,5% (o ES calculado considerando-se como condição o VaR de 2,5%) tem o mesmo valor que o VaR ao nível de 1%. Assim, para os quatro níveis de significância α utilizados (1%, 2,5%, 5%, e 10%), foi calculado o correspondente nível β. resultou da equação: ES (α ) = VaR(β ) = −σ EWMA × Φ −1 (β ) O Expected Shortfall 40 3.2.3 Metodologia Híbrida do Cálculo do VaR – The Best of Both Worlds A abordagem híbrida de cálculo do VaR, intitulada de The Best of Both Worlds, foi desenvolvida em Boudoukh et al. (1998), e é implementada em três passos: 1o Passo) Sendo Rt o retorno logarítmico do ativo ou carteira referente a data t, para cada um dos k retornos mais recentes: Rt, Rt-1, ... , Rt-k+1, atribuem-se os pesos: 1− λ 1− λ × λ0 , × λ1 , Λ k k 1− λ 1− λ 1− λ , × λk −1 , respectivamente. k 1− λ Sendo: λ: coeficiente de decaimento exponencial dos pesos e; K: o tamanho da janela considerada. A constante 1− λ assegura que o somatório final dos pesos resulte 1 − λk sempre em 1, não importando o valor do λ ou do K utilizado. 2o Passo) Ordenam-se os retornos em ordem crescente levando-se junto os respectivos pesos; 3o Passo) A fim de obter o VaR de α%, iniciando-se pelo menor retorno, os pesos vão sendo acumulados até que α% seja ultrapassado. A interpolação 41 linear é utilizada entre os pontos adjacentes para obter exatamente o α% da distribuição. Na Tabela 2 são apresentadas, após a realização do segundo passo, as partes inicial e final da janela com 100 retornos da ação ITAU4, abrangendo o período de 12/06 a 31/10/2003, utilizados para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros α = 5%, k = 100 e λ=0,94. Tabela 2 Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período de 12/06 a 31/10/2003, após a realização do segundo passo definido por Boudoukh et al. (1998), mostrando a ordem original dos retornos, a ordem após o ordenamento crescente dos retornos, o peso dado para o retorno pela metodologia EWMA e o peso acumulado, os quais foram utilizados para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros α=5%, K=100 e λ=0,94. Ordem atual Posição antes do ordenamento Data Retornos Peso Peso acumulado 1º 2º 3º 4º 5º 62º 36º 98º 94º 74º 09/09/03 04/08/03 29/10/03 23/10/03 25/09/03 -3,398% -3,193% -3,160% -3,064% -2,804% 0,00573 0,00115 0,05313 0,04148 0,01203 0,00573 0,00687 0,06000 0,10148 0,11351 . . . . . . . . . . . . . . . . . . 99º 100º 78º 53º 01/10/03 27/08/03 4,298% 5,563% 0,01541 0,00328 0,99672 1,00000 Sob a abordagem híbrida, no exemplo apresentado o peso acumulado de 5% se encontra em algum ponto entre os retornos –3,193% e –3,160%. O 42 VaR híbrido com o nível de significância de 5% será obtido pela interpolação linear desses pontos e será igual a: [− 3,160% − (− 3,193%)] × (0,05 − 0,00687 ) = 3,166% VaRhíbrido = − − 3,193% + 0,06000 − 0,00687 O sinal de menos no início da expressão é para que o valor encontrado para o VaR seja um valor positivo, pois conforme foi explicado anteriormente, refere-se a uma perda máxima provável e não um valor negativo que seria entendido como um retorno mínimo provável. Esta é a metodologia híbrida proposta por Boudoukh, Richardson e Whitelaw (1998) para o cálculo do VaR. Todavia, ela não foi utilizada ipsis literis neste trabalho porque traz em si um problema no cálculo. O problema ocorre quando o menor retorno da janela é a informação mais recente. No exemplo do lambda de 0,94, o peso da informação mais recente é de 6%, acarretando que para os níveis de significância 1%, 2,5% e 5%, o VaR seria calculado única e exclusivamente a partir deste retorno, o que pode gerar distorções quando o retorno mínimo for um pesado out lier e agravar consideravelmente o problema da falta de sub-aditividade do VaR. Neste trabalho o lambda foi obtido por processo de otimização que será descrito na seção 3.2.5, podendo assumir centésimos variando de 0,80 a 0,99. No caso do ser selecionado um lambda ótimo de 0,80, o peso da informação mais recente fica sendo 20%, o que agrava ainda mais o problema de calcular o VaR a partir de um único retorno. 43 Para solucionar este problema, adicionou-se uma coluna com o peso acumulado do retorno anterior, após o ordenamento dos retornos2. O VaR de α% passa a ser obtido, então, nesta coluna de peso acumulado do retorno anterior, observando-se quando o nível alfa é ultrapassado. A interpolação linear é utilizada entre os pontos adjacentes para obter exatamente o α% da distribuição. Dessa forma, assegura-se que a informação (retorno acumulado do retorno anterior) do primeiro retorno será sempre 0,00% e o VaR nunca será obtido deste primeiro retorno. Na Tabela 3 são apresentados, após a realização do segundo passo e a introdução da coluna com o peso acumulado anterior, sugerido neste trabalho, as partes inicial e final da janela com os 100 retornos da ação ITAU4, abrangendo o período de 12/06/2003 a 31/10/2003, utilizados para o cálculo do VaR em 31/10/2003, sendo os parâmetros α=5%, K=100 e λ=0,94. 2 Na formulação desta idéia contou-se com a contribuição de José Alberto Baranowski. 44 Tabela 3 Exemplo da série de 100 retornos da ação ITAU4, abrangendo o período de 12/06 a 31/10/2003, após realizado o segundo passo definido por Boudoukh et al. (1998) e a adição da coluna de peso acumulado do retorno anterior, proposta neste trabalho, mostrando também a ordem original dos retornos, a ordem após o ordenamento crescente dos retornos, o peso dado para o retorno pela metodologia EWMA e o peso acumulado, os quais foram utilizados para o cálculo do VaR híbrido em 31/10/2003, sendo os parâmetros α=5%, k=100 e λ=0,94. Ordem atual Posição antes do ordenamento Peso Peso acumulado Peso acumulado anterior Data Retornos 1º 2º 3º 4º 5º 62º 36º 98º 94º 74º 09/09/2003 04/08/2003 29/10/2003 23/10/2003 25/09/2003 -3,398% -3,193% -3,160% -3,064% -2,804% 0,00573 0,00115 0,05313 0,04148 0,01203 0,00573 0,00687 0,06000 0,10148 0,11351 0,00000 0,00573 0,00687 0,06000 0,10148 . . . . . . . . . . . . . . . . . . . . . 99º 100º 78º 53º 01/10/2003 27/08/2003 4,298% 5,563% 0,01541 0,00328 0,99672 1,00000 0,98131 0,99672 Diferentemente do peso acumulado 0,05, que se localizou entre o 2º e o 3º retorno, na coluna com o peso acumulado do retorno anterior, o 0,05 localizou-se entre o 3º e o 4º retorno, havendo uma postergação da região de onde será calculado o VaR híbrido, utilizando assim mais dados para o cálculo do VaR e do ES. O VaR, então, será obtido pela interpolação linear considerando os pesos acumulados dos retornos anteriores (vide a nova coluna na Tabela 3) e o nível alfa do VaR: [− 3,064% − (− 3,160%)] × (0,05 − 0,00687) = 3,082% − − 3,160% + 0,06000 − 0,00687 45 No exemplo apresentado, a diferença foi relativamente pequena, variando o VaR híbrido de 3,166% para 3,082% com a alteração proposta. Entretanto, em situações em que o peso dos menores retornos são mais elevados, a diferença torna-se maior, aprimorando o cálculo do VaR e do ES ao utilizar mais dados, havendo sempre pelo menos dois retornos para o cálculo. Foi constatado também que o cálculo do VaR híbrido da forma proposta em Boudoukh et al. (1998) aumentava significativamente o número de falhas na sub-aditividade em comparação com a alteração proposta utilizando os percentis. Alternativamente, para solucionar o problema citado com a metodologia de Boudoukh et al., poder-se-ia ter considerado o VaR híbrido como sendo o simétrico do quantil alfa superior da distribuição e o VaR híbrido seria o simétrico do retorno para o qual o peso acumulado EWMA ultrapassa o nível alfa, não se fazendo dessa forma nenhuma interpolação. 3.2.4 Proposta de uma Metodologia Híbrida para o Cálculo do Expected Shortfall – The Best of Both Worlds Para a utilização de uma metodologia híbrida no cálculo do Expected Shortfall, primeiramente foram seguidos os mesmos passos descritos para o cálculo do VaR híbrido com a utilização da nova coluna com os pesos acumulados do retorno anterior. A sugestão apresentada neste trabalho para o ES híbrido segue a definição de Expected Shortfall descrita em Acerbi e Tasche (2001, 2002) considerando o corolário 4.3 em Acerbi e Tasche (2002): 46 ES (α ) [ ([ ] ) Ε X Ι {X ≤ x (α ) } − Ρ X ≤ x (α ) − α x (α ) = − α ] Onde: X = série de retornos da janela considerada, é a variável aleatória dos retornos; Ι {condição} = função indicadora, que é 1 se a condição entre as chaves é verdadeira e 0 caso não seja. x (α ) = quantil α superior, definido anteriormente, mas que pode ser visto aqui como sendo o VaR híbrido calculado. Informalmente e de uma forma que não faz suposições acerca da distribuição dos retornos, dando uma ótima intuição sobre o conceito desta nova medida de risco, o Expected Shortfall é a média dos α% piores retornos da janela. Só que na metodologia híbrida de cálculo aqui proposta, ele será a média ponderada pelos pesos dos α% piores retornos da janela. Então, a fim de se calcular o Expected Shortfall, dando-se continuidade aos passos apresentados anteriormente, criou-se o quarto passo. 4o Passo) A fim de calcular o ES ao nível de α%, obtém-se o somatório dos produtos dos retornos inferiores ao VaR híbrido pelos respectivos pesos (não acumulados), exceto pelo retorno imediatamente inferior ao VaR que em vez de ser multiplicado pelo seu próprio peso, é multiplicado pelo quanto que falta para o peso acumulado atingir o valor de alfa, tudo isso dividido pelo alfa e 47 multiplicado por -1, obtendo-se assim a média ponderada. No exemplo da Tabela 3, todos os retornos inferiores ao simétrico do VaR híbrido de 3,082% são multiplicados pelos respectivos pesos, exceto o retorno –3,160% que em vez de ser multiplicado pelo seu peso de 0,05313, é multiplicado por 0,04313 que é o quanto falta para atingir um peso acumulado de valor 0,05, o nível alfa. É como se numa série com 1.000 valores existissem 53 iguais a –3,160% e estivessem sendo utilizados somente os primeiros 43 valores para o cálculo da média ponderada que resultará no ES híbrido. Poder-se-ia questionar do porquê de se utilizar não o próprio peso do retorno imediatamente inferior ao VaR híbrido, mas o quanto que falta para atingir o nível alfa. Mas este procedimento tem o mesmo efeito da definição proposta por Acerbi e Tasche (2001, 2002), apresentada anteriormente e que se propõe a ser sempre sub-aditiva, até mesmo para distribuições discretas, como é o caso. A única diferença é que a definição primeiramente consideraria o retorno imediatamente inferior ao VaR híbrido com o seu próprio peso [ Ε X Ι {X ≤ x (α ) } α ] , a sua própria freqüência, para depois subtrair o excesso do ([ ] ) Ρ X ≤ x (α ) − α x (α ) peso acumulado sobre o nível alfa − α . Assim, no exemplo apresentado na Tabela 3, o Expected Shortfall híbrido seria dado por: − 3,398% × 0,00573 + (− 3,193% × 0,00115) + (− 3,160% )(0,05 − 0,00687 ) ES Híbrido = − 0,05 48 ES Híbrido = 3,188% 3.2.5 Obtenção do lambda ótimo A metodologia analítica com uso da volatilidade EWMA e a híbrida utilizam o fator de decaimento lambda ( λ ) que teoricamente pode variar no intervalo [0,1]. Neste trabalho o lambda pôde assumir valores variando de 0,80 a 0,99 ao passo de 0,01, fazendo com que o peso da informação mais recente (1-λ) variasse entre 20% e 1%, respectivamente. Valores de lambda menores que 0,80 acarretariam pesos superiores a 20% para a informação mais recente, o que não faz muito sentido, pois estaria sendo dada exagerada importância a uma única informação. Mas qual lambda utilizar? O RiskMetricsTM sugere o lambda 0,94 para ações, que foi obtido por um processo que visava obter o VaR mais apropriado. Muitos trabalhos envolvendo o cálculo de VaR para ações utilizando o modelo analítico com uso da volatilidade EWMA utilizam este lambda 0,94, baseandose unicamente na sugestão do RiskMetricsTM. Como o objetivo principal do trabalho é o estudo do Expected Shortfall, não faria muito sentido utilizar esta sugestão do RiskMetricsTM. Então, apesar da complexidade computacional envolvida, foi desenvolvido um processo de otimização do lambda que tinha por objetivo obter o melhor Expected Shortfall, considerando-se o lambda ótimo aquele que obtivesse para a carteira igualmente ponderada (e não para todos os ativos), o menor somatório das distâncias entre o ES calculado e a perda do dia seguinte, dado que o VaR foi violado. Assim, o ES dado pelo lambda ótimo 49 seria aquele que tivesse para a carteira o maior acerto em ser a expectativa da perda quando esta era superior ao VaR, ou seja, o ES que no geral ficasse mais próximo da perda quando o VaR era violado. Foi desenvolvido o mesmo processo de otimização tanto para a metodologia analítica como para a híbrida. Para todo o período abrangido pela amostra de preços, de 04/07/1994 a 31/10/2003, foram definidas janelas de calibragem com 250 dias úteis nas quais era selecionado um lambda ótimo e janelas de teste com os 100 dias úteis seguintes, nas quais eram aplicados os lambdas ótimos selecionados. Assim, manteve-se a consistência de fazer com que os lambdas ótimos selecionados não fossem aplicados sobre os dados que o geraram. A Figura 4 é a esquematização da definição das janelas de calibragem e das janelas de teste. 50 Figura 4 Esquematização da definição das janelas de calibragem e de teste no processo de otimização do lambda das metodologias analítica com EWMA e híbrida com a primeira janela de calibragem iniciando-se após K dias úteis, sendo K o parâmetro que define o tamanho da janela na metodologia híbrida. O processo de otimização do lambda e de cálculo do VaR e ES das metodologias analítica e híbrida seguiu os seguintes passos: 1º Passo) Definiram-se as datas de início e fim das janelas de calibragem e de teste, sendo que a data de início da primeira janela de calibragem se dava após K dias úteis do primeiro dia da amostra, sendo K o tamanho da janela para o cálculo do VaR e ES híbrido. Quando a data final da última janela de teste foi posterior a 31/10/2003, fim da amostra, estendeu-se o tamanho da penúltima janela de teste até 31/10/2003. 2º Passo) Executaram-se os programas elaborados no Excel que calculavam o VaR e ES da metodologia analítica e híbrida, variando o lambda de 0,80 a 0,99 com incremento de 0,01, armazenando-se para cada lambda, para cada janela 51 de calibragem, o somatório das distâncias entre o ES e a perda do dia seguinte quando o VaR era violado, considerando-se somente os valores da carteira. 3º Passo) O lambda selecionado como ótimo era aquele que resultasse no menor somatório das distâncias. Rodou-se então novamente o programa para os lambdas ótimos selecionados, armazenando os valores de VaR e ES correspondentes nas janelas de teste. Devido à extensão dos cálculos e à grande quantidade de dados, o processamento tornou-se muito demorado conforme pode ser visto na Tabela 6 da seção 4.2. Os Quadros 2, 3 e 4 a seguir apresentam para as metodologias analítica com EWMA e híbrida, os resultados do processo de otimização dos lambdas para as combinações dos parâmetros janelas K de 50, 100 e 250 dias, respectivamente, com os níveis de significância α de 1%, 2,5%, 5% e 10% 52 Quadro 2 Janelas de calibragem, de teste e respectivos lambdas selecionados para o parâmetro janela K = 250 dias no processo de otimização que procurava obter o Expected Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003. Ordem 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Janela de calibragem De A 10/07/95 12/07/96 01/12/95 03/12/96 03/05/96 06/05/97 23/09/96 25/09/97 20/02/97 18/02/98 18/07/97 20/07/98 05/12/97 10/12/98 08/05/98 13/05/99 30/09/98 05/10/99 02/03/99 01/03/00 27/07/99 26/07/00 20/12/99 19/12/00 17/05/00 18/05/01 06/10/00 10/10/01 08/03/01 13/03/02 01/08/01 06/08/02 27/12/01 27/12/02 27/05/02 27/05/03 Janela de Lambdas selecionados teste α = 1% α = 2,5% α = 5% α = 10% De A Analítico Híbrido Analítico Híbrido Analítico Híbrido Analítico Híbrido 15/07/96 03/12/96 0,99 0,97 0,99 0,97 0,99 0,96 0,99 0,96 04/12/96 06/05/97 0,89 0,93 0,94 0,96 0,98 0,94 0,99 0,95 07/05/97 25/09/97 0,90 0,99 0,92 0,93 0,93 0,94 0,82 0,94 26/09/97 18/02/98 0,95 0,98 0,92 0,99 0,88 0,98 0,82 0,94 19/02/98 20/07/98 0,81 0,99 0,83 0,94 0,80 0,92 0,81 0,96 21/07/98 10/12/98 0,81 0,99 0,86 0,94 0,86 0,95 0,92 0,91 11/12/98 13/05/99 0,81 0,99 0,80 0,99 0,88 0,96 0,88 0,96 14/05/99 05/10/99 0,81 0,99 0,80 0,97 0,88 0,94 0,88 0,98 06/10/99 01/03/00 0,94 0,80 0,83 0,95 0,94 0,92 0,94 0,94 02/03/00 26/07/00 0,97 0,97 0,97 0,98 0,98 0,94 0,85 0,95 27/07/00 19/12/00 0,80 0,99 0,99 0,99 0,89 0,99 0,99 0,99 20/12/00 18/05/01 0,92 0,99 0,99 0,99 0,99 0,99 0,99 0,98 21/05/01 10/10/01 0,99 0,99 0,96 0,99 0,99 0,99 0,99 0,99 11/10/01 13/03/02 0,89 0,99 0,91 0,99 0,99 0,95 0,99 0,95 14/03/02 06/08/02 0,88 0,99 0,82 0,98 0,94 0,95 0,99 0,94 07/08/02 27/12/02 0,88 0,99 0,82 0,99 0,86 0,98 0,99 0,99 30/12/02 27/05/03 0,89 0,99 0,94 0,97 0,94 0,98 0,98 0,99 28/05/03 31/10/03 0,94 0,99 0,95 0,98 0,94 0,97 0,98 0,98 Quadro 3 Janelas de calibragem, de teste e respectivos lambdas selecionados para o parâmetro janela K = 100 dias no processo de otimização que procurava obter o Expected Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003. Ordem 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 Janela de calibragem De A 28/11/94 30/11/95 27/04/95 02/05/96 19/09/95 20/09/96 15/02/96 19/02/97 15/07/96 17/07/97 04/12/96 04/12/97 07/05/97 07/05/98 26/09/97 29/09/98 19/02/98 01/03/99 21/07/98 26/07/99 11/12/98 17/12/99 14/05/99 16/05/00 06/10/99 05/10/00 02/03/00 07/03/01 27/07/00 31/07/01 20/12/00 26/12/01 21/05/01 24/05/02 11/10/01 15/10/02 14/03/02 13/03/03 Janela de Lambdas selecionados teste α = 1% α = 2,5% α = 5% α = 10% De A Analítico Híbrido Analítico Híbrido Analítico Híbrido Analítico Híbrido 01/12/95 02/05/96 0,96 0,98 0,89 0,99 0,83 0,99 0,84 0,96 03/05/96 20/09/96 0,99 0,99 0,99 0,97 0,99 0,95 0,99 0,95 23/09/96 19/02/97 0,99 0,99 0,99 0,97 0,99 0,99 0,99 0,98 20/02/97 17/07/97 0,89 0,95 0,90 0,97 0,98 0,95 0,99 0,96 18/07/97 04/12/97 0,95 0,99 0,92 0,97 0,88 0,98 0,80 0,94 05/12/97 07/05/98 0,80 0,99 0,86 0,98 0,80 0,99 0,82 0,97 08/05/98 29/09/98 0,81 0,99 0,83 0,94 0,80 0,96 0,81 0,98 30/09/98 01/03/99 0,81 0,99 0,83 0,98 0,80 0,96 0,81 0,97 02/03/99 26/07/99 0,81 0,95 0,80 0,97 0,91 0,96 0,98 0,97 27/07/99 17/12/99 0,81 0,96 0,80 0,96 0,92 0,99 0,97 0,97 20/12/99 16/05/00 0,94 0,94 0,99 0,89 0,96 0,92 0,99 0,96 17/05/00 05/10/00 0,81 0,96 0,91 0,97 0,82 0,98 0,98 0,99 06/10/00 07/03/01 0,95 0,98 0,99 0,99 0,89 0,99 0,99 0,96 08/03/01 31/07/01 0,94 0,98 0,99 0,99 0,99 0,99 0,99 0,97 01/08/01 26/12/01 0,99 0,99 0,96 0,99 0,99 0,96 0,98 0,92 27/12/01 24/05/02 0,99 0,96 0,91 0,98 0,99 0,99 0,99 0,99 27/05/02 15/10/02 0,88 0,96 0,82 0,99 0,94 0,99 0,99 0,98 16/10/02 13/03/03 0,89 0,96 0,89 0,95 0,94 0,98 0,98 0,96 14/03/03 31/10/03 0,94 0,96 0,94 0,97 0,94 0,96 0,98 0,99 53 Quadro 4 Janelas de calibragem, de teste e respectivos lambdas selecionados para o parâmetro janela K = 50 dias no processo de otimização que procurava obter o Expected Shortfall que mais se aproximava da perda quando esta superava o VaR, abrangendo o período de 04/jul/1994 a 31/out/2003. Ordem 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Janela de calibragem De A 13/09/94 18/09/95 08/02/95 14/02/96 10/07/95 12/07/96 01/12/95 03/12/96 03/05/96 06/05/97 23/09/96 25/09/97 20/02/97 18/02/98 18/07/97 20/07/98 05/12/97 10/12/98 08/05/98 13/05/99 30/09/98 05/10/99 02/03/99 01/03/00 27/07/99 26/07/00 20/12/99 19/12/00 17/05/00 18/05/01 06/10/00 10/10/01 08/03/01 13/03/02 01/08/01 06/08/02 27/12/01 27/12/02 27/05/02 27/05/03 Janela de Lambdas selecionados teste α = 1% α = 2,5% α = 5% α = 10% De A Analítico Híbrido Analítico Híbrido Analítico Híbrido Analítico Híbrido 19/09/95 14/02/96 0,96 0,94 0,87 0,90 0,83 0,92 0,85 0,90 15/02/96 12/07/96 0,96 0,97 0,90 0,95 0,86 0,99 0,88 0,98 15/07/96 03/12/96 0,99 0,96 0,99 0,94 0,99 0,99 0,99 0,99 04/12/96 06/05/97 0,89 0,96 0,94 0,95 0,98 0,93 0,99 0,96 07/05/97 25/09/97 0,90 0,95 0,92 0,94 0,93 0,99 0,82 0,95 26/09/97 18/02/98 0,95 0,93 0,92 0,98 0,88 0,99 0,82 0,95 19/02/98 20/07/98 0,81 0,91 0,83 0,94 0,80 0,92 0,81 0,99 21/07/98 10/12/98 0,81 0,91 0,86 0,99 0,86 0,92 0,92 0,95 11/12/98 13/05/99 0,81 0,91 0,80 0,99 0,88 0,95 0,88 0,98 14/05/99 05/10/99 0,81 0,97 0,80 0,99 0,88 0,94 0,88 0,98 06/10/99 01/03/00 0,94 0,97 0,83 0,87 0,94 0,89 0,94 0,99 02/03/00 26/07/00 0,97 0,90 0,97 0,93 0,98 0,93 0,85 0,97 27/07/00 19/12/00 0,80 0,95 0,99 0,96 0,89 0,91 0,99 0,98 20/12/00 18/05/01 0,92 0,89 0,99 0,96 0,99 0,91 0,99 0,97 21/05/01 10/10/01 0,99 0,88 0,96 0,97 0,99 0,99 0,99 0,92 11/10/01 13/03/02 0,89 0,88 0,91 0,98 0,99 0,96 0,99 0,95 14/03/02 06/08/02 0,88 0,88 0,82 0,93 0,94 0,94 0,99 0,94 07/08/02 27/12/02 0,88 0,98 0,82 0,93 0,86 0,94 0,99 0,99 30/12/02 27/05/03 0,89 0,94 0,94 0,98 0,94 0,96 0,98 0,96 28/05/03 31/10/03 0,94 0,94 0,95 0,96 0,94 0,97 0,98 0,99 3.3 Aplicação do critério de Pitman Após o cálculo do Expected Shortfall pelas metodologias histórica (EShist), analítica (ES-EWMA) e híbrida (ES-híbrido), para as 12 combinações de parâmetros α (nível de significância) e K (tamanho da janela do cálculo da medida), aplicou-se o critério de Pitman com o objetivo de verificar qual das três metodologias apresentava um resultado que fosse probabilisticamente melhor do que a perda efetiva dado que o VaR calculado pelas 3 metodologias fora violado. Então, primeiramente verificaram-se os dias em que havia ocorrido uma falha comum do VaR-hist, do VaR-EWMA e do VaR-híbrido, comparandoos com a perda do dia seguinte, para cada um dos ativos separadamente e 54 para a carteira igualmente ponderada nos ativos. Depois, para cada um dos ativos, considerando todos os dias em que houve falha comum, respondia-se sim ou não a três perguntas: o ES-hist é probabilisticamente melhor que o ES-EWMA (ES-hist φ ES-EWMA)? ES-hist φ ES-híbrido? ES-EWMA φ EShíbrido? Mas respondia-se sim ou não de que forma? Verificava-se, por exemplo, se ES-hist φ ES-EWMA no dia de falha comum para cada um dos ativos, observando se: P( ES hist − S < ES EWMA − S ) > 1 Difhist 2 DifEWMA Sendo S a perda do dia seguinte ao do VaR violado. Caso esta probabilidade fosse maior que ½, a resposta era sim. O cálculo de P(Difhist<DifEWMA) era dado por: # ( Dif hist < Dif EWMA ) #T Sendo # (condição) a contagem dos casos em que condição entre parênteses é satisfeita e T={t: dia em que houve violação do VaR-hist, do VaREWMA e do VaR-híbrido ao mesmo tempo}. 55 4 RESULTADOS A seção dos resultados foi dividida em três tópicos: o primeiro aborda o VaR e o Expected Shortfall calculados pela metodologia histórica e pelo método analítico com uso da volatilidade EWMA; o segundo analisa os resultados para a metodologia híbrida de cálculo do VaR proposta por Boudoukh et al. (1998) com as alterações explicitadas anteriormente neste trabalho e para o cálculo do Expected Shortfall na forma híbrida proposta; o terceiro apresenta os resultados da aplicação do critério de Pitman. A fim de observar a propriedade sub-aditividade tanto do VaR como do Expected Shortfall, em cada uma das 12 combinações de nível de significância α e tamanho da janela K, obteve-se a soma dos valores das medidas de risco calculados diariamente para os 10 ativos multiplicados cada um pelo peso 1/10. Esta soma foi comparada com o VaR e o ES calculados para a carteira. Caso a soma dos valores individuais dos ativos, considerando o peso 1/10 de cada um, fosse menor do que o valor calculado para a carteira, contava-se a ocorrência de uma falha na sub-aditividade. Visando validar o VaR calculado pelas três metodologias, para só então testar o Expected Shortfall, foi realizado o backtesting diário para cada ativo e para a carteira, comparando o VaR de cada metodologia com o retorno diário do dia seguinte, observando se houve ou não a violação do VaR. No caso em que a quantidade de falhas situou-se dentro dos limites de Kupiec (1995) com o valor crítico obtido ao nível de significância de 5%, o VaR não foi 56 rejeitado pelo teste. Deve-se lembrar que o processo de otimização do lambda objetivou a obtenção de melhores resultados para o Expected Shortfall e o teste procura verificar se o processo influenciou o VaR de forma a rejeitá-lo. A metodologia analítica com uso da volatilidade EWMA foi a única das três metodologias analisadas em que se entendeu nesta pesquisa ser aplicável o teste de Berkowitz, por ser a única que faz suposição acerca da distribuição de lucros e perdas. A metodologia histórica e a híbrida não fazem suposições acerca da distribuição dos retornos, em vez disso, elas simplesmente utilizam os retornos passados para fazer inferências com relação ao futuro. Assim, o teste de Berkowitz foi aplicado para o dia 31/10/2003 para cada uma das séries de ativos e para a carteira. 4.1 Valor em Risco e Expected Shortfall pela Metodologia Histórica e Analítica com uso da Volatilidade EWMA Na Tabela 4 são apresentados os resultados da verificação da subaditividade para 12 combinações dos parâmetros nível α de 1%, 2,5%, 5% e 10% e tamanho da janela K de 50, 100 e 250 dias. O nível α é um parâmetro que diferencia os resultados de uma combinação para outra, basta verificar novamente a seção Metodologia e constatar que o α entra no cálculo das medidas de risco, e, conseqüentemente, alfas diferentes levam a VaR e ES diferentes entre si, tanto na metodologia histórica como na analítica com uso da volatilidade EWMA. Uma dúvida pode surgir quando se fala do tamanho K da janela, pois na seção Metodologia não há indícios de que o tamanho K da 57 janela entre no cálculo do VaR e ES da metodologia analítica, e que leve, portanto, a valores diferentes conforme o tamanho da janela. Todavia, de acordo com o tamanho K da janela, haverá diferença sim, e tal diferença é gerada no processo de seleção do lambda ótimo. Conforme o tamanho da janela, os lambdas selecionados como ótimo podem variar, o que pode ser visto nos Quadros 2, 3 e 4 resultantes do processo de otimização. O tamanho da janela K define a data de início da primeira janela de calibragem (vide a Figura 4), gerando diferenças para os parâmetros K=50, 100 ou 250 até mesmo na metodologia analítica com uso da volatilidade EWMA. Tabela 4 Falhas na sub-aditividade das Medidas de Risco VaR e Expected Shortfall calculadas pela metodologia histórica e analítica com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. Parâmetros Nível Janela K α 50 1% 100 250 50 2,5% 100 250 50 5% 100 250 50 10% 100 250 Quantidade de falhas na sub-aditividade VaR ES VaR ES Hist Hist EWMA EWMA 0 0 0 0 0 0 0 47 0 0 0 170 0 0 0 13 0 0 0 103 0 0 0 0 0 0 0 45 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Quantidade de dados Histórico EWMA 2.261 2.211 2.061 2.261 2.211 2.061 2.261 2.211 2.061 2.261 2.211 2.061 2.011 1.961 1.811 2.011 1.961 1.811 2.011 1.961 1.811 2.011 1.961 1.811 Obs.: Apesar de não influenciar o cálculo pela metodologia analítica, o tamanho da janela K define a data de início da primeira janela de calibragem na seleção dos lambdas ótimos, gerando pequenas diferenças para os parâmetros K=50, 100 ou 250. 58 Conforme previsto na literatura, da análise da Tabela 4, verifica-se que a metodologia analítica realmente não apresenta nenhuma falha na subaditividade, tanto para o VaR como para o ES. O VaR histórico apresenta falhas na sub-aditividade para algumas combinações de parâmetros, mas que são totalmente corrigidas pelo Expected Shortfall, o que também está de acordo com a literatura. Tentou-se observar uma regra que diria se a ausência da subaditividade era mais provável de ocorrer para alfas menores ou maiores, ou então com janelas menores ou maiores, porém, os resultados da tabela não sugerem a existência de regra parecida. Olhando-se para o nível de significância α de 1%, por exemplo, até se poderia dizer que quanto maior o tamanho da janela, maior a ocorrência de falhas na sub-aditividade do VaR histórico. Mas isto cai por terra quando se observa o nível de significância 2,5%, em que se vê um aumento de 13 para 103 no número de falhas da subaditividade da janela de 50 para a de 100 dias, mas uma diminuição para zero quando se observa a janela de 250 dias. De forma parecida, também não se pode afirmar que quanto maior o nível de significância, maior a possibilidade de ocorrência de falhas na sub-aditividade. Isto leva a crer que a ocorrência de falhas na sub-aditividade vai estar ligada unicamente à disposição dos retornos dos ativos na distribuição, ou seja, poderá ser mais fácil ocorrer a falha na subaditividade numa janela maior ou menor, num alfa maior ou menor dependendo dos retornos dos ativos. 59 Uma vez que o processo de otimização do lambda descrito na seção 3.2.5 objetivou a obtenção dos melhores resultados para o Expected Shortfall, tornou-se necessária a análise dos reflexos deste processo no VaR por intermédio do teste de Kupiec (1995). A seguir é apresentada a Tabela 5 que mostra para cada combinação de parâmetros, a quantidade de ativos para os quais o VaR histórico e o VaR analítico com uso da volatilidade EWMA foram rejeitados pelo teste de Kupiec (1995) aplicado com o valor crítico de 5% e também a rejeição ou não para a carteira. Tabela 5 Resultado do teste de Kupiec com valor crítico de 5% aplicado sobre o VaR calculado pela metodologia histórica e pela metodologia analítica com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. PARÂMETROS Nível α 1% 2,5% 5% 10% K 50 100 250 50 100 250 50 100 250 50 100 250 METODOLOGIA HISTÓRICA Qtde de ativos em que houve rejeição do VaR 10 10 1 10 9 0 10 8 0 10 1 0 Houve rejeição da carteira? sim sim não sim sim não sim sim não sim sim não METODOLOGIA ANALÍTICA EWMA Qtde de ativos em que houve rejeição do VaR 9 9 10 1 0 1 0 0 0 5 7 4 Houve rejeição da carteira? sim sim sim sim não não não não não não sim não Obs.: Apesar de não influenciar o cálculo pela metodologia analítica, o tamanho da janela K define a data de início da primeira janela de calibragem na seleção dos lambdas ótimos, gerando diferenças para os parâmetros K=50, 100 ou 250. 60 O limite inferior e o superior de Kupiec, que dizem o intervalo dentro do qual deve se situar a quantidade de falhas do modelo de VaR para não ser rejeitado, variam conforme a quantidade de dias na amostra, o nível de significância α do VaR e o valor crítico dado pelo nível de significância do teste de hipóteses, no caso 5%. Isto quer dizer que para cada uma das combinações de parâmetros havia limites diferentes, pois variavam o nível α e indiretamente a quantidade de dias da amostra devido à variação no tamanho da janela K e em função do processo de otimização do lambda da metodologia analítica. O Quadro 5 apresenta os limites de Kupiec e o percentual de falhas do VaR calculado pela metodologia histórica. Quadro 5 Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia histórica para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. ATIVOS Kupiec PETR4 ELET6 BBDC4 CEMIG4 ITAU4 VALE5 PETR3 USIM5 CSNA3 ELET3 Carteira K=50 2,96% 2,88% 2,70% 2,48% 2,83% 3,10% 2,70% 2,48% 2,48% 2,70% 3,05% α = 1% K=100 2,13% 1,90% 1,90% 2,35% 2,17% 2,13% 1,81% 2,17% 2,17% 2,40% 2,08% K=250 1,31% 1,26% 1,02% 1,26% 1,12% 1,17% 1,12% 1,31% 1,46% 1,60% 1,36% K=50 4,51% 4,38% 4,42% 4,47% 4,20% 4,34% 4,34% 4,42% 4,20% 4,60% 4,25% α = 2,5% K=100 K=250 3,62% 2,52% 3,62% 2,86% 3,21% 2,62% 3,48% 2,62% 3,57% 2,57% 3,71% 2,57% 2,90% 2,67% 3,26% 2,52% 3,57% 3,16% 3,80% 2,96% 3,53% 2,67% K=50 7,08% 7,26% 6,77% 6,99% 6,90% 7,04% 6,77% 7,17% 7,12% 7,04% 6,73% α = 5% K=100 6,38% 6,38% 6,02% 5,70% 5,97% 5,84% 6,02% 6,47% 6,20% 6,20% 6,15% K=250 5,24% 4,95% 5,15% 4,61% 5,19% 4,76% 5,00% 5,15% 5,05% 5,05% 5,00% K=50 11,81% 11,77% 12,12% 11,64% 11,77% 11,77% 11,33% 11,37% 12,48% 11,55% 12,21% α = 10% K=100 10,90% 11,00% 11,45% 9,95% 10,86% 10,50% 10,32% 10,95% 11,00% 11,00% 11,40% K=250 9,17% 9,61% 10,05% 9,90% 9,95% 9,27% 9,27% 9,51% 10,83% 10,10% 9,90% Superior 1,44% 1,44% 1,46% 3,17% 3,18% 3,20% 5,92% 5,93% 5,97% 11,26% 11,27% 11,32% Inferior 0,62% 0,61% 0,60% 1,88% 1,88% 1,86% 4,13% 4,12% 4,09% 8,79% 8,77% 8,73% Analisando-se a Tabela 5 e o Quadro 5, constata-se que o VaR histórico calculado para a carteira só não foi rejeitado para as combinações em 61 que a janela K era de 250 dias, o mesmo ocorrendo com os 10 ativos, o que significa que no geral os resultados foram considerados ruins para as janelas menores, pois o número de falhas não ficou dentro do intervalo esperado. Este resultado para o VaR histórico está de acordo com o trabalho de Pritsker (2001) que externa uma preocupação com metodologias históricas com janelas de dados pequenas. Segundo o autor, há uma tendência para que o modelo subestime o risco, devido à pouca quantidade de extremos na distribuição dos dados. Com isso, uma maior extensão de dados passados é necessária para a eficiência das metodologias. Conforme apontado pelo próprio Kupiec (1995) e constatado por Barbedo (2002), o teste de proporção de falhas tem um baixo poder para amostras pequenas, ou seja, este teste tem uma alta probabilidade de aceitar a hipótese nula quando ela é falsa em amostras com número de observações limitado. Esta constatação sobre o teste de Kupiec poderia trazer certa confusão com relação aos resultados encontrados, de alta rejeição para janelas pequenas, porém, ela não tem relação alguma, uma vez que as janelas de cálculo é que são pequenas e não as amostras, que têm no mínimo 1.811 dados para K=250 dias e no máximo 2.261 dados para K=50 dias. O Quadro 6 apresenta os limites de Kupiec e o percentual de falhas do VaR calculado pela metodologia analítica com uso da volatilidade EWMA. 62 Quadro 6 Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia analítica com EWMA para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ATIVOS Kupiec PETR4 ELET6 BBDC4 CEMIG4 ITAU4 VALE5 PETR3 USIM5 CSNA3 ELET3 Carteira K=50 2,39% 1,44% 1,94% 1,94% 1,89% 1,69% 1,84% 2,09% 1,64% 1,64% 2,14% α = 1% K=100 2,04% 1,43% 1,68% 1,99% 1,63% 1,48% 1,63% 2,14% 1,53% 1,73% 2,04% K=250 2,49% 1,49% 1,99% 1,88% 1,99% 1,71% 1,93% 2,21% 1,60% 1,60% 2,10% K=50 3,08% 2,94% 2,54% 3,08% 3,08% 2,69% 2,84% 2,89% 2,84% 3,48% 3,28% α = 2,5% K=100 K=250 2,76% 2,98% 2,60% 2,93% 2,55% 2,54% 2,86% 2,98% 2,86% 2,98% 2,35% 2,60% 2,91% 2,98% 2,91% 2,87% 2,55% 2,60% 3,11% 3,43% 3,01% 3,09% K=50 4,68% 4,73% 4,48% 5,22% 5,07% 4,13% 4,73% 4,88% 4,63% 5,57% 5,57% α = 5% K=100 4,54% 4,74% 4,49% 5,05% 4,74% 4,39% 4,90% 4,44% 4,29% 5,61% 5,51% K=250 4,64% 4,64% 4,59% 4,97% 4,92% 4,03% 4,75% 4,86% 4,48% 5,30% 5,58% K=50 7,96% 8,96% 8,51% 10,00% 9,15% 8,21% 7,41% 9,15% 8,46% 10,05% 8,96% α = 10% K=100 7,76% 8,21% 7,70% 8,98% 8,47% 7,50% 7,14% 8,72% 8,32% 9,13% 8,06% K=250 7,79% 8,78% 8,78% 9,89% 9,01% 7,57% 7,46% 9,06% 8,40% 9,94% 8,95% Superior 1,46% 1,47% 1,49% 3,21% 3,22% 3,25% 5,98% 5,99% 6,03% 11,34% 11,35% 11,41% Inferior 0,60% 0,59% 0,58% 1,85% 1,84% 1,82% 4,08% 4,07% 4,03% 8,71% 8,70% 8,65% Já com relação ao VaR calculado pela metodologia analítica pode-se dizer que para os níveis α de 2,5%, 5% e 10%, os resultados são satisfatórios, pois na maioria das combinações, ou temos a não-rejeição do VaR-EWMA da carteira, ou a não-rejeição de pelo menos metade dos ativos. Os resultados foram melhores ainda para o nível α de 5%, não havendo rejeição nem para a carteira e nem para os ativos individualmente. Com base nestes resultados para a metodologia analítica, conclui-se que não fez muito sentido a diferenciação do modelo para os três tamanhos de janela K que definiram o início da primeira janela de calibragem, pois os resultados foram muito semelhantes. O único benefício da diferenciação foi igualar o processo de otimização do lambda nas metodologias analítica e híbrida. Em trabalhos 63 futuros, será melhor iniciar o processo de calibragem do lambda para a metodologia analítica com EWMA a partir de uma mesma data, por exemplo, 100 dias após o primeiro dado disponível, que é o tempo suficiente para que a fórmula recursiva do EWMA não seja influenciada pela semente inicial dada para o σ o igual a zero. Neste ponto deve-se colocar um questionamento natural: se a partir do VaR será calculada uma outra medida de risco, o ES, para alguns parâmetros utilizados nas metodologias depara-se que o VaR é rejeitado pelo teste de Kupiec, ficaria sem sentido ou imediatamente descartada a segunda medida de risco? Entende-se que a resposta é não, porque este resultado indica que o VaR calculado não está tendo um desempenho satisfatório em fazer aquilo a que se propõe: definir a perda máxima esperada com uma determinada probabilidade para o horizonte de 1 dia útil, o que em termos do backtesting significa acertar o percentual das violações do VaR. Já o ES pretende informar a perda esperada dado que o VaR seja violado, o que não tem o mesmo significado e, portanto, deve ser testado de forma independente do VaR. Não se pode concluir que nos casos em que houve a rejeição do VaR analítico com EWMA pelo teste de Kupiec, a causa tenha sido o processo de otimização por se preocupar com o Expected Shortfall, uma vez que há outros fatores envolvidos como a suposição de normalidade, por exemplo. Para fazer esta verificação, seria necessário otimizar o lambda objetivando a melhoria do VaR sob algum critério e comparar os resultados. Mas tal averiguação foge do escopo deste trabalho. 64 Dentre as propostas de backtesting estudadas, Härdle e Stahl (1999), Kerkhof e Melenberg (2003) e Berkowitz (2001), foi escolhida esta última para a realização do backtesting do Expected Shortfall. Contudo, faz-se a ressalva de que estas metodologias avaliam se a estimativa que se faz acerca da distribuição de probabilidade dos retornos confere com os retornos realizados, o que torna os testes aplicáveis somente à metodologia analítica com uso da volatilidade EWMA, pois é a única que faz suposição acerca da distribuição de retornos, considerando-os normais. Não foi identificada na literatura nenhuma metodologia que teste a medida Expected Shortfall independentemente de se fazer ou não estimativas acerca da distribuição dos retornos, a exemplo do que faz o teste de Kupiec (1995) com relação ao VaR. Como no cálculo do EShistórico não se faz previsão acerca da distribuição, utilizando-se os retornos efetivamente realizados, backtesting analisadas. tornam-se inadequadas as metodologias de Assim, os resultados do teste de razão de verossimilhança caudal de Berkowitz (2001) apresentados a seguir referem-se somente à metodologia analítica com EWMA, carecendo o ES histórico de uma metodologia estatística que o teste efetivamente, uma vez que o critério de Pitman utilizado adiante no trabalho só serve para efeito de comparação entre as medidas. Para a aplicação do teste de Berkowitz foi necessária a utilização do programa Matlab em vez do Excel, porque a função deste para o cálculo da inversa da função distributiva acumulativa (cdf) da Normal e da Qui-quadrada, apresentou problemas de over-flow para números menores que 1,0 × 10 −7 em 65 valor absoluto, que foi o que ocorreu para alguns valores após a transformação de Rosenblatt (1952) descrita na seção 2.6. A Tabela 6 apresenta as razões de verossimilhança caudal do teste de Berkowitz calculadas para os 10 ativos e para a carteira para os diferentes níveis de significância α do VaR, considerando toda a série de retornos do período de 05/07/1994 a 31/10/2003. Tabela 6 Razão de verossimilhança caudal do teste de Berkowitz (2001) calculada para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, para os níveis de significância α do VaR, considerando toda a série de retornos do período de 05/07/1994 a 31/10/2003, com valor crítico de 5,99. Ativo PETR4 ELET6 BBDC4 CEMIG4 ITAU4 VALE5 PETR3 USIM5 CSNA3 ELET3 CARTEIRA α = 1% α = 2,5% α = 5% α = 10% 2,83 11,11 15,21 7,65 17,70 13,35 14,25 11,16 7,02 13,43 8,38 6,12 6,53 7,43 14,52 9,86 8,08 16,86 10,03 11,16 9,32 13,66 11,31 11,77 10,06 6,51 21,39 18,67 7,24 11,81 4,29 2,67 5,14 7,48 5,83 5,67 3,67 8,36 3,09 2,58 3,88 4,00 6,62 6,30 Se o LR caudal encontrado para o ativo é menor do que o valor crítico do teste (valores não grifados), no caso 5,99, que é a inversa da cdf da Quiquadrada com 2 graus de liberdade para o nível de significância do teste de 5%, a hipótese nula não é rejeitada, ou seja, a estimativa sobre a distribuição dos retornos não é rejeitada. Assim, a probabilidade de cometer um erro do tipo I, rejeitar uma hipótese nula verdadeira, será de 5%. Constata-se pela análise da Tabela 6 que os resultados do teste de Berkowitz foram bons 66 somente para o nível de significância 1%, o que significa que a suposição para os retornos de normalidade com uma média zero e volatilidade calculada pela metodologia EWMA foi uma boa estimativa somente na cauda até o VaR de 1%. Para os níveis de significância de 2,5%, 5% e 10%, houve rejeições para a maioria dos ativos. Entendeu-se pelo estudo de Berkowitz (2001) que ao se acertar na estimativa, qualquer medida de risco, VaR ou ES, que fosse calculada com base na estimativa, teria um bom resultado. Logo, é possível que tenham sido encontrados resultados contraditórios entre o teste de Kupiec e de Berkowitz no que tange ao VaR calculado pela metodologia analítica, pois os resultados do teste de Kupiec foram satisfatórios para os níveis de significância do VaR de 2,5% e 5%, diferentemente do teste de Berkowitz, cujos resultados só foram satisfatórios para o nível de 1%. O Gráfico 1 apresenta o backtesting do VaR calculado pela metodologia analítica com uso da volatilidade EWMA e pela metodologia de simulação histórica para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/07/1996 a 31/10/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização. Foram plotados os valores somente a partir de 15/07/1996 (vide o Quadro 4), porque para o VaR EWMA só havia valores para teste a partir desta data, apesar de existirem dados do VaR histórico desde 10/07/1995. As perdas que aparecem 67 no gráfico são aquelas que superaram pelo menos um dos dois valores em risco do dia anterior. Gráfico 1 Backtesting do Valor em Risco calculado pela metodologia analítica com EWMA e pela metodologia de simulação histórica para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculado com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. 0,15 Valores Decimais 0,13 0,11 0,09 0,07 0,05 0,03 Perdas Superiores ao VaR VaR-Hist 15 /0 1/ 20 03 15 /0 7/ 20 03 15 /0 1/ 20 02 15 /0 7/ 20 02 15 /0 7/ 20 01 15 /0 1/ 20 01 15 /0 7/ 20 00 15 /0 1/ 20 00 15 /0 1/ 19 99 15 /0 7/ 19 99 15 /0 1/ 19 98 15 /0 7/ 19 98 15 /0 7/ 19 97 15 /0 1/ 19 97 15 /0 7/ 19 96 0,01 VaR-EWMA O Gráfico 2 apresenta o backtesting do Expected Shortfall calculado pela metodologia analítica e pela metodologia de simulação histórica para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/07/1996 a 31/10/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica variaram a cada 100 dias da 68 amostra, tendo sido obtidos por processo de otimização. Da mesma forma que no Gráfico 1, foram plotados os valores somente a partir de 15/07/1996 porque para o ES EWMA só havia valores para teste a partir desta data, apesar de existirem dados do ES histórico desde 10/07/1995. As perdas que aparecem no gráfico são aquelas que superaram pelo menos um dos dois valores em risco do dia anterior. Manteve-se esta comparação da perda com o VaR e não com o ES, apesar de se estar analisando neste momento o ES, porque é de interesse comparar o ES com a perda no dia em que esta supera o VaR e não quando esta supera o próprio ES. Gráfico 2 Backtesting do Expected Shortfall calculado pela metodologia analítica com EWMA e pela metodologia de simulação histórica para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica com EWMA variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. 0,19 0,17 0,13 0,11 0,09 0,07 0,05 0,03 Perdas Superiores ao VaR ES-Hist ES-EWMA 15 /0 1/ 20 03 15 /0 7/ 20 03 15 /0 1/ 20 02 15 /0 7/ 20 02 15 /0 1/ 20 01 15 /0 7/ 20 01 15 /0 7/ 20 00 15 /0 1/ 20 00 15 /0 1/ 19 99 15 /0 7/ 19 99 15 /0 1/ 19 98 15 /0 7/ 19 98 15 /0 1/ 19 97 15 /0 7/ 19 97 0,01 15 /0 7/ 19 96 Valores Decimais 0,15 69 4.2 Valor em Risco e Expected Shortfall pela Metodologia Híbrida – The Best of Both Worlds Da mesma forma como foi feito para o VaR e o ES calculados pela metodologia analítica com uso da volatilidade EWMA e pela metodologia da simulação histórica, o primeiro resultado que se extraiu dos valores de VaR e ES da metodologia híbrida foi o atendimento ou não à propriedade da subaditividade. Na Tabela 7 são apresentados os resultados da verificação da subaditividade para 12 combinações dos parâmetros nível α e tamanho da janela K para a metodologia híbrida. Nesta tabela são apresentados também os tempos de processamento do programa elaborado no Excel para o cálculo do VaR e do ES pelas três metodologias. Pela análise da Tabela 7, percebe-se que o VaR calculado pela metodologia híbrida também apresenta falhas na propriedade da subaditividade, com persistência até maior do que o VaR histórico, ao se comparar com a Tabela 4. O Expected Shortfall calculado pela metodologia híbrida também passa pelo critério da sub-aditividade. 70 Tabela 7 Falhas na sub-aditividade das medidas de risco VaR e Expected Shortfall calculadas pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, abrangendo o período de 04/jul/1994 a 31/out/2003 e tempo de processamento do programa de cálculo elaborado no Excel das metodologias histórica, analítica com EWMA e híbrida. Os lambdas utilizados na metodologia híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. Parâmetros α 1% 2,5% 5% 10% Qtde de falhas na sub-aditividade Janela VaR Híbrido ES Híbrido 50 100 250 50 100 250 50 100 250 50 100 250 8 32 130 49 25 34 37 15 7 11 22 16 0 0 0 0 0 0 0 0 0 0 0 0 Qtde de Observações 2.011 1.961 1.811 2.011 1.961 1.811 2.011 1.961 1.811 2.011 1.961 1.811 Tempo de processamento em horas VaR e ES Histórico, analítico e Híbrido 8,76 50,27 42,16 56,57 50,60 42,35 44,75 6,84 43,24 51,08 44,46 45,11 A prova de que o ES híbrido é sempre sub-aditivo é a mesma do ES histórico, apresentada em Acerbi e Tasche (2001) e reproduzida a seguir, com a adição de alguns comentários e um exemplo prático ao final. O Expected Shortfall é o simétrico da média aritmética dos α% piores resultados, ou seja, o simétrico da média dos retornos menores ou iguais ao simétrico do VaR. Considere um grande número de realizações {X i }{i =1,...,n} de uma variável aleatória X . Ordene a amostra em ordem crescente e faça a média das primeiras α% observações. Para fazer isso, seja definida a estatística de ordem X 1:n ≤ Λ ≤ X n:n com os valores ordenados de {X i }{i =1,...,n} . Aproxime o número de α% 71 elementos na amostra por w = [nα %] = max{m m ≤ nα , m ∈ N }, a parte inteira de [nα %] . O conjunto dos α % piores resultados é então representado pelos w menores retornos, {X 1:n ,Λ , X w:n } retirados de {X 1:n ,Λ , X n:n }. O estimador para o Expected Shortfall para os α % ou w piores retornos de {X i }{i =1,...,n} é dado simplesmente por: (α ) ES n (X ) = − ∑ w i =1 X i :n w = -(média dos α % menores retornos X i ). É fácil verificar que ES n(α ) é sub-aditivo para qualquer n. Considere duas variáveis X e Y e um número n de realizações simultâneas {(X i , Yi )}{i =1,...,n} . Pode-se provar a sub-aditividade para qualquer n numa rápida análise de: ∑ (X + Y ) ES ( ) (X + Y ) = − w α n i =1 i:n w ∑ ≤− w i =1 ( X i:n + Yi:n ) w = ES n(α ) (X ) + ES n(α ) (Y ) Ou seja, o ES histórico da carteira será sempre menor ou igual à soma dos ES histórico dos ativos individuais. Essa prova se origina da seguinte propriedade básica: o mínimo da soma é sempre maior ou igual à soma dos mínimos individuais; a qual multiplicada por –1, resulta em: o simétrico do mínimo da soma é sempre menor ou igual ao simétrico da soma dos mínimos individuais. Considere estas cinco realizações simultâneas de {(− 6,−15), (− 2,−13), (− 4,−11), (− 5,−18), (− 7,−10)}, {(X i , Yi )}{i =1,...,5} : todas negativas, o que é uma característica típica das realizações presentes na cauda esquerda de uma 72 distribuição de retornos. A carteira {(X i + Yi )}{i =1,...,5} será: {− 21,−15,−15,−23,−17}. É fácil perceber que o simétrico do mínimo da carteira {(X i + Yi )}, +23, é menor ou igual ao simétrico da soma dos mínimos individuais de X i e de Yi , +25; ou então, que o simétrico da soma dos dois menores da carteira {(X i + Yi )}, +44, é menor ou igual ao simétrico da soma dos dois menores individuais de X i e de Yi , +46, e assim, sucessivamente. Se a propriedade se verifica para a soma, será verificada também para a média aritmética. Os pesos atribuídos na metodologia híbrida podem ser vistos como repetições dos retornos a que se referem, como numa tabela de freqüências. Como ao último retorno que entra no cálculo do ES híbrido atribui-se não o seu próprio peso, mas somente o quanto falta para o peso acumulado chegar ao nível alfa, em todos os ativos individuais a posição dos últimos retornos utilizados no cálculo do ES será a mesma. Assim, será perfeitamente aplicável a propriedade dos mínimos. O tempo de processamento foi apresentado na Tabela 7 com o fim de ilustrar a pesada carga computacional que foi calcular estas medidas de risco, com todo o processo de otimização de lambdas envolvido, para os mais de 2000 dias da amostra, de cada um dos 11 ativos no aplicativo Excel com uso do Visual Basic. Na análise desses números, deve-se considerar que o programa com as diferentes combinações de parâmetros foi rodado simultaneamente em doze microcomputadores do Departamento de Estudos e Pesquisas do Banco Central do Brasil localizado no Rio de Janeiro, havendo, 73 portanto, diferenças no desempenho relacionadas aos diferentes equipamentos utilizados. Devido ao elevado tempo de processamento observado na Tabela 7, fica como sugestão para trabalhos futuros, a utilização do programa Matlab, que por ter a capacidade de trabalhar matricialmente, pode realizar o cálculo das medidas de risco para vários ativos de uma só vez, enquanto no Excel foi feito um ativo de cada vez, retardando em muito a geração dos resultados quando se fazia uma alteração e se rodava novamente o programa para todos os parâmetros. Assim como na metodologia analítica com EWMA, o processo de otimização do lambda descrito na seção 3.2.5 objetivou a obtenção dos melhores resultados para o Expected Shortfall híbrido. Isso tornou necessária a análise dos reflexos deste processo no VaR híbrido por intermédio do teste de Kupiec (1995). A seguir é apresentada a Tabela 8 que mostra para cada combinação de parâmetros, a quantidade de ativos para os quais o VaR híbrido foi rejeitado pelo teste de Kupiec (1995), aplicado com o nível de significância de 5% sobre toda a amostra existente no período de 04/07/1994 a 31/10/2003 e também a rejeição ou não para a carteira. 74 Tabela 8 Resultado do teste de Kupiec com o nível de significância de 5% aplicado sobre o VaR calculado pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. PARÂMETROS Nível α 1% 2,5% 5% 10% K 50 100 250 50 100 250 50 100 250 50 100 250 METODOLOGIA HÍBRIDA Qtde de ativos em que houve rejeição do VaR 10 10 10 10 10 7 10 8 6 10 3 1 LIMITES DE KUPIEC CARTEIRA Houve rejeição da carteira? sim sim sim sim sim sim sim não não sim não não Percentual de falhas da carteira 3,58% 2,24% 1,82% 4,73% 3,57% 3,48% 7,21% 5,87% 5,80% 12,34% 11,17% 10,66% Inferior Superior 0,60% 0,59% 0,58% 1,85% 1,84% 1,82% 4,08% 4,07% 4,03% 8,71% 8,70% 8,65% 1,46% 1,47% 1,49% 3,21% 3,22% 3,25% 5,98% 5,99% 6,03% 11,34% 11,35% 11,41% O Quadro 7 apresenta os limites de Kupiec e o percentual de falhas do VaR calculado pela metodologia híbrida para cada um dos ativos. Constata-se pela Tabela 8 e pelo Quadro 7, que quanto menor o nível de significância α e quanto menor o tamanho da janela K, maior a rejeição do VaR híbrido pelo teste de Kupiec. O VaR híbrido só começa a não ser rejeitado pelo teste a partir da janela de 250 dias para o nível de significância 2,5%, e a partir da janela de 100 dias para os níveis 5% e 10%. 75 Quadro 7 Limites de Kupiec e proporção de falhas do VaR calculado pela metodologia híbrida para as 10 ações mais líquidas da Bovespa e para a carteira igualmente ponderada, somente posição comprada, abrangendo o período de 04/jul/1994 a 31/out/2003. Os lambdas utilizados na metodologia híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. ATIVOS Kupiec PETR4 ELET6 BBDC4 CEMIG4 ITAU4 VALE5 PETR3 USIM5 CSNA3 ELET3 Carteira K=50 3,63% 3,53% 3,58% 3,68% 3,88% 3,63% 3,43% 3,58% 3,03% 3,83% 3,58% α = 1% K=100 2,35% 1,99% 2,09% 2,24% 2,55% 2,55% 2,09% 2,30% 2,19% 2,40% 2,24% K=250 1,82% 1,71% 1,60% 2,04% 1,88% 1,93% 1,71% 2,04% 1,99% 1,99% 1,82% K=50 5,12% 4,83% 4,88% 4,83% 5,02% 4,98% 4,88% 5,17% 4,73% 4,83% 4,73% α = 2,5% K=100 K=250 3,78% 3,37% 3,57% 3,04% 3,62% 3,09% 3,88% 3,26% 4,29% 3,81% 3,88% 3,59% 3,72% 3,31% 3,72% 3,54% 3,32% 3,20% 3,93% 3,70% 3,57% 3,48% K=50 7,36% 7,41% 7,41% 7,06% 7,41% 7,36% 7,96% 7,41% 7,51% 6,82% 7,21% α = 5% K=100 5,82% 6,22% 6,17% 5,82% 6,12% 6,12% 6,22% 6,33% 6,07% 6,02% 5,87% K=250 5,80% 6,46% 6,13% 5,91% 6,35% 6,02% 6,63% 6,35% 5,86% 6,30% 5,80% K=50 12,04% 11,99% 12,99% 12,44% 12,34% 11,99% 11,99% 12,39% 12,34% 11,64% 12,34% α = 10% K=100 11,17% 10,71% 11,53% 10,97% 11,58% 10,71% 10,87% 11,02% 11,68% 10,31% 11,17% K=250 10,50% 10,50% 11,60% 11,16% 11,05% 10,00% 11,05% 10,72% 10,77% 10,44% 10,66% Superior 1,46% 1,47% 1,49% 3,21% 3,22% 3,25% 5,98% 5,99% 6,03% 11,34% 11,35% 11,41% Inferior 0,60% 0,59% 0,58% 1,85% 1,84% 1,82% 4,08% 4,07% 4,03% 8,71% 8,70% 8,65% Na Tabela 8 e no Quadro 7 pôde-se observar a informação dada anteriormente de que os limites de Kupiec variam conforme a quantidade de dias na amostra, o nível de significância α do VaR e o valor crítico dado pelo nível de significância do teste de hipóteses, no caso 5%. A rejeição do VaR calculado pela metodologia híbrida também não inviabiliza o estudo do Expected Shortfall híbrido, uma vez que se trata de medidas com diferentes propósitos conforme explicitado anteriormente, havendo a necessidade de serem testadas independentemente uma da outra. Também não se pode concluir que nos casos em que houve a rejeição do VaR híbrido pelo teste de Kupiec, a causa tenha sido o processo de otimização por se preocupar exclusivamente com o Expected Shortfall. Para fazer esta 76 verificação, seria necessário otimizar o lambda objetivando a melhoria do VaR sob algum critério e comparar os resultados. Mas tal averiguação foge do escopo deste trabalho. Uma questão não resolvida com relação ao Expected Shortfall é o fato de não terem sido identificadas na literatura formas de se fazer o seu backtesting. Como já foi dito, o teste de Berkowitz só é aplicável em metodologias que fazem estimativas quanto à distribuição dos retornos, o que não é o caso da metodologia híbrida aqui proposta. Este problema ocorreu com o ES histórico, pois se constatou que ele era sub-aditivo, mas não se aplicou nenhum teste que pudesse atestar o seu bom funcionamento ou não. Fica como outra sugestão para trabalhos futuros, a formulação de um teste estatístico que sirva para testar o Expected Shortfall independentemente da distribuição dos retornos, a exemplo do que faz o teste de Kupiec, o que certamente contribuirá para a adoção desta medida de risco pelo Comitê de Basiléia. Como será visto na seção a seguir, o critério de Pitman só serve para fazer comparação entre medidas. O Gráfico 3 apresenta o backtesting do VaR e do Expected Shortfall calculados pela metodologia híbrida para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/07/1996 a 31/10/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização. Foram plotados os valores somente a partir de 15/07/1996 porque só havia valores 77 para teste a partir desta data. As perdas que aparecem no gráfico são aquelas que superaram o VaR híbrido do dia anterior. Gráfico 3 Backtesting do VaR e do Expected Shortfall calculados pela metodologia híbrida para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculados com os parâmetros α = 5% e K=250. Os lambdas utilizados variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. 0,19 0,17 Valores Decimais 0,15 0,13 0,11 0,09 0,07 0,05 0,03 Perdas Superiores ao VaR VaR-Híbrido 15 /0 1/ 20 03 15 /0 7/ 20 03 15 /0 1/ 20 02 15 /0 7/ 20 02 15 /0 1/ 20 01 15 /0 7/ 20 01 15 /0 7/ 20 00 15 /0 1/ 20 00 15 /0 1/ 19 99 15 /0 7/ 19 99 15 /0 1/ 19 98 15 /0 7/ 19 98 15 /0 1/ 19 97 15 /0 7/ 19 97 15 /0 7/ 19 96 0,01 ES-Híbrido 4.3 Resultados do Critério de Pitman Conforme explicado na seção 2.6.1, o critério de Pitman é uma medida de afastamento e foi utilizado de forma a verificar qual dos Expected Shortfalls calculados pelas três metodologias diferentes mais se aproximou da perda do dia seguinte quanto esta foi superior ao VaR. 78 A Tabela 9 apresenta especificamente para a carteira, o resultado da aplicação do critério de Pitman para as 12 combinações de parâmetros nível α e tamanho de janela K. Tabela 9 Resultado da aplicação do critério de Pitman para a carteira igualmente ponderada, comparando dois a dois o ES EWMA, ES Histórico e o ES Híbrido nos dias em que houve falha comum do VaR nas três metodologias, para as 12 combinações de parâmetros nível α e tamanho da janela K, abrangendo o período de 04/jul/1994 a 31/out/2003. Seleção da melhor metodologia do ES pelo critério de Pitman Parâmetros Nível α Janela K 50 1% 100 250 50 2,5% 100 250 50 5% 100 250 50 10% 100 250 ES EWMA φ ES HÍBRIDO φ ES H IST ES EWMA φ ES HIST φ ES HÍBRIDO ES HÍBRIDO φ ES H IST φ ES EWMA ES EWMA φ ES HÍBRIDO φ ES H IST ES EWMA φ ES HÍBRIDO φ ES H IST ES HIST φ ES EWMA φ ES HÍBRIDO ES EWMA φ ES HÍBRIDO φ ES H IST ES EWMA φ ES HÍBRIDO φ ES H IST ES EWMA φ ES HÍBRIDO φ ES H IST ES EWMA φ ES HIST φ ES HÍBRIDO ES EWMA φ ES HÍBRIDO φ ES H IST ES EWMA φ ES HÍBRIDO φ ES H IST Verifica-se para quase todas as situações, com exceção de duas combinações de parâmetros, que o Expected Shortfall calculado pela metodologia analítica com uso da volatilidade EWMA mostrou-se probabilisticamente melhor do que as outras duas metodologias, ou seja, comparando-se dois a dois, em mais de 50% dos casos de falha comum do VaR nas três metodologias, esta medida aproximou-se mais da perda efetivamente realizada. O ES híbrido também foi probabilisticamente melhor do que o ES histórico. 79 A Tabela 10 apresenta os resultados da aplicação do critério de Pitman para todos os ativos, inclusive para a carteira igualmente ponderada, totalizando 11 ativos. Tabela 10 Resultado da aplicação do critério de Pitman para as 10 ações mais líquidas da Bovespa em novembro de 2003, comparando dois a dois o ES EWMA, ES Histórico e o ES Híbrido nos dias em que houve falha comum do VaR nas três metodologias, para as 12 combinações de parâmetros nível α e tamanho da janela K, abrangendo o período de 04/jul/1994 a 31/out/2003. Quantidade de ativos em que: Parâmetros Nível α Janela K ES EWMA φ ES HIST 50 100 250 50 2,5% 100 250 50 5% 100 250 50 10% 100 250 Total / complemento 1% 10 11 7 11 10 7 10 10 9 11 10 10 116/16 ES HIST φ ES HIBR 0 11 6 1 3 5 4 2 3 5 5 2 47/85 ES EWMA φ ES HIBR 11 10 5 11 10 10 10 10 8 10 8 8 111/21 Os números da Tabela 10 indicam a quantidade de ativos em que foi afirmativa a resposta às três perguntas: ES EWMA é probabilisticamente melhor do que ES HIST ? ES HIST φ ES HIBR ? ES EWMA φ ES HIBR ? Dessa forma pode-se entender a totalização como um total de pontos a favor da sentença e o complemento traduz os pontos favoráveis à sentença contrária. Percebe-se claramente a superioridade do ES EWMA em comparação com o ES histórico e o ES híbrido, aproximando-se mais vezes da perda quando esta superou o VaR. A segunda melhor medida foi o ES híbrido, superando o ES histórico, conferindo os resultados para os ativos com o que já 80 havia sido observado para a carteira. O Gráfico 4 apresenta o backtesting do Expected Shortfall calculado pelas três metodologias para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/07/1996 a 31/10/2003, calculados com os parâmetros α = 5% e K=250. Foram plotados os valores somente a partir de 15/07/1996, porque para o ES EWMA e híbrido só havia valores para teste a partir desta data, apesar de existirem dados do ES histórico desde 10/07/1995. As perdas que aparecem no gráfico são aquelas que superaram ao mesmo tempo os valores em risco do dia anterior calculados pelas três metodologias. Gráfico 4 Backtesting do Expected Shortfall calculado pelas três metodologias para a posição comprada na carteira igualmente ponderada nas 10 ações mais líquidas da Bovespa em novembro de 2003, abrangendo o período de 15/jul/1996 a 31/out/2003, calculado com os parâmetros α = 5% e K=250. Os lambdas utilizados na metodologia analítica com EWMA e híbrida variaram a cada 100 dias da amostra, tendo sido obtidos por processo de otimização que encontrava para a carteira o ES mais próximo da perda efetiva quando o VaR falhava, tendo o parâmetro K definido o início da primeira janela de calibragem de 250 dias. 0,19 0,17 0,13 0,11 0,09 0,07 0,05 0,03 Perdas Superiores ao VaR ES-Histórico ES-EWMA 15 /0 7/ 20 03 15 /0 1/ 20 03 15 /0 7/ 20 02 15 /0 1/ 20 02 15 /0 7/ 20 01 15 /0 1/ 20 01 15 /0 7/ 20 00 15 /0 1/ 20 00 15 /0 7/ 19 99 15 /0 1/ 19 99 15 /0 7/ 19 98 15 /0 1/ 19 98 15 /0 7/ 19 97 15 /0 1/ 19 97 0,01 15 /0 7/ 19 96 Valores Decimais 0,15 ES-Híbrido 81 5 CONCLUSÕES A alteração na metodologia de Boudoukh et al. (1998) proposta neste trabalho, fazendo com que o VaR híbrido fosse calculado com a utilização dos pesos acumulados dos retornos anteriores, conforme descrito na seção 3.2.3, representou um aprimoramento tanto para o VaR como para o ES híbrido, pois tornou obrigatória a utilização de pelo menos dois retornos em seu cálculo, enquanto na forma original acabava-se utilizando somente um único retorno quando o peso do menor retorno por si só já era superior ao nível α. Além disso, o VaR híbrido calculado conforme a alteração proposta diminuiu o número de falhas na sub-aditividade em comparação com a metodologia de Boudoukh et al. (1998). Quanto às falhas na sub-aditividade do VaR histórico, não foi possível estabelecer uma regra dizendo se a sua ocorrência era mais fácil de ser observada quando se trabalhava com janelas maiores ou menores, com alfas menores ou maiores. Conclui-se que a ocorrência de falhas está relacionada à disposição dos retornos dos ativos nas séries de dados, ou seja, depende principalmente da própria distribuição dos retornos. Com relação à metodologia analítica com utilização da volatilidade EWMA, conclui-se que não fez muito sentido a diferenciação de parâmetros do modelo para os três tamanhos de janela K que não entram diretamente no cálculo da volatilidade EWMA, mas definiram diferentes inícios da primeira janela de calibragem e acabaram por gerar lambdas ótimos diferentes para os três K. Os resultados foram bastante semelhantes para os diferentes K e a 82 diferenciação só trouxe a vantagem computacional de igualar o processo de otimização na metodologia analítica e na híbrida. Em trabalhos futuros será melhor iniciar o processo de calibragem do lambda a partir de uma mesma data, por exemplo, 100 dias após o primeiro dado disponível, que é o tempo suficiente para que a fórmula recursiva do EWMA não seja influenciada pela semente inicial dada para o σ o . A inédita proposta de se calcular o Expected Shortfall por uma metodologia híbrida também satisfaz à propriedade da sub-aditividade e, portanto, também é uma medida coerente de risco pelo menos no que se refere à sub-aditividade. A propriedade básica de que a soma dos mínimos é sempre menor ou igual ao mínimo da soma explica a sub-aditividade do ES histórico, aplicando-se também ao ES híbrido, pois os pesos aplicados aos retornos podem ser vistos como freqüências dos mesmos e o ES híbrido é uma média ponderada dos retornos em ordem crescente até uma mesma posição em todos os ativos. O teste de Berkowitz assim como outros testes encontrados na literatura, os quais se propõem a ser um bom backtesting para o Expected Shortfall, não serve para testar as metodologias da simulação histórica e híbrida. Estes testes estão, na verdade, avaliando se a previsão que se faz acerca da distribuição de retornos é boa ou não. Ora, se a estimativa que se faz para a distribuição dos retornos tem boa precisão, a medida de risco que se calcula por um método analítico em que faz suposições acerca da distribuição de retornos, seja VaR ou ES, terá um bom desempenho naquilo a que ela se 83 propõe: o VaR a acertar a perda máxima com um determinado nível de confiança e o ES a ter uma boa previsão da perda quando o VaR é ultrapassado. Agora, quando se utiliza a própria distribuição empírica para calcular a medida de risco, que é o que se faz bastante nesta pesquisa com a metodologia de simulação histórica e com a híbrida, estes testes se tornam difíceis de se aplicar, ou até mesmo inadequados. Sugere-se para trabalhos futuros a elaboração de uma inédita metodologia de backtesting que avalie o Expected Shortfall independentemente da estimativa da distribuição de retornos, o que contribuirá para a adoção do ES pelo Comitê de Basiléia. Os resultados do teste de Kupiec (1995) e do teste de Berkowitz (2001) foram controversos. O teste de Kupiec reprovou os Valores em Risco calculados pela metodologia analítica com EWMA para os níveis de significância de 1% e em parte para o nível de 10% conforme a Tabela 5. O teste de Berkowitz relativo à cauda da distribuição, que dá um parecer acerca da estimativa da distribuição de retornos e se estende a todas as medidas calculadas com base nesta estimativa, aprovou a estimativa somente para o nível de significância de 1% conforme a Tabela 6. De acordo com o critério de Pitman, o Expected Shortfall calculado pela metodologia analítica com EWMA foi a melhor medida na comparação entre as três metodologias, seguida da metodologia híbrida e da metodologia da simulação histórica. No geral, o Expected Shortfall da metodologia analítica com EWMA foi o que mais se aproximou da perda do dia seguinte quando esta foi superior ao VaR calculado pelas três metodologias. 84 REFERÊNCIAS ABRAMOVITZ, L. Alguns resultados sobre a estimação de medidas de risco usando modelagem GARCH e a Teoria dos Valores Extremos. 2001. 76 p. Dissertação (Mestrado em Estatística) – Instituto de Matemática, Universidade Federal do Rio de Janeiro, Rio de Janeiro. ACERBI, C. e TASCHE, P. On the coherence of expected shortfall. Journal of Banking & Finance, v. 26, p. 1487-1503, 2002. ________. Expected Shortfall: a natural coherent alternative to Value at Risk. Disponível em: http://www.bis.org/bcbs/ca/acertasc.pdf. Acesso em 03 mar. 2004. ARTZNER, P.; DELBAEN, F.; EBER, J. e HEATH, D. Thinking coherently. Risk, v. 10, nº 11, November 1997. ________. Coherent measures of risk. Mathematical Finance, v. 9, nº 3, p. 203-228, July 1999. BARBEDO, C. H. da S. Avaliação do valor em risco de um portfólio de opções segundo as metodologias delta-gama e simulação histórica filtrada. 2002. 114 p. Dissertação (Mestrado em Administração) – Instituto Coppead de Administração, Universidade Federal do Rio de Janeiro, Rio de Janeiro. BERKOWITZ, J. Testing density forecasts, with applications to risk management. Journal of Business & Economic Statistics, v. 19, nº 4, October 2001. BOUDOUKH, J.; RICHARDSON, M.; WHITELAW, R. F. The best of both worlds: a hybrid approach to calculating Value at Risk. Risk, v. 11, nº 5, p. 6467, 1998. ________. O melhor dos dois mundos: uma abordagem híbrida para calcular value-at-risk. Resenha BM&F, nº 122, p. 21-37. 85 CRNKOVIC, C. e DRACHMAN, J. Model Risk Quality Control. Risk, v. 9, n.9, p. 139-143, September 1996. DANÍELSSON, J. The emperor has no clothes: limits to risk modeling. Journal of Banking & Finance, v. 26, p. 1273-1296, 2002. DIEBOLD, F.; GUNTHER, T. A. e TAY, A. S. Evaluating Density Forecasts. University of Pennsylvania. August 1997. Disponível em: http://www.ssc.upenn.edu/~fdiebold/papers/paper16/paper16.pdf . Acesso em 5 mar. 2004. DUFFIE, D. e PAN, J. An overview of Value at Risk. Journal of Derivatives, 4, Spring, p. 7-49, 1997. FAMA, E. F. The behaviour of stock-market process. The Journal of Business, 38, p. 34-105, 1965. FIERLI, F. Applying and testing VaR estimation methods for non-linear portfolios, University of Southern Switzerland, Working Paper, 2002. HÄRDLE, W. e STAHL, G. Backtesting beyond VaR. Series Sonderforschungsbereich 373, Humboldt Universitaet Berlin, nº 1999-105, December 1999. Disponível em: http://ideas.repec.org/p/wop/humbsf/1999105.html. Acesso em: 5 mar. 2004. HAUGEN, R. A. e BAKER, N. Commonality in the Determinants of Expected Stock Returns. Journal of Financial Economics. July 1996. HULL, J. Options, futures and other derivatives. Upper Saddle River: Prentice Hall, fourth edition, 1999. JOHNSON, N. L. On the comparison of estimators. Biometrika, 37, 281-287, 1950. JORION, P. Value at Risk: uma nova fonte de referência para o controle do risco de mercado. São Paulo: Bolsa de Mercadorias & Futuros, 1997. 305 p. 86 KENDALL, M. The analysis of economic time-series. Journal of the Royal Statistical Society, 96, 11-25, 1953. KERFHOF, J. e MELENBERG, B. Backtesting for risk-based regulatory capital. Discussion Paper Series, Tilburg University, Center for Economic Research, n. 110, May 2003. KUPIEC, P. H. Techniques for verifying the accuracy of risk measurement models. The Journal of Derivatives, v. 2, p. 73-84, December 1995. LONGIN, F. M. Beyond the VaR. The Journal of Derivatives, v. 8, nº 4, p. 3648, Summer 2001. LOPES, P. A. Probabilidades e Estatística. Rio de Janeiro: Reichmann &Affonso Editores. 1999. 192 p. MANDELBROT, B. The Variation of Certain Speculative Prices. The Journal of Business, 36, p. 394-419, 1963. MENDES, B. V. M. e MERKLE, M. Some remarks regarding Pitman closeness. Relatório Técnico, nº 142, IM-UFRJ, 2001. MEYERS, G. Coherent measures of risk, an exposition for the Lay Actuary. Insurance Services Office, Inc. March 2000. Disponível em: http://www.casact.org/pubs/forum/00sforum/meyers/Coherent%20Measures%2 0of%20Risk.pdf . Acesso em 5 mar. 2004. Merrian-Webster OnLine Dictionary. Disponível em: http://www.merriamwebster.com. Acesso em: 5 mar. 2004. PAPAGEORGIOU, A. e PASKOV, S. Deterministic simulation for risk management. The Journal of Portfolio Management, May, p. 122-127, 1999. PITMAN, E. The “closest” estimates of statistical parameters. Proc. Cambridge Phil. Soc., 33, 212-222, 1937. 87 PRITSKER, M. The hidden dangers of historical simulation. Board of Governors of the Federal Reserve System, June 2001. Disponível em http://www.federalreserve.gov/pubs/feds/2001/200127/200127pap.pdf . Acesso em 5 mar. 2004. RAMOS, P. B.; SANTOS, J. F. e LEMGRUBER, E. F. Estimativas do Valor em Risco e das perdas esperadas além do VaR. In: WETZEL, U. e TOMEI, P. Estudos em Negócios II. Rio de Janeiro: Mauad Editora, 2002. p. 49-74. RAO, C. R. Some comments on the minimum mean square error as a criterion of estimation. Statistics and Related Topics, North-Holland, 1981. ROSENBLATT, M. Remarks on a multivariate transformation. Annals of Mathematical Statistics, 23, 1952. YAMAI, Y. e YOSHIBA, T. On the validity of Value-at-Risk: comparative analyses with Expected Shortfall. Monetary and Economic Studies, Bank of Japan, January 2002. Disponível em: http://www.imes.boj.or.jp/english/ publication/mes/2002/me20-1-3.pdf. Acesso em 5 mar. 2004.