FUNDAÇÃO GETÚLIO VARGAS ESCOLA DE ECONOMIA DE SÃO PAULO MARCELO FERREIRA SANTOS MODELOS DE RISCO COM FAT TAIL ANÁLISE EMPÍRICA DE VALUE AT RISK E EXPECTED SHORTFALL PARA ATIVOS FINANCEIROS BRASILEIROS SÃO PAULO 2008 MARCELO FERREIRA SANTOS MODELOS DE RISCO COM FAT TAIL ANÁLISE EMPÍRICA DE VALUE AT RISK E EXPECTED SHORTFALL PARA ATIVOS FINANCEIROS BRASILEIROS Dissertação apresentada à Escola de Economia de São Paulo da Fundação Getúlio Vargas como requisito para obtenção do título de Mestre em Finanças e Economia Empresarial Campo de conhecimento: Finanças de Mercado Financeiro Orientador: Prof. Dr. José Evaristo dos Santos SÃO PAULO 2008 Santos, Marcelo Ferreira. Modelo de risco com Fat Tail: análise empírica de Value at Risk e Expected Shortfall para ativos financeiros brasileiros / Marcelo Ferreira Santos. – 2008. 59 f. Orientador: José Evaristo dos Santos Dissertação (mestrado) – Escola de Economia de São Paulo 1. Value at Risk. 2. Expected Shortfall. 3. Risk Management. 4. Distribuição Estável. 5. Mercado Financeiro – I. Santos, José Evaristo. II. Dissertação (mestrado) – Escola de Economia de São Paulo. III. Título. CDU 330.131.7 MARCELO FERREIRA SANTOS MODELOS DE RISCO COM FAT TAIL ANÁLISE EMPÍRICA DE VALUE AT RISK E EXPECTED SHORTFALL PARA ATIVOS FINANCEIROS BRASILEIROS Dissertação apresentada à Escola de Economia de São Paulo da Fundação Getúlio Vargas, como requisito para obtenção do título de Mestre em Finanças e Economia Empresarial Campo de conhecimento: Finanças de Mercado Financeiro Data de aprovação: __ / __ / __ Banca examinadora: Prof. Dr. José (Orientador) FGV-EAESP Evaristo dos Prof. Dr. Afonso de Campos Pinto FGV-EAESP Prof. Dr. Marcos Eugênio da Silva USP SÃO PAULO 2008 Santos Dedico aos meus pais, Maria Helena e Fernando, por terem me ensinado o verdadeiro significado da palavra Amor. Desde sempre tive e tenho exemplos de como a entrega à Vida nos torna menos distantes da Perfeição. AGRADECIMENTOS Primeiramente a Deus, origem e fim de tudo que somos. Nunca nos esquecendo de que se os homens criam oportunidades, Deus cria os homens. Ao mestre e guru Evaristo pelo carinho e atenção desde os tempos da graduação e agora, por ter nos exemplificado, a cada conversa, o verdadeiro sentido de que ao dividir seus conhecimentos o homem torna-se mais nobre. Ao senhor Nelson Sussumu Niskioka, ex-chefe e agora precioso amigo, que não somente incentivou esse curso, mas tem auxiliado no desenvolvimento profissional e pessoal do autor. Ao senhor Fábio de Aguiar Faria, por confiar no trabalho desse profissional, mesmo em momentos apertados do curso e, sobretudo, nos contratempos de vida. Ao senhor Afonso de Campos Pinto, por seu grande profissionalismo e sua valiosa amizade. Ao senhor Marcos Eugênio da Silva, por suas fundamentais colocações que ajudaram a enriquecer o presente trabalho. Ao senhor Márcio Larini Polleti, professor do IBMEC-SP, que nos deu provas de grande desprendimento e atenção nas discussões sobre a modelagem econométrica desse trabalho. Aos senhores Milena Gordon, Sueli Bresciani, Rodrigo Grigolin, Éber Luciano da Silva, Nicolau Assali, Marcelo Cano, Leonardo Curi, Octávio de Barros, Gilberto César e Arthur Lima, os quais não foram somente colegas de curso, mas amigos para mais de uma vida. À querida Mirian Kanashiro, a qual foi peça fundamental para que pudesse realizar esse curso e me compreender melhor como profissional. Aos professores e seus respectivos monitores pelo desprendimento em compartilhar experiências. Aos funcionários da escola (inspetores, faxineiros, seguranças, porteiros, bibliotecários e quaisquer que tenha esquecido), sem os quais nada poderia transcorrer normalmente sem a presença de tais. Aos meus amigos, sejam eles de Ribeirão Preto, São Paulo ou desse “mundo afora”, os quais souberam me ouvir, uma vez mais, quando a paciência parecia se esgotar. Aos demais colegas do curso pela oportunidade da convivência. RESUMO O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurouse cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais. Palavras-chave: value at risk, expected shortfall, distribuição gausiana, distribuição estável. ABSTRACT The goal of this work was to show alternatives models to the traditional way of measuring market risk for Brazilian financial assets. In order to cover the maximum possible risk factors in Brazil, we have used the main proxies for Fixed Income products. In times of volatility, market risk management is highly criticized for working in models based on normal distribution. Here it is the best contribution of the VaR and also the greatest criticism of it. In addition, our financial market is characterized by extreme illiquidity in the secondary market in spite of certain governmental bonds. The first stage was to research academic production about the theme in Brazil or worldwide. To our surprise, little has been said in country about stable distribution applied to financial market, whether in risk management, options pricing, or portfolio management. After this step, we selected a set of variables to be used aiming to cover a large part of Brazilian financial assets. Thus, we were able to identify or not a presence of normality condition so that we could model risk measure, VaR and ES, for chosen assets. The theoretical and practical conditions were created: market demand (heavy criticisms of Gausian approach), ample selection of assets (in spite of eventual doubts about liquidity), academic experience, and international knowledge (by means of detailed and meticulous study of the production about the theme in the main circles). In this way, four principal approaches have been analyzed in order to calculate risk measures whether they be coherent or not. It is important to mention that this work might be useful for large initiatives, for example, those which incorporate several assets within linear risk portfolios or, even, for non-linear portfolios. Key-words: value at risk, expected shortfall, gausian distribution, stable distribution. LISTA DE TABELAS TABELA 1 – INDICADORES DA FAMÍLIA IMA E PERÍODO DE ESTUDO ..................24 TABELA 2 – VALORES ADMISSÍVEIS DE TOLERÂNCIA PARA VAR ........................49 TABELA 3 – LIMITES DE TOLERÂNCIA PARA VAR...................................................49 TABELA 4 – EXCEÇÕES NOS MODELOS ESTUDADOS DE VAR PARA NÍVEL DE SIGNIFICÂNCIA DE 95% .........................................................................................50 TABELA 5 – EXCEÇÕES NOS MODELOS ESTUDADOS DE VAR PARA NÍVEL DE SIGNIFICÂNCIA DE 99% .........................................................................................50 TABELA 6 – P-VALORES NOS MODELOS ESTUDADOS ..........................................52 LISTA DE GRÁFICOS GRÁFICO 1 – EVOLUÇÃO DOS RETORNOS DIÁRIOS DO IBOVESPA..................28 GRÁFICO 2 – HISTOGRAMA DOS RETORNOS DIÁRIOS DO IBOVESPA..............29 GRÁFICO 3 – EVOLUÇÃO DOS RETORNOS DIÁRIOS DO IMA-S ..........................30 GRÁFICO 4 – HISTOGRAMA DOS RETORNOS DIÁRIOS DO IMA-S......................30 GRÁFICO 5 – EVOLUÇÃO DOS RETORNOS DIÁRIOS DO IMA-B ..........................31 GRÁFICO 6 – HISTOGRAMA DOS RETORNOS DIÁRIOS DO IMA-B......................31 GRÁFICO 7 – EVOLUÇÃO DOS RETORNOS DIÁRIOS DO IMA-C .........................32 GRÁFICO 8 – HISTOGRAMA DOS RETORNOS DIÁRIOS DO IMA-C......................32 GRÁFICO 9 – EVOLUÇÃO DOS RETORNOS DIÁRIOS DO IRF-M .........................33 GRÁFICO 10 – HISTOGRAMA DOS RETORNOS DIÁRIOS DO IRF-M....................33 GRÁFICO 11 – EVOLUÇÃO DOS RETORNOS DIÁRIOS DA PTAX-V.....................34 GRÁFICO 12 – HISTOGRAMA DOS RETORNOS DIÁRIOS DA PTAX-V .................34 GRÁFICO 13 – DISTRIBUIÇÃO TEÓRICA NORMAL DO IBOVESPA ......................35 GRÁFICO 14 – DISTRIBUIÇÃO TEÓRICA NORMAL DA PTAX-V ...........................35 GRÁFICO 15 – DISTRIBUIÇÃO TEÓRICA NORMAL DO IRF-M...............................36 GRÁFICO 16 – DISTRIBUIÇÃO TEÓRICA NORMAL DO IMA-B .............................36 GRÁFICO 17 – DISTRIBUIÇÃO TEÓRICA NORMAL DO IMA-C .............................36 GRÁFICO 18 – DISTRIBUIÇÃO TEÓRICA NORMAL DO IMA-S .............................36 GRÁFICO 19 – DISTRIBUIÇÃO DE RETORNOS NEGATIVOS DO IBOVESPA .....45 GRÁFICO 20 – DISTRIBUIÇÃO DE RETORNOS NEGATIVOS DA PTAX-V...........45 GRÁFICO 21 – DISTRIBUIÇÃO DE RETORNOS NEGATIVOS DO IRF-M .............45 GRÁFICO 22 – DISTRIBUIÇÃO DE RETORNOS NEGATIVOS DO IMA-B .............45 GRÁFICO 23 – DISTRIBUIÇÃO DE RETORNOS NEGATIVOS DO IMA-C .............45 GRÁFICO 24 – DISTRIBUIÇÃO DE RETORNOS NEGATIVOS DO IMA-S .............45 SUMÁRIO 1. INTRODUÇÃO ......................................................................................................13 2. REVISÃO BIBLIOGRÁFICA ..................................................................................17 3. ASPECTOS CONCEITUAIS..................................................................................21 3.1 SÉRIES ...............................................................................................................21 3.1.1 PTAX-V ..............................................................................................................22 3.1.2 IBOVESPA .......................................................................................................22 3.1.3 IMA - ÍNDICES DE MERCADO ANDIMA ..........................................................22 3.2 RETORNOS LOGARÍTMICOS ............................................................................25 3.3 HOLDING PERIOD..............................................................................................25 3.4 JANELA MÓVEL..................................................................................................25 3.5 NÍVEL DE SIGNIFICÂNCIA .................................................................................25 3.6 THRESHOLD U DO POT.....................................................................................26 3.7 BACKTESTING ...................................................................................................26 4. ANÁLISE ESTATÍSTICA TRADICIONAL...............................................................28 4.1 IBOVESPA ..........................................................................................................28 4.2 IMA-S...................................................................................................................29 4.3 IMA-B...................................................................................................................30 4.4 IMA-C ..................................................................................................................31 4.5 IRF-M...................................................................................................................32 4.6 PTAX-V................................................................................................................33 4.7 IDENTIFICAÇÃO DE HEAVY FAT TAIL ..............................................................34 5. DEFINIÇÕES E MODELOS...................................................................................37 5.1 DEFINIÇÕES.......................................................................................................36 5.1.1 VALUE AT RISK ...............................................................................................37 12 5.1.2 EXPECTED SHORTFALL ................................................................................38 5.2 MODELOS...........................................................................................................39 5.2.1 ABORDAGEM EMPÍRICA OU HISTÓRICA......................................................39 5.2.2 ABORDAGEM GAUSIANA ...............................................................................40 5.2.3 ABORDAGEM DE VALORES EXTREMOS ......................................................40 5.2.4 ABORDAGEM PARETIANA ESTÁVEL ............................................................42 5.3 JUSTIFICATIVA ..................................................................................................44 6. RESULTADOS EMPÍRICOS .................................................................................47 6.1 TESTE DE HIPÓTESE ........................................................................................47 6.2 ANÁLISE DOS RESULTADOS ............................................................................49 6.2.1 ANÁLISE DO VAR ............................................................................................49 6.2.1.1 IBOVESPA ....................................................................................................50 6.2.1.2 IMA-S.............................................................................................................50 6.2.1.3 IMA-B.............................................................................................................51 6.2.1.4 IMA-C ............................................................................................................51 6.2.1.5 IRF-M.............................................................................................................51 6.2.1.6 PTAX-V..........................................................................................................51 6.2.2 ANÁLISE DO ES...............................................................................................52 7.CONCLUSÕES ......................................................................................................54 REFERÊNCIAS BIBLIOGRÁFICAS ..........................................................................56 13 “…...the biggest problem we now have with the whole evolution of the risk is the fat-tailed problem, which is really creating very large conceptual difficulties. Because as we all know, the assumption of normality enables us to drop off the huge amount of complexity in our equations. Because once you start putting in non-normality assumptions, which is unfortunately what characterizes the real world, then these issues become extremely difficult." Alan Greenspan 1) Introdução Uma das principais atribuições das instituições financeiras é avaliar sua exposição ao risco - a tarefa é chamada de Risk Management, isto é, controlar as diversas modalidades de risco em que elas incorrem: risco de crédito, risco operacional, risco de mercado, risco de jurídico e risco de modelagem, e seus interrelacionamentos. Este trabalho concentra-se em risco de mercado - o risco decorrente da mudança no valor de posições em função de mudanças nos preços e taxas dos ativos e passivos dos quais as posições dependem (preços de ações, commodities e bônus, taxas de câmbio, taxas de juros e indicadores inflacionários, por exemplo). Embora Steinherr (1998) tenha descrito o Risk Management como “one of the most important innovations of the 20th century” e que as técnicas a ele associadas se tenham propagado a partir do início da década de 90 do século passado, suas origens são anteriores a tal. Markowitz (1952) produziu o trabalho original que resultou na teoria do portfólio, estabelecendo o binômio risco/retorno e rompendo o viés até então existente de dedicar atenção somente ao retorno. O trabalho original de Markowitz possibilitou a Sharpe (1964) e Lintner (1965) desenvolverem o CAPM – Capital Asset Pricing Model, modelo de equilíbrio que 14 relaciona o retorno esperado de um ativo ao retorno esperado de um ativo livre de risco, ao retorno esperado do mercado e à covariância entre os retornos do ativo e do mercado. Nesse modelo os retornos do mercado são a única fonte de aleatoriedade. Buscando assegurar maior robustez econométrica, Ross (1976) desenvolveu sua APT – Arbitrage Pricing theory, a qual contempla mais fontes de incerteza; estava criado assim um modelo multifatorial de apreçamento de ativos. Os instrumentos de hedge e alavancagem já circulavam em mesas de operações de derivativos – sem muito controle e sem que a real dimensão de eventuais impactos negativos fosse bem avaliada. Teorias acadêmicas bem fundamentadas e alertas da iniciativa privada apontavam para potenciais problemas, dando margem à publicação, em julho de 1993, do relatório “Derivatives: Practices and Principles” pelo Group of Thirty, organização não-governamental composta por banqueiros, financistas e acadêmicos, que buscava mais bem compreender o ambiente econômico financeiro da época. O pano de fundo para o surgimento do efetivo gerenciamento de risco estava pronto. A iniciativa privada tomou a frente: em outubro de 1994, l JP Morgan apresentou ao mundo um sistema de gerenciamento de risco a que denominou Risk Metrics, que contemplava a matriz de covariâncias para uma vasta gama de fatores de risco. O VaR, termo cunhado inicialmente por Till Guldimann, na época chefe mundial da área de Research do mesmo JP Morgan na década de 80, deveria integrar tal matriz às posições inerentes a cada portfólio ou instituição. Em seqüência, mais especificamente em abril de 1995, o Basle Committee da Basiléia do BIS – Bank for International Settlements divulgou que os bancos estavam autorizados a mensurar seu risco de mercado por meio de modelos proprietários. Em janeiro de 1996, o mesmo comitê estabeleceu critérios quantitativos e qualitativos que os modelos internos das instituições financeiras deveriam adotar. Também estabeleceu a utilização do VaR para medir o risco de mercado, autorizando os bancos a utilizar modelos internos para estimá-lo. Legalmente nascia o VaR, cuja aceitação inicial não foi integral, apesar da facilidade de compreensão do número por ele representado. Para reforçar a importância de um eficaz gerenciamento do risco de mercado, foram necessários alguns tristes episódios de significativas perdas financeiras - Banco Barings na 15 Inglaterra, Metallgesellschaft na Alemanha, Orange County e LTCM nos E.U.A, Daiwa no Japão, Banco Marka e Fonte Cindam no Brasil e, mais recentemente, o hedge fund Amaranth. O VaR é uma realidade e muito se desenvolveu desde 1995; sobre essa pequena sigla desenvolveu-se uma vastíssima produção acadêmica. Modelos de otimização de carteiras migraram da abordagem tradicional de Markowitz para a abordagem do VaR, novos matizes e adeptos eram e são conquistados, levando, por exemplo, empresas não-financeiras a adotarem modelos de risco de mercado nele calcados. O VaR é uma poderosa e excelente maneira de controlar o risco, mas não é “ciência pura” e muito menos um “conceito fechado”. O Risk Manager não se deve iludir com o número obtido – deve analisá-lo antes de divulgá-lo, à luz das limitações a ele inerentes. Tais limitações se associam principalmente ao risco de modelagem – a saber, a escolha do sistema, parâmetros e fatores de risco. Este trabalho tem foco justamente nessas limitações. Assim, o objetivo do trabalho será mostrar se modelagens alternativas aos modelos histórico e gaussiano para a apuração do VaR e do Expected Shortfall são aplicadas aos ativos financeiros brasileiros. A dissertação encontra-se assim estruturada. No primeiro capítulo fazemos uma breve revisão da bibliografia que explora as diferenças entre o VaR – que não é coerente no sentido de Artzner et al (1997) - e o Expected Shortfall, - que o é. Na parte final desse capítulo destacamos a produção bibliográfica brasileira e internacional sobre o tema. No segundo capítulo registramos a metodologia adotada. Definimos formalmente as medidas de risco discutidas e os modelos empregados, e justificamos as proxies, o chamado threshold u e o método de backtesting. No terceiro capítulo mostramos resultados preliminares e respectivas conclusões e, por fim, verificamos a existência ou não de fatos estilizados em séries temporais financeiras. 16 No quarto capítulo apresentamos os resultados das modelagens desenvolvidas, salientando os principais aspectos quantitativos verificados, sem negligenciar os aspectos qualitativos. Registramos o grau de precisão de cada modelo e o modelo mais indicado para cada benchmark, chegando à determinação da adequada relação entre ambos. Especial atenção é dedicada a conceitualização de distribuição paretianas estáveis, matéria não tão difundida no universo brasileiro de gerenciamento de risco de mercado. No quinto e último capítulo, apresentamos as conclusões do estudo realizado, em vista das evidências observadas, e ressaltamos as principais contribuições do trabalho – que se encerra com o registro de que muitos passos ainda deverão ser dados, pois a continuação ininterrupta de idéias promove o aprimoramento do progresso da ciência e o engrandecimento do ser humano. 17 2) Revisão Bibliográfica “As coisas mais importantes nunca devem ficar à mercê das coisas menos importantes.” Goethe Realizando um exercício de abstração, é difícil imaginarmos as instituições financeiras não mensurando seus riscos, sobretudo o financeiro. O VaR provocou uma verdadeira revolução na maneira de como o negócio bancário e, mais recentemente, empresas não-financeiras, devem construir suas estratégias. Como usual em todo “fato novo”, a conseqüência natural é o debate, tanto acadêmico quanto prático, sobre as principais características do VaR e sua eficiência. Artzner et al (1997) deram origem a essa discussão, formalizando-a matematicamente em Artzner et al (1998), com a apresentação de axiomas a que medidas de risco devem obedecer1. A partir daí tanto a comunidade acadêmica quanto à de risk managers começou a dar maior atenção ao chamado Expected Shortfall – doravante, ES. Yamai e Yoshiba (2002a, 2002b e 2002c) exploram as diferenças entre o VaR e o ES. O primeiro aborda os aspectos de coerência2, erro de estimação (estimation error), possibilidade de decomposição e aplicabilidade de métodos de otimização, e demonstra que: a) o ES é coerente, enquanto o VaR não é; b) para um mesmo nível de precisão, o ES exige maior número de observações que o VAR; c) o ES é facilmente decomponível e otimizável, diferentemente do VaR. No segundo, os autores mostram que o ES é consistente com o paradigma de maximização da utilidade esperada. No último, mostram que ambas as medidas podem subestimar o risco de ativos que apresentem fat-tails e altos potenciais de perda, mas que, quando o VaR é utilizado para o gerenciamento de risco, existe o perigo de 1 Mais adiante veremos quais são tais axiomas. Os artigos em questão provavelmente são os trabalhos mais freqüentemente citados na área de gerenciamento de risco nos últimos dez anos. 2 Compreenderemos melhor o que caracteriza uma medida coerente de risco no capítulo 5 do presente trabalho. 18 investimento em posições sujeitas a perdas extremas, pois o VaR fornece uma informação que não considera o risco caudal – contrariamente ao ES. O aspecto de não-coerência do VaR e coerência do ES também é explorado em Acerbi and Tasche (2001 e 2002) e Tasche (2002), que mostram os problemas que possíveis descontinuidades na distribuição de perdas podem causar na estimação de medidas de risco; em tais circunstâncias, o ES pode ser estimado de maneira eficiente, enquanto o VaR pode falhar. Por sua vez, Acerbi et al (2006) retomam a idéia de que VaR não é uma medida coerente de risco e adicionam pontos interessantes à análise - por exemplo, a dificuldade de estimá-lo quando há vários fatores de risco e a demora em capturar eventuais “estragos financeiros”. Concluem, então, que o ES é um sucessor natural do VaR. Em linha semelhante, Rau-Bredow (2002) analisa as implicações que a suposição de normalidade dos retornos e a não obediência do VaR à propriedade de sub-aditividade (nãocoerência) trazem para os cálculos de exigência de capital. Estendidas ao ES, as mesmas análises mostram a adaptabilidade dessa medida a tais situações. O aspecto de não-normalidade dos retornos também é abordado em Bormetti et al (2006), que propõem uma abordagem, em termos de uma distribuição de t-student, o cálculo do VaR e do ES e os exemplificam com uma carteira de ações italianas. A sensibilidade do VaR e do ES de portfolios sujeitos a netting de posições é investigada em Fermanian e Scaillet (2004), que derivam distribuições assintóticas das primeiras derivadas do VaR e do ES, enquanto Rosenberg e Schuermann (2005) estudam a correlação entre os diferentes tipos de risco (de crédito, de mercado etc.) a que uma instituição financeira está exposta. Em ambas as dimensões, os resultados também são favoráveis ao ES. A influência de fatores de risco elípticos é estudada em Kamdem (2004a e 2004bb), enquanto a mudança de regime é discutida em Guidolin e Timmermann (2004), que fazem uso das chamadas cadeias de Markov e concebem um modelo de quatro estado com o qual estudam de que maneira o VaR e o ES são influenciados por mudanças de regime. 19 A preocupação em evitar que uma empresa possa quebrar é merecedora de atenção de todos os agentes econômicos. Anderson et al (2005) mostram as diferenças entre o VaR e o ES de empresas ditas too-big-to-fail. Na mesma linha, porém sob a ótica de regulação, Leippold et al (2003) comparam a eficiência de parâmetros regulamentares utilizando VaR e ES, e concluem: “If regulators were to replace VaR by a coherent risk measure such as expected shortfall, the unattractive effects of VaR-based regulation would disappear.” Na vertente de trabalhos puramente empíricos, dois trabalhos se destacam. O primeiro, Kerkhof et al (2003) focaliza a utilização de derivativos como instrumentos de hedge, lançando mão de árvores binomiais. Somente foi possível a construção de árvore para o cálculo do VaR, contudo, pois o do ES exigiria informações sobre a distribuição na cauda inferior. A lição importante é que, independentemente da medida de risco, a volatilidade implícita do contrato é fundamental para a boa compreensão do risco de um derivativo a ser hedgeado, seja no mercado acionário ou no mercado de moedas. O segundo, Glavan (2004), mostra o cálculo do VaR e do ES de portfolios, detalhando ao máximo a distribuição de Profit and Losses (P&L), à luz da qual pôde concluir que, diferentemente do VaR, o ES é medida adequada de sensibilidade do portfólio a variações nos fatores de risco. Da Silva (2004) nos fornece um aprofundado estudo sobre a coerência de medidas de risco no contexto brasileiro, com base nos retornos de dez ações de alta liquidez na Bolsa de Valores de São Paulo. Ratificando estudos empíricos internacionais, seus resultados mostram a superioridade do ES. Como se sabe, a validação do sistema de risco adotado – via backtesting - é tão importante quanto o próprio sistema. Angelidis e Degiannakis (2004) descrevem e analisam a potência (power) dos principais testes dessa natureza, enquanto Novak (2004) verifica o comportamento e a magnitude do VaR e do ES no episódio do crash de 1987. Cada dia mais, em diferentes esferas do conhecimento humano, existe grande preocupação com eventos raros e suas conseqüências. A Teoria de Valores Extremos (TVE) fornece subsídios para mais bem compreendermos crashes ou 20 rupturas de mercado; todavia, é recente o reconhecimento de sua aplicabilidade em Finanças. McNeil (1999) apresentou o trabalho seminal que emprega a TVE ao Risk Management, dedicando especial atenção ao método do Peaks Over Threshold e mostrando de que forma ele pode ser incorporado à estrutura de cálculo de volatilidade estocástica na determinação das medidas de risco e suas particularidades. Rachev et al (2006) abordam modelos univariados para cálculo do VaR e do ES, ancorados em stable laws3 e na TVE. Igualmente, muitos outros estudos sobre o tema permeiam a academia e as áreas de Risk Management das instituições. Como se pode observar na breve revisão acima apresentada, uma das maiores falhas do VaR é não capturar o comportamento de fat-tail dos retornos dos ativos financeiros. Assim, o foco do presente dirige-se a essa questão. Veremos o comportamento do VaR e do ES para proxies de ativos financeiros brasileiros para o modelo histórico (ou empírico), gaussiano (ou normal), Pareto Generalizado (utilizando POT – Peaks over Threshold) e distribuição paretiana estável (Stable Paretian Distribution). A contribuição do trabalho reside na utilização dessa última alternativa – até agora não adotada em nenhum estudo brasileiro, até onde saibamos. Nossa principal referência metodológica é Harmantzis et al (2005). 3 Stable laws é uma expressão geral que engloba o conjunto de propriedades das distribuições estáveis, não compartilhadas por outros modelos de distribuição estatística, que permitem a generalização das teorias financeiras, favorecendo a criação de um estrutural coerente e geral para realizarmos modelagens financeiras. 21 3) Aspectos Conceituais “The role of science is nothing more than a refinement of everyday thinking” Albert Einstein Nesta seção iremos mostrar o comportamento das variáveis analisadas frente às medidas tradicionais de Estatística, realizando tratamentos individuais e mostrando, por fim, o rompimento da condição de normalidade através de do teste Jarque Bera. De posse das informações contidas nesse capítulo e no próximo começaremos a questionar os modelos tradicionais de mensuração de risco de mercado. 3.1) Séries Buscando cobrir a maior parte possível dos ativos financeiros brasileiros, optamos pela escolha de proxies dos principais fatores de risco existentes, a saber: Ibovespa fechamento, PTAX-V(800) divulgada pelo Bacen (Banco Central do Brasil), IRF-M (Índice de Renda Fixa de Mercado), IMA-S (Índice de Mercado da Andima série S), IMA-B (Índice de Mercado da Andima série B) e IMA-C (Índice de Mercado da Andima série C). Os três últimos são calculados e divulgados diariamente pela Andima (Associação Nacional das Instituições do Mercado Financeiro) e se referem aos mercados de ativos com os seguintes fatores de risco: juros prefixados, cupom IPC-A e cupom de IGP-M.4 Escolhidas as proxies, determinou-se coletar as informações entre 1º de março de 1999, após a flutuação da taxa de câmbio no Brasil, e 28 de setembro de 2007.5 O período compreendido é bastante rico para análises, pois cobre períodos de estresse (de raízes internas ou externas) e de euforia. Por exemplo, o ano de 2001 foi marcado por momentos agudos de estresse no mercado financeiro brasileiro em função do atentado a Nova Iorque, da ruptura da bolha do Nasdaq e do 4 O autor sente-se confortável com tais índices, pois participou de grupos de trabalho que estudaram sua elaboração e divulgação. 5 O ativo utilizado como parâmetro de data foi a Ptax-V. Em feriados municipais em São Paulo não há pregão da Bovespa, mas existe taxa de câmbio. Nessas circunstâncias, repetimos o valor de fechamento da BOVESPA no último dia anterior; esse é o único ajuste de missing data existente no trabalho. Os benchmarks divulgados pela Andima obedecem às datas nacionais - conseqüentemente, às do Bacen. 22 apagão elétrico no Brasil. No ano seguinte, nosso mercado continuou sensível, em decorrência das incertezas políticas acerca de um novo governo. Os anos de 2005 e 2006 caracterizaram-se por relativa euforia - redução de taxas de juros, alta nas bolsas de valores, valorização do câmbio e descolamento entre economia e política. Todavia, o início de 2007 mostrou que o ambiente de volatilidade baixa e controlada não perduraria por muito mais tempo, culminando com a crise imobiliária norteamericana dos sub-primes a partir de agosto de 2007 e não finalizada até a conclusão desse trabalho. Assim, mostrou-se importante compreender o comportamento dos ativos financeiros e administrar adequadamente o risco das instituições. Na próxima sub-seção iremos detalhar um pouco mais sobre as proxies de ativos utilizadas no presente trabalho para auxiliar o leitor na posterior compreensão do texto. 3.1.1) Ptax-V Representa a taxa de câmbio entre a moeda local (Real) e a moeda norteamericana (Dólar), calculada ao final de cada dia. É a taxa média de todos os negócios em dólares realizados no dia, no mercado interbancário de câmbio, com liquidação em D+ 2. A base de dados para essa variável perfaz 2144 observações. 3.1.2) Ibovespa De maneira semelhante à série da Ptax-V, a base de dados do Ibovespa inicia-se em 1º de março de 1999 e se encerra em 28 de setembro de 2007, perfazendo 2144 observações. 3.1.3) IMA – Índices de Mercado Andima Diferentemente dos índices acionários, os índices de renda fixa no Brasil ainda são pouco conhecidos pelos investidores. A tendência de maior disseminação 23 está em curso, motivada, principalmente, pela queda nas taxas de juros e pela estabilidade macroeconômica, que levam a maior previsibilidade das variáveis. Tais indicadores apresentam algumas vantagens que mostram por que optamos por eles em nosso trabalho, a saber: Transparente: os ativos constituintes e os pesos são claramente definidos; Replicável: existe a possibilidade de comprar ativos de forma a replicar o(s) índice(s) desejado(s); Mensurável: seu retorno é facilmente apurado; Segmentável: como existem vários índices, podem ser consistente com o estilo do gestor ou da política de investimentos estipulada; Abrangente: contemplam a grande maioria os títulos públicos federais existentes no mercado; Consistente: títulos novos ou antigos são inseridos ou retirados através de critérios claros e objetivos; e Confiáveis: calculados por entidades isentas e de reconhecido mérito no mercado financeiro. Criados em 2005 numa parceria entre a Andima e a Secretaria do Tesouro Nacional, os índices representam uma carteira teórica de títulos públicos em mercado, segregados por tipo de remuneração conforme tabela abaixo. Os ativos componentes das carteiras dos IMAs sofrem o processo diário de Marking to Market. Dessa forma, oscilações nas curvas de juros afetam diretamente, em maior ou menor grau, a variação dos índices - mesmo aqueles com rentabilidade definida na emissão. Assim, acreditamos que são excelentes proxies para refletir o comportamento dos principais fatores de risco do mercado brasileiro de renda fixa. 24 Índice IRF-M Composição LTN e NTN-F Fatores de Data de Data final Quantidade Risco início da da de amostra amostra observações Expectativa de 02/02/2000 28/09/2007 1910 04/12/2001 28/09/2007 1452 17/09/2003 28/09/2007 1009 04/12/2001 28/09/2007 1452 inflação + prêmio + maturidade (prazo) IMA-S LFT Prêmio sobre a taxa Selic IMA-B NTN-B Expectativa de juros reais e maturidade (prazo) IMA-C NTN-C Expectativa de juros reais e maturidade (prazo) Tabela 1 – Indicadores da família IMA e período de estudo Fonte: Andima - dados trabalhados pelo autor. É importante mencionar que a família IMA passou a ser divulgada apenas a partir de abril de 2005, mas que apresenta série retroativa disponível a partir de dezembro de 2001. O IRF-M apresenta uma série maior, pois foi o primeiro índice divulgado pela Andima, em fevereiro de 2002, em associação com a BM&F. Como as NTN-Bs passaram a ser ofertadas pelo Tesouro Nacional somente em 2003, seu índice pode estar capturando informações somente a partir desse ano. 25 3.2) Retornos Logarítmicos Como assinalado por Morettin e Toloi (2006), é desejável a utilização de retornos logarítmicos, pois são livres de escala e podem ser agregados temporalmente – o retorno logarítmico de um mês é a soma dos retornos logarítmicos dos dias que o compõem. Em um mês típico da Bovespa, por exemplo, há 21 dias úteis de pregões, de modo que o log-retorno desse mês é dado por rt (21) = rt + rt −1 + ........ + rt −20 para todo t. Como nosso interesse é modelar as perdas e ganhos diários dos ativos supramencionados, iremos nos valer dos log retornos e, em seguida, multiplicá-los, por menos 1: rt = −(ln Pt - ln Pt -1 ) , onde Pt e Pt -1 são os preços dos ativos em dois dias úteis consecutivos. 3.3) Holding Period De acordo com as melhores práticas de gerenciamento de risco para ativos financeiros, iremos adotar 1 dia útil para o holding period no cálculo do VaR e do Expected Shortfall. A título de ilustração, as câmaras de compensação de derivativos também estipulam esse mesmo prazo para o cálculo das margens de garantia que exigem de suas “contrapartes”. 3.4) Janela Móvel Utilizamos a sistemática mais difundida nas áreas de Risk Management do mercado brasileiro: janela móvel (em oposição à janela ancorada) com extensão de 252 dias úteis (1 ano). 3.5) Nível de Significância Seguimos o padrão adotado pelas áreas de gerenciamento de risco de mercado – o qual, por sua vez, acompanha o proposto pelo Acordo da Basiléia para as exigências mínimas de capital – isto é, 95% e 99%. Poderíamos estipular outros 26 valores intermediários; todavia, a quantidade de informação prejudicaria a análise dos resultados. 3.6) Threshold u do POT Ao trabalharmos com valores extremos é fundamental determinar qual o nível adequado de “corte” para afirmarmos com segurança qual o nível tido como valor extremo. Em termos estatísticos formais, é o chamado índice de cauda e poderíamos estimá-lo através do processo de Hill, porém não há clara definição de critérios objetivos para qual o nível adequado para o corte (tail index) a ser realizado no método POT conforme Embrechts et (1997). Ao realizar esse trabalho, ratificamos a idéia de Souza (1999) na sua dissertação:“métodos automatizados” de escolha ótima deveriam ser buscados, mas que não substituem por completo o bom senso e as outras informações descritivas que um bom modelador pode extrair da amostra e que o ajudam a encontrar ou corroborar um valor ótimo para o número de estatísticas de ordem utilizadas na estimação.” No nosso trabalho nos valemos do método utilizado e proposto por Harmantzis et al. (2006): índice de cauda = 10%* k, ou seja, utilizaremos o 10% maior valor das perdas históricas para a janela de volatilidade utilizada. 3.7) Backtesting Nós realizaremos Backtesting para os quatro6 modelos apresentados adiante no capítulo 5. Assim, a exceção ao VaR acontecerá quando a perda for superior ao VaR calculado. Conforme mencionado na seção 2.2, as violações sempre serão positivas. Também faremos uma breve análise sobre a magnitude dos eventuais “estouros” na modelagem. Existem várias formas de backtesting, mas nos valeremos do método de Kupiec para determinar o grau de acurácia de cada modelo. Os detalhes mais técnicos serão discutidos adiante. O Risk Manager deverá ter bastante cuidado com 6 Capítulo 5, seção 5.2, página 39. 27 o valor teórico estipulado e observado no dia a dia. Caso opte por seguir fielmente o número de exceções estipulado, correrá o perigo de invalidar o processo inteiro. 28 4) Análise Estatística Tradicional “No futuro, o pensamento estatístico será tão necessário para a cidadania eficiente como saber escrever e ler.” Herbert George Wells Nesta seção iremos mostrar o comportamento das variáveis analisadas frente às medidas tradicionais de Estatística, realizando tratamentos individuais e mostrando, por fim, o não atendimento à condição de normalidade, através do teste Jarque-Bera, cuja hipótese nula afirma que os retornos encontram-se estatisticamente distribuídos normalmente. De posse das informações contidas nesse capítulo e no próximo, começaremos a questionar os modelos tradicionais de mensuração de risco de mercado.7 4.1) Ibovespa 10,00000% Distribuição dos Retornos Diários 8,00000% 6,00000% 4,00000% 2,00000% 0,00000% -2,00000% -4,00000% -6,00000% -8,00000% -10,00000% -12,00000% Gráfico 1 – Evolução dos retornos diários do Ibovespa Fonte: Bovespa; dados trabalhados pelo autor. 7 Não cabe aqui discutirmos quais as razões estruturais para a ausência de normalidade dos retornos. Desconsideraremos eventuais problemas de microestrutura no mercado brasileiro de renda fixa; em particular, questões de liquidez dos componentes dos índices da família IMA não foram contempladas neste trabalho. 29 Análise visual da série não nos permite identificar nenhum comportamento destoante da condição de normalidade. Assim, aplicamos o teste de Jarque-Bera para nos certificarmos de tal. O resultado nos mostra que a hipótese nula de normalidade deve ser rejeitada, para um nível de significância bastante superior a 99%, dado o p-valor praticamente nulo. 280 Series: IBOVESPA Sample 1 2144 Observations 2144 240 200 160 120 80 40 0 -0.05 0.00 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 0.001041 0.001245 0.087630 -0.091850 0.018192 -0.092656 4.028356 Jarque-Bera Probability 97.53930 0.000000 0.05 Gráfico 2 – Histograma dos retornos diários do Ibovespa 4.2) IMA-S No gráfico 3, observamos concentração de picos e vales no início da série. Como mencionado, razões de liquidez não serão consideradas nesse trabalho; todavia, a explicação para tal efeito está baseada nisso. Em adição, tal efeito inicial leva a série a apresentar um comportamento indesejável de fat tail, por se tratar de uma proxy dos ativos constituintes de fundo referenciados existentes no mercado brasileiro. 30 1,50000% Distribuição de Retornos Diários 1,00000% 0,50000% 04/08/2007 04/06/2007 04/04/2007 04/02/2007 04/12/2006 04/10/2006 04/08/2006 04/06/2006 04/04/2006 04/02/2006 04/12/2005 04/10/2005 04/08/2005 04/06/2005 04/04/2005 04/02/2005 04/12/2004 04/10/2004 04/08/2004 04/06/2004 04/04/2004 04/02/2004 04/12/2003 04/10/2003 04/08/2003 04/06/2003 04/04/2003 04/02/2003 04/12/2002 04/10/2002 04/08/2002 04/06/2002 04/04/2002 04/02/2002 04/12/2001 0,00000% -0,50000% -1,00000% Gráfico 3 – Evolução dos retornos diários do IMA-S Fonte: Andima, dados trabalhados pelo autor. Ao realizarmos o teste de normalidade dos retornos de tal ativo (Gráfico 4), confirmamos o efeito mencionado no parágrafo anterior. 1200 Series: IMAS Sample 1 1452 Observations 1452 1000 800 600 400 200 0 -0.005 0.000 0.005 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 0.000664 0.000660 0.011270 -0.006960 0.000554 0.201701 150.4588 Jarque-Bera Probability 1315528. 0.000000 0.010 Gráfico 4 – Histograma dos retornos diários do IMA-S 4.3) IMA-B A hipótese nula de normalidade dos retornos do IMA-B também é rejeitada (Gráfico 5), confirmando o que uma análise visual sugere. 31 Distribuição de Retornos Diários 2,00% 1,50% 1,00% 0,50% 17/09/2007 17/07/2007 17/05/2007 17/03/2007 17/01/2007 17/11/2006 17/09/2006 17/07/2006 17/05/2006 17/03/2006 17/01/2006 17/11/2005 17/09/2005 17/07/2005 17/05/2005 17/03/2005 17/01/2005 17/11/2004 17/09/2004 17/07/2004 17/05/2004 17/03/2004 17/01/2004 17/11/2003 -0,50% 17/09/2003 0,00% -1,00% -1,50% -2,00% -2,50% -3,00% Gráfico 5 – Evolução dos retornos diários do IMA-B Fonte: Andima Nota: Dados trabalhados pelo autor 800 Series: IMAB Sample 1 1009 Observations 1009 700 600 500 400 300 200 100 0 -0.02 -0.01 -0.00 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 0.000753 0.000600 0.016700 -0.027100 0.002271 -1.655441 37.79743 Jarque-Bera Probability 51367.49 0.000000 0.01 Gráfico 6 – Histograma dos retornos diários do IMA-B 4.4) IMA-C Tal como as demais variáveis analisadas, o IMA-C apresenta fortes evidências de fat tail, seja pela análise visual das estatísticas descritivas e, formalmente, por meio da rejeição da hipótese nula a que o teste Jarque-Bera leva. 32 Distribuição de Retornos Diários 3,00% 2,00% 1,00% 04/08/2007 04/06/2007 04/04/2007 04/02/2007 04/12/2006 04/10/2006 04/08/2006 04/06/2006 04/04/2006 04/02/2006 04/12/2005 04/10/2005 04/08/2005 04/06/2005 04/04/2005 04/02/2005 04/12/2004 04/10/2004 04/08/2004 04/06/2004 04/04/2004 04/02/2004 04/12/2003 04/10/2003 04/08/2003 04/06/2003 04/04/2003 04/02/2003 04/12/2002 04/10/2002 04/08/2002 04/06/2002 04/04/2002 04/02/2002 -1,00% 04/12/2001 0,00% -2,00% -3,00% -4,00% Gráfico 7 – Evolução dos retornos diários do IMA-C Fonte: Andima; dados trabalhados pelo autor. 1200 Series: IMAC Sample 1 1452 Observations 1452 1000 800 600 400 200 0 -0.025 0.000 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 0.000869 0.000700 0.026400 -0.035900 0.001937 -2.427285 121.0027 Jarque-Bera Probability 843866.0 0.000000 0.025 Gráfico 8 – Histograma dos retornos diários do IMA-C 4.5) IRF-M Análise visual dos retornos dos títulos governamentais prefixados (Gráfico 9) nada permite inferir sobre normalidade, mas o teste Jarque-Bera (Gráfico 10) leva à rejeição dessa hipótese. 33 1,00% Retornos Diários 0,50% 02/08/2007 02/05/2007 02/02/2007 02/11/2006 02/08/2006 02/05/2006 02/02/2006 02/11/2005 02/08/2005 02/05/2005 02/02/2005 02/11/2004 02/08/2004 02/05/2004 02/02/2004 02/11/2003 02/08/2003 02/05/2003 02/02/2003 02/11/2002 02/08/2002 02/05/2002 02/02/2002 02/11/2001 02/08/2001 02/05/2001 02/02/2001 02/11/2000 02/08/2000 02/05/2000 02/02/2000 0,00% -0,50% -1,00% -1,50% Gráfico 9 – Evolução dos retornos diários do IRF-M Fonte: Andima; dados trabalhados pelo autor. 700 Series: IRFM Sample 1 1910 Observations 1910 600 500 400 300 200 100 0 -0.010 -0.005 0.000 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 0.000704 0.000700 0.008200 -0.011300 0.001158 -1.662072 21.65724 Jarque-Bera Probability 28581.76 0.000000 0.005 Gráfico 10 – Histograma dos retornos diários do IRF-M 4.6) Ptax-V A partir da análise visual do Gráfico 11, identificamos acentuados pontos de picos e vales – sugerindo alta curtose – mas o comportamento de simetria não fica muito claro. Mais uma vez, contudo, o teste de Jarque-Bera leva à rejeição formal da hipótese nula de normalidade (Gráfico 12), em razão da alta curtose visualmente identificada, já que a assimetria é praticamente nula. 34 8.00000% Distribuição de Retornos Diários 6.00000% 4.00000% 2.00000% 1/9/2007 1/6/2007 1/3/2007 1/9/2006 1/12/2006 1/6/2006 1/3/2006 1/9/2005 1/12/2005 1/6/2005 1/3/2005 1/9/2004 1/12/2004 1/6/2004 1/3/2004 1/9/2003 1/12/2003 1/6/2003 1/3/2003 1/9/2002 1/12/2002 1/6/2002 1/3/2002 1/9/2001 1/12/2001 1/6/2001 1/3/2001 1/9/2000 1/12/2000 1/6/2000 1/3/2000 1/9/1999 1/12/1999 1/6/1999 -2.00000% 1/3/1999 0.00000% -4.00000% -6.00000% -8.00000% -10.00000% Gráfico 11 – Evolução dos retornos diários da Ptax-V Fonte: Bacen; dados trabalhados pelo autor 600 Series: PTAX Sample 1 2144 Observations 2144 500 400 300 200 100 0 -0.05 0.00 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis -8.91e-06 -0.000240 0.053930 -0.089350 0.009366 -0.112156 11.34515 Jarque-Bera Probability 6225.809 0.000000 0.05 Gráfico 12 – Histograma dos retornos diários da Ptax-V 4.7) Identificação de Heavy Fat Tail Existem técnicas econométricas para identificação da presença de fat tails, como pode ser visto em detalhes em Rachev (2003), mas a análise gráfica de quão distante da distribuição teórica a distribuição real se situa é de grande valia, como acentua Da Silva (2006). Quanto mais próximo a uma reta de 45º a distribuição dos retornos estiver, menor será o efeito de fat tails. 35 Theoretical Quantile-Quantile Theoretical Quantile-Quantile 8 6 4 Normal Quantile Normal Quantile 4 2 0 -2 0 -4 -8 -4 -6 -.10 -.05 .00 .05 .10 IBOVESPA -12 -.12 -.08 -.04 .00 .04 .08 PTAX Gráficos 13 e 14 – Distribuições Teóricas Normais do Ibovespa e da Ptax-V Apesar de ambas as séries apresentarem o mesmo número de observações e não apresentarem problemas de liquidez, a distribuição de retornos do Ibovespa tem caudas mais leves, em comparação com a distribuição de retornos da Ptax-V. De um modo geral, nas proxies de renda fixa, o comportamento de fat-tails é bastante acentuado. Uma explicação plausível para tal reside na liquidez dos papéis que compõem cada índice. A título de curiosidade, os pontos mais extremados da série de IMA-C, tanto o negativo (nosso interesse) como o positivo, foram registrados em dias que não houve negociação de NTN-C no mercado secundário de dívida. Isso sugere que em pesquisas futuras se incorpore um fator de liquidez dos ativos analisados. 36 Theoretical Quantile-Quantile Theoretical Quantile-Quantile 8 6 4 4 Normal Quantile Normal Quantile 2 0 -2 -4 0 -4 -8 -6 -8 -.015 -.010 -.005 .000 .005 -12 -.03 .010 -.02 -.01 .00 .01 .02 IMAB IRFM Gráficos 15 e 16 – Distribuições Teóricas Normais do IRF-M e do IMA-B Theoretical Quantile-Quantile 20 10 15 Normal Quantile Normal Quantile Theoretical Quantile-Quantile 15 5 0 -5 -10 10 5 0 -5 -10 -15 -.04 -.03 -.02 -.01 .00 IMAC .01 .02 .03 -15 -.008 -.004 .000 .004 .008 IMAS Gráficos 17 e 18 – Distribuições Teóricas Normais do IMA-C e do IMA-S .012 37 5) Definições e Modelos “É inútil dizer ao rio que ele pare de correr; a melhor coisa a fazer é aprender a nadar na direção da correnteza.” Berthold Brecht Neste capítulo apresentamos as principais definições e modelos testados. A literatura é extensa e difundida, tanto no âmbito local quanto no internacional, razão pela qual não tivemos preocupação entrar em detalhes de cada modelo, com exceção do chamado stable model, em razão da inexistência de pesquisas brasileiras sobre ele. 5.1) Definições 5.1.1) Value at Risk Segundo Rachev e Mittinik (2000), o VaR é a máxima perda possível num certo período de tempo, dado um certo intervalo de confiança. Formalmente, o VaR é definido com o limite superior de um intervalo de confiança mono caudal [ ] P ∆P(τ ) < - VaR = 1 - α Onde: α é o intervalo de confiança e ∆P(τ ) = ∆Pt (τ ) é a mudança relativa (retorno) no valor do portfólio num dado horizonte de tempo τ . ∆Pt (τ ) = P(t + τ ) - P(t) Onde: P(t + τ ) = log S (t + τ ) é o logarítmo do valor à vista S em t + τ , P(t) = log S(t), S(t) é o valor do portfólio em t, o período de tempo é dado por [t, T ] com T-t = τ et t é o tempo presente. O horizonte de tempo ou holding period deve ser determinado pela liquidez do ativo e pelo volume de negócios. O intervalo de confiança deve ser escolhido a ponto de raramente ser excedido. As medidas de risco cada vez mais são utilizadas pelas instituições financeiras, reguladores, acadêmicos, investidores institucionais e 38 empresas não-financeiras. O maior mérito de tal medida é conseguir resumir, em um único número, a perda a que determinado agente está exposto. Existem várias críticas à utilização do VaR. Uma das mais severas refere-se à ausência de coerência como medida de risco - embora em alguns casos isso se verifique (em distribuições elípticas, por exemplo). Acerbi et al (2001) e Artzner et Al.(1997) caracterizam quais as condições necessárias para que uma medida seja coerente. Sejam X, Y, ρ(X) ρ(Y), respectivamente, as perdas e medidas de risco de dois ativos X e Y. Para ser considerada coerente, uma medida de risco deve atender a quatro propriedades, a saber: 1) Sub-aditividade : ρ ( X + Y ) ≤ ρ ( X ) + ρ (Y) A medida de risco da carteira deve ser igual ou inferior à soma das medidas individuais. Percebe-se que a sub-aditividade reflete a idéia de diversificação: na formação de carteiras, não há criação de risco adicional. 2) Monotonicidade : se X ≤ Y para cada cenário, então ρ ( X ) ≤ ρ (Y) . 3) Homogeneidade positiva : para todo λ ≥ 0 tem-se que ρ (λX ) = λρ (X) . 4) Invariância de translação : para toda constante c, tem-se que ρ (c + X ) = ρ (X) + c . Muitos trabalhos demonstram que o VaR viola o princípio da sub-aditividade penalizando a diversificação, ao invés de premiar. Outra crítica ao VaR se relaciona com o fato de ele nada informar sobre o nível das perdas que podem acontecer quando o intervalo de confiança estabelecido é excedido. O ES - Expected Shortfall surgiu para tentar sanar tais deficiências, como veremos na seção seguinte. 5.1.2) Expected Shortfall 39 Expected Shortfall é definido em termos de esperança condicional, isto é, dado que o VaR foi excedido, pergunta-se qual a perda possível.8 Arcebi et al (2001) demonstram formalmente que o ES atende às propriedades de coerência de risco acima relacionadas, no que é seguido por Fabozzi et al (2005), que adicionalmente mostra que ele representa uma forma conveniente de apresentação de estudos de otimização de carteiras.9 Recorremos a Föellmer et al (2002) para uma definição formal: ESα (X) = - in f {E[X/A] : P(A) > α } Seja X uma distribuição contínua. Então, especificamente para esse caso, temos que o ES no α − quartil de X é: ESα (X) = - E[X | X ≤ Q α (X) ] 5.2) Modelos Foram quatro os modelos que estudamos: 1) abordagem empírica ou histórica. 2) abordagem gaussiana; 3) abordagem de valores extremos; e 4) abordagem paretiana estável (stable Paretian). 5.2.1) Abordagem Empírica ou Histórica Seja Fn um processo empírico de perdas observadas X 1 , X 2 ,..., X n , dado por: Fn (t ) = 1 n ∑ I ( X i ≤ t) , n i =1 onde: I() é a função indicativa e X i é uma variável independente e identicamente distribuída (i.i.d) com distribuição não conhecida F. Por procedimentos estatísticos usuais, segundo Van Der Vaart (1998), o α − quartil F −1 (α ) pode ser estimado por: 8 O ES também é conhecido como ETL – Expected Tail Loss e CvaR – Conditional Value-at-Risk. Ver Fabozzi et al (2005). 9 Alguns autores são “entusiastas” do ES. Embrechts et al (1997), por exemplo, chegam a afirmar que “ETL – Expected tail loss gives an indication of extreme losses, should they occur. Although it has not become a standard in the financial industry, ETL is likely to play a major role, as it currently does in the insurance industry”. 40 i -1 i −1 , Fn (α ) = X n (i ) , α ∈ , n n onde X n (1) ≤ X n ( 2 ) ≤ X n ( 3) ... ≤ X n ( n ) são estatísticas de ordem. Assim, o VaR para o método histórico ou empírico obedece à equação acima. O ES histórico ou empírico pode ser estimado como: n ∑ X n(i) i =[nα ] ES = E ( X / X > VaR) = (n − [nα ]) 5.2.2) Abordagem Gaussiana ( ) Seja uma amostra X i , i = 1,2,..., n, i.i.d, regida por N µ , σ 2 com µ e σ 2 não conhecidos. Geralmente se supõe que µ é igual a zero. Então temos que o VaR com certo nível de confiança igual α é dado por zα σ , onde zα é tal que P( Z > zα ) = α , com Z ≈ N(0,1) . Então o problema se reduz a estimar σ : σn = 2 1 n 1 n 2 com ( X − M ) M = ∑ i ∑ Xi . n - 1 i =1 n i =1 Já o ES gaussiano é dado por: ES = E ( X / X > VaR) = E ( X / X > zασ ) = σ t E ( X / σ t | Xσ t > Zα ) , onde Zα é igual a uma função φ −1 (α ) que representa o α − quartil da distribuição normal padrão e φ é a distribuição acumulada da função normal padronizada. Define-se também um threshold u dado por: E ( Z | Z > u ) = ϕ (u ) /(1 − φ (u )) , em que ϕ é a distribuição normal padronizada. 5.2.3) Abordagem de Valores Extremos Embrechts et al. (2003) registram duas possibilidades para a identificação de valores extremos em distribuições, a saber: 41 a) Método dos máximo de blocos (BM - Block Maxima) b) Picos acima do threshold (POT- Peaks over Threshold) Neste trabalho pressupomos que as variáveis em estudo seguem a distribuição paretiana generalizada (DPG), a qual depende de dois parâmetros, a saber: 1 − H ε ,σ ( x) = 1 − (1 + εx / σ ) ε para ε ≠ 0 H ε ,σ ( x) = {1 − exp(− x / σ )} para ε = 0 O parâmetro ε é conhecido como o parâmetro de forma ou índice de cauda da DPG e H ε ,σ define o tipo de distribuição, principalmente a família de distribuições possíveis de acordo com os parâmetros de localização e de escala. A distribuição de valores extremos acima é generalizada no sentido de que a forma da função assume três tipos possíveis em função do parâmetro ξ . O VaR e o ES para a distribuição paretiana generalizada são assim apresentados: σ n VaR p = u + ξ Nu ES p = VaR p + p −ξ − 1 σ + ξ (VaR − µ ) VaR σ − ξµ = + 1−ξ 1−ξ 1−ξ Onde: p é o intervalo de confiança; σ é o parâmetro de escala; u é o threshold; e ξ é o parâmetro de forma ou índice de cauda.10 10 Outros aspectos da teoria de valores extremos - por exemplo, Teorema Fisher-Tippett, Teorema de Picklands-Balkema, Teorema de Haan - podem ser vistos em Embrechts et al (2003). 42 5.2.4) Abordagem Paretiana Estável O conceito de distribuição estável remonta a Pierre Lévy na década de 20 do século passado. Utilizaremos a conceitualização apresentada em Fabozzi (2005); Rachev e Mittnik (2000) também se constituem em excelente fonte. Adler et al (1998) apresentam aspectos introdutórios porém fundamentais para a compreensão de distribuições estáveis. John Nolan – em Nolan (2004) e em outros trabalhos - tem contribuído sensivelmente para a difusão do conhecimento sobre essa área e aplicações ao mundo financeiro. Idéias sobre simulações podem ser encontradas em Janicki and Weron (1994). Fabozzi et al (2005) mencionam que existem inúmeras distribuições nãonormais que podem ser utilizadas para modelar valores extremos, mas que somente as distribuições estáveis apresentam propriedades matemáticas adequadas - seja sob a óptica de trading, de otimização ou de gerenciamento de risco de mercado. Temos uma distribuição bastante adequada para a modelagem financeira e que não segue uma distribuição normal. Além disso, em meados do século passado, Benoit Mandlebrot (1963) já havia estudado que as propriedades de estabilidade são altamente desejáveis para os retornos dos ativos. Como assinalam Khindanova and Rachev (2000), a preocupação inicial para estimar os parâmetros de estabilidade e, por conseguinte, sua aplicabilidade para as medidas de risco, VaR e ES, reside na dificuldade de existirem poucas observações para estimar o índice de cauda (tail index). Assim, também supusemos que os retornos das séries dos ativos financeiros seguem a lei da estabilidade. Da mesma forma que os autores anteriores, derivamos medidas estáveis e analisamos suas propriedades tendo como benchmark as medidas gaussianas de risco. A estimação dos parâmetros foi realizada através método de máxima verossimilhança, seguindo Embrechts et al (2003).11 Tendo em vista as dificuldades inerentes ao fato de as distribuições paretianas não apresentarem “formas 11 Poderíamos ter optado por métodos alternativos, por exemplo, Transformação de Fourier ou Transformação de Cauda de Fourier. Entretanto, a formalização do método adotado, bem como uma análise mais detalhada dos demais também foge do escopo desse trabalho e podem ser encontradas em Rachev (2003). Mais recentemente, Garcia et al (2006) mostram como estimar os parâmetros de distribuiçoes estáveis por meio de métodos indiretos, utilizando distribuições t assimétricas. 43 fechadas”, esses autores demonstram que, mesmo utilizando simulação de Monte Carlo, esse método de estimação se mostra robusto. Seguindo a lei de estabilidade, cujas definições e formalizações encontram-se em Rachev e Mittnik (2000) já citados anteriormente, o somatório de distribuições idênticas e independentes segue uma distribuição conjunta com diferentes parâmetros. Tal distribuição é caracterizada por quatro parâmetros: Índice de estabilidade ou expoente característico: ( α ∈ (0;2] ) Parâmetro de escala (ou de dispersão): ( σ ≥ 0 ) Parâmetro de assimetria: ( β ∈ [1,1] ) Parâmetro de localização: ( µ ∈ ℜ ) Visto que tanto a função densidade quanto a função distribuição não possuem formas fechadas conhecidas, as distribuições estáveis são especificadas pelas suas funções características. A variável aleatória X segue a uma distribuição estável com função distribuição F se, e somente se, sua função característica apresentam as seguintes expressões: α α ∏α exp− σ | t | [1 − iβ sin al (t ) tan 2 ] + iµt , se α ≠ 1 F ( x) = exp− σ | t | [1 + iβ 2 sin al (t ) ln | t | ] + iµt , se α = 1 ∏ A distribuição normal é denotada por X~N ( µ ,σ 2 ); já a distribuição estável pode ser escrita da seguinte forma: X ~ Sα (σ , β , µ ) . Quando o β da distribuição estável é zero, a distribuição será simétrica ao redor de µ . Verificamos a presença de skewness quando o valor do parâmetro β for diferente de zero. Tal parâmetro oscila entre -1 e +1. Quando é positivo, temos assimetria à direita; quando negativo, à esquerda. Uma outra forma de analisarmos é verificarmos que o parâmetro µ indica a posição da distribuição (direita ou esquerda) enquanto que o σ mostra se há 44 expansão ou contração ao redor de µ . Quando o parâmetro α é menor que 2, os eventos extremos acontecem de maneira mais freqüente que na distribuição normal, para a qual tal parâmetro é igual a 2. Podemos assim assumir que a distribuição estável padrão é: X ~ Sα (1, β ,0) . A partir da distribuição de retornos diários das variáveis, o VaR estável e o ES estável são apurados a partir de diferentes intervalos de confiança utilizando o método histórico descrito no tópico 2 dessa seção. Não há fórmulas analíticas para tais cálculos. 5.3) Justificativa De posse dos resultados encontrados no capítulo 3 e o início do mesmo, é importante ressaltar que existem inúmeras críticas às modelagens tradicionais de VaR ou ES. Nossa preocupação, contudo, está focada naquilo que observaram Rachev e Mittinik (2000): “empirical observations on returns of financial instruments do not exhibit the normal distribution and, thus, the tradicional VaR technique does not fit well data with heavy tails”. Nos gráficos abaixo, podemos observar o efeito do heavy ou fat tail nas proxies utilizadas. Em todas as variáveis analisadas, o comportamento de não normalidade é verificado. Algumas apresentam o comportamento de peso de cauda mais pronunciado, justificado pelo elevado valor de curtose (o IMA-C e o IMA-S, por exemplo). Por outro lado, alguns apresentam o coeficiente de assimetria elevado e negativo (o IRF-M e IMA-B). A combinação desses dois efeitos deve ser uma preocupação de qualquer profissional responsável por administração de risco. Nos gráficos que se seguem podemos observar o comportamento de fat tail para as principais proxies de fatores de risco para os ativos financeiros brasileiros.12 12 Para elaboração desses gráficos, utilizamos a modelagem encontrada em Zivot e Wang (2006) e utilizamos os softwares S-Plus e R-Project. 0.04 0.01 0.01 0.02 0.03 Mean Excess 0.03 0.02 Mean Excess 0.04 0.05 0.05 45 -0.04 -0.02 0.0 0.02 0.04 -0.04 -0.02 0.0 Threshold 0.02 0.04 Threshold 1.0 Mean Excess 0.2 0.5 0.4 Mean Excess 0.6 1.5 Gráficos 19 e 20 – distribuição de retornos negativos do Ibovespa e Ptax-V -0.5 0.0 -1.5 0.5 -1.0 -0.5 0.0 0.5 1.0 Threshold Threshold 0.8 0.6 Mean Excess 0.2 0.4 1.5 1.0 0.0 0.0 0.5 Mean Excess 2.0 1.0 2.5 Gráficos 21 e 22 – distribuição de retornos negativos do IRF-M e do IMA-B -2 -1 Threshold 0 -1.0 -0.5 0.0 0.5 Threshold Gráficos 23 e 24 – distribuição de retornos negativos do IMA-C e do IMA-S Segundo Zivot e Wang (2006), um boa forma de identificarmos o comportamento de Fat-Tail é plotar os retornos negativos das séries e aquelas que apresentam inclinação positiva, confirmam o comportamento bastante acentuado de cauda. Poderíamos ainda tentar estimar qual o threshold adequado para cada variável estudada, desde bom senso e análise criteriosa do pesquisador até métodos de bootstrap ou abordagem de Hill, conforme podemos verificar em Mc 46 Neil, Frey e Embrechts (2005); todavia, como já citado anteriormente, foge ao escopo do nosso trabalho. Dessa forma, podemos concluir que os modelos tradicionais de modelagem de risco podem ser prejudicados pela distribuição dos retornos dos ativos. A opção por modelos baseados em condições de normalidade deve-se à sua facilidade de implementação e à presença da leis dos grandes números, conforme destacam Rachev and Mittniki (2000). 47 6) Resultados Empíricos “Só se pode confiar num palpite que possa ser explicado.” 7º grande axioma de Zurique, Max Gunther Como sabemos, após a elaboração de modelos de risco faz-se mister a realização de backtesting para se saber a eficácia do modelo construído. Existem inúmeros métodos quantitativos e qualitativos para realizar o backtesting, dos quais o mais amplamente utilizado é o e sugerido por Kupiec (1995) que tem como premissa o teste da freqüência binomial que exceda o valor estipulado pela modelagem. Assim, ao estimarmos o VaR para certo intervalo de confiança α , espera-se que o número de violações ao modelo seja 1- α . 6.1) Teste de Hipótese O teste de hipótese utilizado baseou-se no número de exceções comparado com a precisão dos modelos construídos anteriormente. Sendo α o intervalo de confiança para o cálculo do VaR. Iremos testar a hipótese nula da equação abaixo para um holding period igual a 1 dia: P[∆Pt < −VaRt ] = 1 − α Onde: ∆Pt é a mudança relativa do valor do portfólio, isto é, a rentabilidade diária nas nossas variáveis analisadas; VaRt é a medida calculada para um holding period t igual a 1; t ∈ [1, T ] donde T é o intervalo de tempo a ser analisado para cada modelo das diferentes variáveis; 48 O modelo será considerado eficaz quando o número de violações estiver próximo de relação 1- α . Seja bt a função indicativa 1 {Rt < −VaRt },1 ≤ t ≤ T , a qual assume os valores bt 1{Rt < −VaRt } = 1 , se probabilidade = 1- α bt 1{Rt < −VaRt } = 0 , se probabilidade = α . Seja E ( Rt < −VaRt ) o número de exceções ou violações nos modelos apresentados nos respectivos períodos de análise para as diferentes séries T apresentadas. Segue-se então que a variável E, igual a ∑b t =1 t , segue a distribuição binomial. Assim, a regra do teste será a rejeição da hipótese nula dado um nível de significância α : T α (1 − α ) t α T −t ≤ ou ∑ 2 t =0 t E T α (1 − α ) t α T −t ≥ 1 − 2 t =0 E ∑ t Como menciona Rachev (2000), para elevados valores de T e níveis de confiança suficientemente altos, a distribuição binomial pode ser aproximada por uma distribuição normal. Fizemos essa pressuposição, pois todas as amostras apresentam T superior a 1000 observações, e, portanto, a hipótese nula será rejeitada para certo nível de confiança α se: E < T (1 − α ) − Z 1− α T (1 − α )α ou E > T (1 − α ) + Z 2 1− α T (1 − α )α , 2 onde Z p é percentil da distribuição normal padronizada. Apresentamos na Tabela 2, a seguir, os limites admissíveis de exceções para o cálculo do VaR para as diferentes variáveis. 49 Apresentamos na primeira tabela abaixo os limites de valores admissíveis de tolerância para o cálculo do VaR para as diferentes variáveis. Tabela 2 – Valores admissíveis de tolerância para VaR. Já na próxima tabela, a título de curiosidade, mostramos qual o nível de tolerância dado cada intervalo de confiança. Tabela 3 – Limites de tolerância para o VaR. De maneira similar ao realizado para o VaR, o ES também deverá sofrer o processo de validação. Todavia, o teste de validação do ES lida com a discrepância existente entre a perda realizada e o ES estimado, dado que o VaR estourou. Como pontuam bem Embrechts et al (2005), tais discrepâncias poderão ser positivas, negativas ou zero, mas geralmente se supõe que elas sejam independentes e identicamente distribuídas, com valor esperado igual a zero – o que fizemos. De posse de tal arcabouço conceitual, passaremos aos resultados encontrados para os diferentes modelos e variáveis estudadas. 6.2) Análise dos Resultados 6.2.1) Análise do VaR As quantidades de exceções para cada série e modelo encontram-se nas Tabelas 4 (nível de confiança de 95%) e 5 (nível de confiança de 99%), abaixo. 50 Tabela 4 – Exceções esperadas versus exceções observadas para nível de confiança igual a 95%. Tabela 5 – Exceções esperadas versus exceções observadas para nível de confiança igual a 99%. 6.2.1.1) Ibovespa Para os modelos apresentados, independente do nível de significância, podemos verificar que os números de exceções observadas encontram-se entre os limites inferior e superior do nível tolerável. 6.2.1.2) IMA-S Pela própria natureza dos ativos subjacentes ao índice, a experiência profissional prévia desse autor permite inferir que a abordagem de valores extremos será descartada e, possivelmente, a histórica e gaussiana apresentarão resultados adequados. De posse dos valores retirados do S-Plus a evidência materializa-se, todavia, para intervalo de confiança igual a 95%, a abordagem gaussiana superestima o VaR conferindo uma falsa sensação de tranqüilidade no gerenciamento do risco. Já a abordagem de valores extremos mostrou-se inadequada para os níveis de confiança estabelecidos, pois as exceções observadas ficaram fora os limites de exceções esperadas, subestimando significativamente o VaR. Já a abordagem estável subestima o VaR, uma vez que o número de exceções 51 observadas mostrou-se superior ao limite superior de aceitação. Já para o nível de 99%, o único modelo descartado é o de valores extremos. 6.2.1.3) IMA-B Para tal ativo observamos que as abordagens histórica e estável apresentaram-se bastante adequadas, independentes do nível de confiança utilizado. Já o modelo gaussiano, para o nível de 95%, o número de exceções observadas foi inferior ao número de exceções esperadas, levando assim uma superestimativa do VaR; para um nível de 99%, o modelo apresentou-se dentro da faixa de aceitação. Interessante observar que o modelo de valores extremos não é adequado para o nível de significância mais elevado, uma vez que o número de exceções observadas é superior ao seu limite superior, conferindo assim um VaR subestimado. 6.2.1.4) IMA-C Para nível de significância de 99%, qualquer modelo analisado o número de exceções observadas situa-se dentro dos limites aceitáveis. Em contrapartida, para nível de 95%, somente para o modelo histórico podemos afirmar o mesmo. Já os demais modelos superestimam o VaR. 6.2.1.5) IRF-M Fenômeno semelhante ao ocorrido para o ativo anterior, para um intervalo de confiança de 95%, os modelos gaussiano, valores extremos (POT) e estável superestimam o VaR. Exceção somente o modelo histórico. Já os modelos de valores extremos e estável enquadram-se nos limites toleráveis para intervalo de confiança igual a 99%, já os modelos histórico e gaussiano subestimaram o VaR. 6.2.1.6) Ptax-V Pelo ativo ser uma excelente proxy, na realidade, ser um ativo financeiro com bastante liquidez e pela série ser bastante longa, a tradicional lei dos grandes 52 números pode ser bem sentida aqui, sobretudo para nível de confiança mais elevado, pois todos os modelos estão dentro da faixa aceitável de tolerância. Já para o nível de 95%, o VaR gaussiano mostrou ser ineficaz, visto que está superestimando o VaR, o que é bastante sério para um ativo vital dentro dos portfólios das instituições financeiras nacionais. 6.2.2) Análise do ES Os resultados do backtesting do ES encontram-se na Tabelas 613: Tabela 6 – P-valores para os modelos apresentados. Para o Ibovespa somente a modelagem de valores extremos mostrou=-se adequada para nível de significância igual a 95%, as demais modelagens mostraram-se adequadas, independente do intervalo de confiança. Nenhuma abordagem apresentada se mostrou eficaz para apurar o risco de mercado do O IMA-S, independente do nível de confiança. Isso é explicado pela própria natureza dos ativos subjacentes ao indicador, bem como a observação inicial dessa seção. Já para a proxy dos títulos indexados a IPCA, nenhuma modelagem mostrouse adequada, independente do intervalo de confiança utilizado. Todos os modelos super estimam as medidas de risco, exceto a abordagem dos valores extremos para o intervalo de confiança igual a 99% subestima o ES, mas também não eficaz. Já os modelos utilizados para mensurar o risco do IMA-C não são adequados. A problemática é a mesma. 13 O backtesting do ES exige quantidade de observações bastante superior à do VaR, de modo que a potência do teste aqui utilizado pode estar prejudicada. Assim, para um trabalho posterior, sugere-se utilizar um período mais longo. 53 O que observamos em todos os casos, a modelagem de valores extremos utilizando proxies para o mercado financeiro brasileiro não é uma tarefa bastante simples, pelo contrário. Para um futuro trabalho poderíamos tentar compreender as razões para tal. É tão verdade essa afirmação que, esse autor, apresenta experiência razoável em gerenciamento de risco mercado e dificilmente encontra, seja em fundações, fundos de investimentos ou tesourarias, a utilização razoável de ES. Se o propósito do trabalho for determinar o modelo mais adequado às proxies dos ativos financeiros brasileiros, o modelo histórico mostrou-se mais adequado seguido pelo método gaussiano. Todavia, as sugestões aqui contidas visam ampliar o escopo da discussão e não fornecer esse julgamento rápido e direto. 54 7) Conclusões “Se você não mudar a direção, terminará aonde exatamente partiu” Provérbio Chinês Como sabemos as medidas de VaR, em maior número, e ES, em menor número, são amplamente utilizadas para tentar quantificar o risco de mercado. É importante portanto sabermos quais as fraquezas e a força em cada modelagem utilizada para a construção das medidas de risco citadas anteriormente. Sabemos que os métodos tradicionais para a sua apuração, sejam eles simulação de Monte Carlo, abordagem histórica, métodos delta, delta-gamma ou cenários de estresse, não conseguem nos fornecer uma satisfatória avaliação das perdas potenciais. Somente a título de curiosidade, os dois últimos podem apresentar problemas de especificação e subjetividade de parâmetros. O nosso principal objetivo foi mostrar abordagens diferenciadas para a estimativa do VaR e do ES para proxies de ativos financeiros brasileiros. Algumas conclusões interessantes já foram apresentadas: primeira, distribuições estáveis produzem geralmente estimativas de VaR e ES mais adequadas num nível de confiança igual a 99% para proxies de IGP-M, IPC-A, LFT e Ibovespa, fato que pode ser desejável aos agentes reguladores, fundos de pensão ou instituições mais conservadoras no gerenciamento de risco de mercado de suas carteiras centradas em índices de preços. Segunda, a abordagem gaussiana é aceitável para um nível de confiança igual a 99% para o cálculo do VaR, exceto para os ativos pré-ficados para 99% de nível de significância.; já para um nível menor, 95%, somente ativos bem líquidos, representados pelo Ibovespa, são adequados. Terceira, a utilização de ES funciona bem para o Ibovespa com nível de 95% de confiança. Acreditamos que muito deva se caminhar nessa área, uma vez que a abordagem tradicional (gaussiana) para apurar o risco de mercado tem sido bastante questionada, sobretudo em épocas de intensa volatilidade nos mercados mundiais, sejam eles motivados por aversão ao risco em crise de crédito ou por liquidez mundial excessiva, levando assim ao rompimento da normalidade dos 55 retornos dos ativos financeiros. Sugerimos que sejam testadas distribuições estáveis aplicadas para diferentes produtos financeiros, por exemplo, para opções, forward de moedas estrangeiras, swaps entre outros. Após isso, quem sabe, realizar estudos para diferentes categorias de carteiras, privilegiando àquelas que contemplem riscos não-lineares, por exemplo, fundos multimercados ou até mesmo renda fixa com alavancagem. Uma outra fronteira a ser explorada também será a incorporação de liquidez nessa modelagem. Ao colocar esse aspecto, talvez as modelagens para proxies de renda fixa apresentem ser mais robustas. Então há muito a ser desenvolvido, testado e aplicado para a abordagem paretiana estável nos ativos financeiros brasileiros, todavia, não há outra maneira; ou seja, identificarmos as falhas nos procedimentos vigentes, debatermos e propormos alternativas. E, ainda assim, corremos o risco de invalidarmos o processo por problema de natureza exógena às metodologias, por exemplo, adequabilidade de sistemas. Somente assim o homem continuará permanentemente a sair da caverna e, conseqüentemente, a evoluir, deixando o mundo platônico na lembrança! 56 REFERÊNCIAS ASSOCIAÇÃO NACIONAL DAS INSTITUIÇÕES DO MERCADO FINANCEIRO. IMA Metodologia. Abril de 2005 Disponível em < http://www.andima.com.br/ima/ima_cartilha.asp >. Acesso em: 19 setembro de 2007. ADLER. R, J.; FELDMAN, R. E; TAQQU, M. S, A practical guide to heavy tails: statistical techniques and applications. 1st ed. Chapel Hill: Birkhäuser, 1998. ACERBI, C.,; NORDIO, C.; SINTORI, C, Expected Shortfall as a tool for financial risk management,Workingpaper.http://www.gloriamundi.org/detailpopup.asp?ID=453055 940, 2001. >. Acesso em: 02 agosto de 2007. ACERBI, C.,; TASCHE, D., Expected Shortfall: a natural coherent alternative to value at risk, Working paper. http://www.bis.org/bcbs/ca/acertasc.pdf, 2001. Acesso em: 02 agosto de 2007. ACERBI, C.,; TASCHE, D., On the coherence of Expected Shortfall, Working paper. http://www-m4.ma.tum.de/pers/tasche/shortfall.pdf, 2002. Acesso em: 02 agosto de 2007. ANDERSON, R.G.; HIGBEE, J; SCHID, F.A, Measures of the equity of large institutions using extreme value theory. Technical Studies, Federal Reserve Bank of St. Louis,2005. ANGELIDIS, T.; DEGIANNAKIS, S., Backtesting VaR models: an expected shortfall approach. Technical Studies, Department of Financial and Management, Aegean University ,2004. ARTZNER, P.,; DELBAEN, F.; EBER, J.M; HEATH, D, Thinking Coherently, RISK Maganize, v.10, November, p.68-71, 1997. ARTZNER, P.,; DELBAEN, F.; EBER, J.M; HEATH, D, Coherent measures of risk, Mathematical Finance, v.9 (3), p.203-228, 1999. BORMETTI, G.; CISANA, E; MONTAGNA, G; NICROSINI, O., A non gausian approach to Risk Measures. Physica A; Statistical mechanics and its applications,2007. DA SILVA, A. C. R., Análise da coerência de medidas de risco no mercado brasileiro de ações e crítica ao desenvolvimento de uma metodologia híbrida. Dissertação (Mestrado em Economia) – Instituto Coppead de Administração da Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2004. DOWD. K, Measuring market risk. 2nd ed. Chichester: John Willey & Sons, Inc, 2005. EMBRECHTS, P.; KLÜPPERLBERG, C.; MIKOSCH, T., Modelling extremal events for insurance and finance. 4th , Berlin, Springer, 2003. 57 FABOZZI, F.J; RACHEV, S. T.; MENN, C.., Fat-Tailed and skewed asset return distributions: implications for risk management, portfolio selection, and option pricing. 1st ed. New Jersey: John Willey & Sons, Inc, 2005. FERMANIAN, J.D ; SCAILLET, O, Sensitivity Analysis of VaR and Expected Shortfall for Portfolios under netting agreements. Journal of Banking and Finance, v.29. , p.853-864, 2005. FÖELLMER, H.; SCHIED, A., Robust Preferences and convex risk measures. Advanced in Finance. Sprimnger-Verlag, p.39-56 2002. GARCIA, R.; RENAULT, R.; VEREDAS, D., Estimation of Stable Distributions by Indirect inferences. University Montréal, University of Brussels and University of Chapel Hill, 2006. GLAVAN, C., An application of alternative risk measures to trading portfolios. Dissertação (Mestrado em in Finanças) da ETH/UnizUrich,2004. GUIDOLIN, M ; TIMMERMANN, A, Value at Risk and Expected Shortfall under regime switching. EFA Maastricht Meeting Paper nº 2983, 2004. JANICKI, A.; WERON, A., Simulation and chaotic behaviour of alpha stable sthocastic processes. New York: Marcel Dekker, 1994. HARMANTZIS, F.C; MIAO, L.; CHIEN, Y., Empirical Study of Value at Risk and Expected Shortfall models with heavy tails. Stevens Institute of Technology, Hoboken, 2005. KAMDEM, J.S, Value at Risk and Expected Shortfall for linear portfolios with elliptically distributed risk factors., Risk and Insurance, 0403001, 2004. KAMDEM, J.S, Value at Risk and Expected Shortfall for quadratic portfolios of securities with mixture of elliptically distributed risk factors., Computing in Economics and Finance, 12, 2004. KERKHOF, J.; MELENBERG, B.; SCHUMACHER, H., Testing expected Shortfall models for derivatives positions .Working paper:http://papers.ssrn.com/sol3/papers.cfm?abstract_id=550223 Acesso em: 03 outubro de 2007. KHINDANOVA, I..; RACHEV, S.T., Handbook of analytical computational methods in applied mathematics. Boca Raton, CRC Press 2000. KUPIEC, P., Techniques for verifying the accuracy of risk measurement models, Journal of Derivatives, v.2 (December), p.73-84, 1995. JANICKI,A.; WERON A., Can one see alpha stable variables and processes?, Statistical Science, v.9, p.109-126,1994. 58 LEIPPOLD,M.; TROJANI, F; VANINI. P, Equilibrium impact of value at risk regulation, EFA 2002 Berlin Meetings, 2002. LINTNER, J., The valuation of risky assets and selection of risky investment in stock portfolios and capital budgets, Review of Economics and Statistics, v.47, p.13-37, 1965. MANDELBROT B., The variation of certain speculative prices. Journal of Business, 36. New York 1963. MARKOWITZ, H., Portfolio Selection, Journal of Finance, v.7, p.77-91, 1952. MORETTIN P. A.; TOLOI, C. M.C, Análise de series temporais. 2ª edição. São Paulo: Edgard Blücher, 2006. McNEIL, A. J.; FREY, R.; EMBRECHTS, P, Quantitative risk management: concepts, techniques, and tools. 1st ed. New Jersey: Princeton University Press, 2005. McNEIL, A. J., Extreme Value Theory for risk Managers. Departement Mathematik, ETH Zentrum: Zurich, 1999. NOVAK, S. Y, Value at Risk and black Monday crash. MUBS, Discussion Paper nº25, Series Accounting and Finance, 2004. NOLAN J. P.; Stable Distributions: Models for heavy tailed data. American University., 2004. RACHEV, S. T.; MITTNIK, S., Stable paretian models in finance. 1st ed. Chichester: John Willey & Sons, Inc, 2000. RACHEV, S. T., Handbook of heavy tailed distributions in finance. 1st ed. Amsterdam: Elsevier, 2003. RACHEV, S. T.; MARINELLI, C.; D’ADDONA, S, A comparison of some univariate models for Value at Risk and Expected Shortfall. University of California, 2006. RAU-BREDOW, H.., Value at Risk, Expected Shortfall, and Marginal Risk Contribution.Workingpaper.http://www.econbiz.de/archiv/wue/uwue/bank/value_risk_ shortfall.pdf, 2002. ROSENBERG, J.; SCHUERMANN, T, A general approach to integrated Risk Managmenet with skewed, fat-tailed risks, Staff Reports. Federal Reserve Bank of New York, 2004. ROSS, S. A., Handbook The arbitrage theory of capital asset pricing, Journal of Economic Theory, v.13, p.341-360, 1976. SHARPE, W.F., Capital Asset prices: a theory of capital asset pricing., Journal of Economic Theory, v.19, p.425-442, 1964 59 SOUZA, L. A. R., Valor em risco em épocas de crise. Mestrado (Mestre em Economia) – Faculdade de Economia e Administração da Universidade de São Paulo, São Paulo, 1999. STEINHERR, A., Derivatives: The Wild Beasty of Finance . 1st ed. Chichester: John Wiley & Sons, Inc, 2000. TASCHE, D., Expected Shortfall and Beyond, Working paper http://www.gloriamundi.org/detailpopup.asp?ID=453054772, 2002. Acesso em: 08 agosto de 2007. VAN DER VAART, A. W., Asymptotic Statistics. Cambridge: Cambridge University Press, 1998. YAMAI, Y.; YOSHIBA, T., Comparative Analyses of Expected Shortfall and Value at Risk: their estimation, error, decomposition, and optimization. Monetary and Economics Studies, Bank of Japan, 2002. YAMAI, Y.; YOSHIBA, T., Comparative Analyses of Expected Shortfall and Value at Risk: expected utility maximization and tail risk. Monetary and Economics Studies, Bank of Japan, 2002. YAMAI, Y.; YOSHIBA, T., Comparative Analyses of Expected Shortfall and Value at Risk: their validity under market stress. Monetary and Economics Studies, Bank of Japan, 2002. ZIVOT, E. ; WANG, J., Modeling financial time series with S-Plus. 2nd ed. New York: Springer Science + Business Media, 2006.