FUNDAÇÃO GETÚLIO VARGAS ESCOLA DE ECONOMIA DE SÃO PAULO PABLO FRISANCO OLIVEIRA ALOCAÇÃO DINÂMICA ÓTIMA COM MOMENTOS DE ORDEM SUPERIOR PARA A ESTRATÉGIA DE CARRY TRADE SÃO PAULO 2012 PABLO FRISANCO OLIVEIRA ALOCAÇÃO DINÂMICA ÓTIMA COM MOMENTOS DE ORDEM SUPERIOR PARA A ESTRATÉGIA DE CARRY TRADE Dissertação apresentada à Escola de Economia de São Paulo da Fundação Getúlio Vargas, como requisito para obtenção do título de Mestre em Economia. Campo de Conhecimento: Alocação de Carteira Orientador:Prof. Dr. Emerson F Marçal SÃO PAULO 2012 Oliveira, Pablo F.. Alocação Dinâmica Ótima com Momentos de Ordem Superior para a Estratégia de Carry Trade / Pablo F. Oliveira. - 2012 50 f. Orientador: Emerson Fernandes Marçal. Dissertação (MPFE) - Escola de Economia de São Paulo. 1. Taxa de juros. 2. Câmbio. 3. Investimentos - Análise. 4.Investidores (Finanças). I. Marçal, Emerson Fernandes. II. Dissertação (MPFE) - Escola de Economia de São Paulo. III. Título. CDU 336.745 PABLO FRISANCO OLIVEIRA ALOCAÇÃO DINÂMICA ÓTIMA COM MOMENTOS DE ORDEM SUPERIOR PARA A ESTRATÉGIA DE CARRY TRADE Dissertação apresentada à Escola de Economia de São Paulo da Fundação Getúlio Vargas, como requisito para obtenção do título de Mestre em Economia. Campo de Conhecimento: Alocação de Carteira Data de aprovação: 30/Janeiro/2012 Banca Examinadora: ______________________________ Prof. Dr. Emerson Fernandes Marçal (Orientador) FGV-EESP FGV-EESP ______________________________ Prof. Dr. João Filipe B. V. de Mendonça. Mergulhão FGV-EESP ______________________________ Prof. Dr. Fernando Antonio Slaibe Postali USP-FEA SÃO PAULO 2012 RESUMO O objetivo do presente trabalho é verificar se, ao levar-se em consideração momentos de ordem superior (assimetria e curtose) na alocação de uma carteira de carry trade, há ganhos em relação à alocação tradicional que prioriza somente os dois primeiros momentos (média e variância). A hipótese da pesquisa é que moedas de carry trade apresentam retornos com distribuição não-Normal, e os momentos de ordem superior desta têm uma dinâmica, a qual pode ser modelada através de um modelo da família GARCH, neste caso IC-GARCHSK. Este modelo consiste em uma equação para cada momento condicional dos componentes independentes, explicitamente: o retorno, a variância, a assimetria, e a curtose. Outra hipótese é que um investidor com uma função utilidade do tipo CARA (constant absolute risk aversion), pode tê-la aproximada por uma expansão de Taylor de 4ª ordem. A estratégia do trabalho é modelar a dinâmica dos momentos da série dos logartimos neperianos dos retornos diários de algumas moedas de carry trade através do modelo IC-GARCHSK, e estimar a alocação ótima da carteira dinamicamente, de tal forma que se maximize a função utilidade do investidor. Os resultados mostram que há ganhos sim, ao levar-se em consideração os momentos de ordem superior, uma vez que o custo de oportunidade desta foi menor que o de uma carteira construída somente utilizando como critérios média e variância. Palavras-chave: Carry trade, Alocação de Carteiras, Análise de Componentes Independentes, Momentos de Ordem Superior, GARCH, IC-GARCHSK ABSTRACT The aim of the present work is verify if, when the higher moments (skewness and kurtosis) are taken in consideration for carry trade portfolio allocation optimization, an investor can be better off than the traditional allocation, which prioritizes only the first two moments (mean and variance). The hypothesis of the research is that a carry trade currency exhibits non-Normal returns distribution, and its higher moments have a dynamic which can be modeled by GARCH-type model, in this specific case IC-GARCHSK. This model consists of one equation to each of the independent components’ conditional moments, named the returns, variance, the skewness, and the kurtosis. Another hypothesis is that a CARA (constant absolute risk aversion) utility function investor can have its function approximated by 4th order Taylor expansion. The work’s strategy is modelling the dynamics of the daily logreturns series’ moments of some carry trade currencies using the model above and dynamically estimate the optimal allocation which maximizes the investor’s expected utility function. The results show that the investor can benefit from taking in consideration the series’ higher moments, once this portfolio exhibited smaller opportunity cost than one that uses only mean and variance as criteria. Key words: Carry trade, Portfolio Allocation, Independent Component Analysis, Higher Moments, GARCH, IC-GARCHSK SUMÁRIO INTRODUÇÃO 6 1. PARIDADE DESCOBERTA DE JUROS E CARRY-TRADE 8 2. ALOCAÇÃO DE CARTEIRAS COM MOMENTOS DE ORDEM SUPERIOR 11 2.1 O PROBLEMA DA ALOCAÇÃO E A APROXIMAÇÃO DA FUNÇÃO UTILIDADE ESPERADA 11 2.2 SOLUÇÃO ÓTIMA O CASO ESPECÍFICO DA FUNÇÃO UTILIDADE TIPO CARA 14 3. ANÁLISE DE COMPONENTES INDEPENDENTES – ACI 17 4. GARCHSK E IC-GARCHSK 19 4.1 GARCHSK 19 4.2 IC-GARCHSK 20 5. ANÁLISE EMPÍRICA 24 5.1 A AMOSTRA 24 5.2 CARACTERIZAÇÃO DA AMOSTRA 25 5.3. ESTIMAÇÃO DOS PARÂMETROS DO MODELO IC-GARCHSK 28 5.4. ALOCAÇÃO ESTÁTICA E DINÂMICA DE CARTEIRAS DE CARRY-TRADE 32 CONCLUSÃO 35 REFERÊNCIAS 36 APÊNDICE 38 APÊNDICE A 38 APÊNDICE B 40 APÊNDICE C 43 APÊNDICE D 44 6 INTRODUÇÃO Dois fatos estilizados são as motivações deste trabalho. O primeiro é o “Forward Premium Puzzle”, o qual diz respeito a não verificação da Paridade Descoberta de Taxa de Juros (doravante PDTJ). De acordo com a PDTJ, sob neutralidade ao risco e expectativas racionais, o valor esperado para a variação da taxa de câmbio das moedas de dois países distintos para um determinado período é igual ao diferencial de taxa de juros que os títulos de dívida destes pagam, i.e. espera-se que a moeda do país com títulos que pagam maior taxa de juros depreciese em relaçao a moeda do outro país na mesma proporção do diferencial das taxas de juros entre estes dois títulos. Porém o que se verifica é que as moedas de países com títulos de dívida de maior taxa de juros tendem a apreciar relativamente às de países com títulos de taxas de juros mais baixas. Tentando explorar os desvios da PDTJ, agentes de mercado usam de uma estratégia conhecida como carry trade para tentar realizar lucros. A estratégia consiste em investir os recursos emprestados na moeda de juros menor na moeda de maior juros. E contanto que esta não deprecie mais que o diferencial de taxas, o investidor aufere um ganho. O segundo fato estilizado é a não-normalidade dos retornos de ativos financeiros. Vários modelos de precificação de ativos assumem como hipótese que a distribuição dos retornos dos ativos segue uma distribuição Normal. No entanto, o que se verifica é que há uma maior ocorrência de observações de retornos negativos (assimetria negativa) e uma frequência de eventos extremos maior do que a esperada pela distribuição Normal (excesso de curtose). O trabalho visa explorar esses dois fatos, propondo uma estratégia de alocação dinâmica ótima de carry trade, em que se leva em consideração o fato dos retornos de moedas de carry trade não possuírem distribuição Normal. Na seção 1, apresenta-se uma discussão sobre PDTJ e carry trade, fazendo a relação de como o “Forward Premium Puzzle” pode ser explorado pela estratégia de carry trade. Na seção 2, descorre-se sobre alocação de carteiras sob momentos de ordem superior, apresentando o problema de um investidor com um função 7 utilidade do tipo von Neumann-Morgenstern, e sua solução para uma função do tipo CARA aproximada por uma expansão de Taylor de 4ª ordem. Na seção 3 descorrese sobre Análise de Componentes Independentes. Na seção 4 apresenta-se o modelo econométrico GARCHSK (Generalized Autoregressive Conditional Heterokesdaticity Skewness Kurtosis) e sua extensão multivariada IC-GARCHSK (Independent Components - Generalized Autoregressive Conditional Heterokesdaticity, Skewness, Kurtosis), utilizado para previsão dos momentos condicionais dos log-retornos dos ativos. Na seção 5 faz-se o dethamento do procedimento empírico da dissertação, e também apresentam-se os resultados obtidos, bem como, sua análise. E, na útlima seção, redige-se as considerações finais e conclusões, sugerindo possíveis melhorias e extensões para o estudo aqui realizado. 8 1. PARIDADE DESCOBERTA DE JUROS E CARRY-TRADE A PDTJ afirma que, sobre condições de neutralidade ao risco e expectativas racionais, a variação da taxa de câmbio esperada entre dois países em um certo período de tempo é igual ao diferencial das taxas de juros des dois países: sendo que denota o valor esperado condicional a um conjunto informação até o período t, é o logaritmo neperiano da taxa de câmbio em unidades monetárias doméstica por unidade monetária estrangeira, e , são os logaritmos neperianos das taxas de juros doméstica e estrangeira respectivamente. A Paridade Coberta da Taxa de Juros (PCTJ), uma condição de nãoarbitragem, que, sobre a hipótese de expectativas racionais, é considerada válida, afirma que a diferença entre a taxa de câmbio forward para um certo período de tempo e a taxa de câmbio spot deve ser igual ao diferencial de taxas de juros: na qual é o logaritmo neperiano da taxa de câmbio forward em unidades monetárias doméstica por unidade monetária estrangeira. Testes sobre a verificação da PDTJ consistem em substituir a eq. 2 na eq. 1 e rodar a seguinte regressão, conhecida como regressão de Fama (1984): Se a PDTJ é uma hipótese verdadeira, os seguintes resultados são esperados: , , e é não-correlacionado ao conjunto informação disponível em . Desde o trabalho de Bilson (1981), passando por Fama (1984), Hodrick (1987), Froot e Thaler (1990), Engel (1996), entre outros, tem-se constantemente verificado que a hipótese de PDTJ é rejeitada. Este fato estilizado ficou conhecido como Forward Premium Puzzle. E, além disso, o parâmetro tende a ser negativo, 9 i.e. as moedas de países com títulos de maior taxa de juros tendem a apreciar relativamente às de países com títulos de taxas de juros mais baixas1. Bilson (1981) testa a hipótese de Eficiência Especulativa, estimando a regressão de Fama através do método MQG (Mínimos Quadrados Generalizados) para dados de diferentes moedas em seção transversal, para aumentar a eficiência dos estimadores. Ele ainda separa em dois grupos a variável forward premium (uma variável para o grupo das observações com valores em módulo inferiores a 10% e outra para o restante da amostra). Em seu trabalho, Bilson (1981) rejeita a hipótese de Eficiência Especulativa, uma vez que seu modelo conseguiu gerar uma estratégia especulativa para gerar lucros previsíveis, a partir da exploração do viés do mercado de câmbio. Fama (1984) conclui que a variação das taxas forward de câmbio é, em sua maioria, devido a variações nos prêmios e que o prêmio e o valor esperado dos componentes da taxa futura de câmbio das taxas forward de câmbio são negativamente correlacionados entre si. Já Froot e Thaler (1990) discutem as principais teorias que tentam explicar este puzzle. Eles citam o Prêmios pelo Risco (Risk Premia), Erros Expectacionais (Peso Problem), e Aprendizado (Learning). Após apresentar as deficiências destas teorias, eles propõem uma possível explicação: no curto prazo, o mercado é ineficiente, pois há uma demora na resposta de alguns investidores, ou porque eles demoram um tempo para pensar sobre a estratégia, ou simplesmente porque os investidores não respondem rápido a informações recentes. Engel (1996) faz uma extensa revisão sobre a modelagem e testes para Risk Premium, incluindo testes de consumption CAPM, modelos de variável latente, e modelos de portfólio balanceado. Ele ainda examina os modelos de equilíbrio geral e discute sobre suas implicações. Partindo em uma direção diferente da literatura que tenta explicar os desvios da PDTJ, há uma com o intuito de explorá-la, tentando auferir o benefício econômico que um investidor tem ao ingressar em uma estratégia de carry trade. Bilson (1981) 1 Froot(1990): “O coeficiente médio estimado em 75 estimativas publicadas é -0,88.” 10 propõe montar uma carteria de carry trade, levando em consideração custos de transação e exigência de depósito de margens, e mostra que, embora seu modelo sobre-estime o retorno esperado e sub-estime o risco, a estratégia ainda é lucrativa. Hochradl e Wagner (2008) mostram que, ao construir carteiras de carry trade com otimização restrita, é possível obter retornos com índices de Sharpe superiores a benchmarks razoáveis, mesmo após considerar-se custos de transação. Della Corte, Sarno, e Tsiaka (2009) concluem que a habilidade preditiva dos forward premium tem valor econômico substancial no contexto da alocação dinâmica de carteiras de câmbio e que os modelos de volatilidade estocástica performam melhor que os de volatilidade constante e GARCH(1,1). Seus resultados são robustos aos altos custos de transação e justificam o amplo uso do viés do forward premium e timing de volatilidade para a gestão de carteiras de câmbio. Já Wagner (2009) encontra que a PDTJ se verifica em um sentido especulativo, ou seja, embora os testes tradicionais sobre os valores teóricos , rejeitem a hipótese da PDTJ, o mesmo não ocorre com testes que levam em consideração que desvios do valor teórico de são compensados por desvios de , e, portanto, o excesso de retorno não é significantemente diferente de zero. Também conclui que o viés do forward premium é causado pela omissão de um prêmio pelo risco variante no tempo e que a estratégia de carry trade para uma carteira multi-moedas realmente gera valor econômico. 11 2. ALOCAÇÃO DE CARTEIRAS COM MOMENTOS DE ORDEM SUPERIOR É de longa data o conhecimento que os ativos financeiros não apresentam retornos que seguem o padrão de uma distribuição Normal. Mandelbrot (1963), Fama (1963,1965) são frequentemente citados. Este fato levou a uma literatura que questionava a adequabilidade do critério média-variância proposto por Markowitz (1952), buscando a introdução de momentos de ordem superior na função utilidade esperada. Pode-se citar os trabalhos de Arditti (1967), Levy (1969), e Samuelson (1970) como trabalhos nesta linha. Como notam Jondeau e Rockinger (2004), mais recentemente novas técnicas para resolver o problema de alocação de carteiras com momentos de ordem superior foram desenvolvidas, baseadas na técnica de Polynomial Goal Programing (PGP)2. Mas como eles ressalvam: “Uma desvantagem deste método, entretanto, é que o problema de alocação resolvido pelo método PGP não pode ser precisamente relacionado com uma aproximação da utilidade esperada.” Sendo assim, Jondeau e Rockinger (2004) propõem uma alternativa através do uso de uma expansão de Taylor como aproximação da função utilidade esperada. Na seção a seguir, apresenta-se o problema de alocação de carteira ótima para um investidor com uma função utilidade esperada , sua aproximação por uma expansão de Taylor, e a solução ótima para este investidor, utilizando esta expansão. 2.1 O PROBLEMA DA ALOCAÇÃO E A APROXIMAÇÃO DA FUNÇÃO UTILIDADE ESPERADA Seja um investidor que maximiza sua utilidade esperada do tipo von Neumann-Morgenstern 2 ao fim do período , cuja função preferência O método PGP consiste em transformar um problema de otimização multi-objetivo em um único polinômio que é representado pelas distâncias em módulos dos ótimos individuais de cada objetivo e a solução geral. O problema, então, passa a ser a minimização destas distâncias elevadas a um peso conhecido ou determinado empiricamente. 12 pertence a uma classe de funções utilidade alocar sua renda inical 3, e que dispõe de ativos para (arbitrariamente escolhida igual 1), com vetor de retornos e função distribuição acumulada mulitvariada contínua Se este investidor aloca frações em cada ativo, representadas pelo vetor , sua renda ao final do período é dada por , onde . Impondo-se que a somatória de todas as frações é 1, e que são todas maiores que zero, ou seja, o investidor não vende a descoberto e não tem acesso a um ativo livre de risco, a alocação ótima é obtida resolvendo-se o seguinte problema: As n condições de primeira ordem são: sendo que Se é a j-ésima derivada de com relação a é diferenciável em um intervalo , pode aproximar-se por uma expansão de Taylor de ordem e em torno de , e temos: , é o valor esperado da renda ao final do período, , o valor esperado do vetor de retornos, e é o resto de Lagrange definido como: 3 onde . é a j-ésima derivada de da funçã utilidade em relação a . 13 sendo que se , ou se ,e . Sendo assim, a utilidade esperada pode ser aproximada por: Como mostra Lhabitant (1997), sobre algumas condições4 é possível escrever a eq. 9 em função dos momentos da distribuição dos retornos. e: são respectivamente a variância, assimetria, curtose absolutas5, e o k-ésimo momento centrado do retorno da carteira do investidor ao final do período, é o retorno esperado da carteira, e . 4 No capitulo 1 do livro Multi-moment Asset Allocation and Pricing Models, páginas 4 a 10, Jurczenko e Maillet fornecem as condições sobre as quais é possível expressar uma função de utilidade esperada continuamente diferenciável em função de todos os momentos da distribuição dos retornos. 5 A definição de assimetria e curtose absoluta diferem da definição estatística como momentos superiores centais padronizados: 14 Como a função utilidade do investidor é do tipo , segue da eq. 10 que a utilidade esperada depende positivamente do retorno esperado e da assimetria e negativamente da variância e curtose. Ou seja, o investidor tem preferência por maiores retornos positivos, e aversão a risco e ocorência de eventos extremos e infreqüentes. 2.2 SOLUÇÃO ÓTIMA PARA O CASO ESPECÍFICO DA FUNÇÃO UTILIDADE TIPO CARA Definem-se as matrizes de co-variância, co-assimetria, e co-curtose no instante de e ativos, , ,e , respectivamente, como sendo: denota produto de Kronecker, , ,e tem dimensões , ,e respectivamente, e seus elementos são dados por: com . Pode-se reescrever agora as definições de retorno, variância, assimetria e curtose do portfólio em função de , ,e da seguinte forma: 15 Considera-se agora um investidor com uma funçao do tipo CARA (Constant Absolute Risk Aversion), como coeficiente de aversão ao risco , definida como: e a expansão de Taylor de 4ª ordem da utitilidade esperada como: Então, depois de algumas manipulações algébricas, a condição de primeira ordem em relação a para achar-se a solução ótima será dada por: As definições dos momentos da carteira como nas eqs. 15 a 17, permitem calcular diretamente as derivadas destes em relação ao vetor E assim, a eq. 27 pode ser reescrita nesta forma: : 16 e O sistema de eq. 32 acima pode ser facilmente resolvida usando um pacote de otimização padrão, para se obter a solução ótima para uma função utilidade do tipo CARA. Alternativamente, pode-se otimizar a eq. 26 para se obter a solução ótima. Conforme Jondeau e Rockinger (2004): “A principal vantagem do método proposto aqui é que os pesos atribuídos aos vários momentos da carteira na eq. 32 são selecionados com base na função utilidade, enquanto eles são arbitrariamente escolhidos no método PGP. Resolver a eq. 32 também fornece uma alternativa ao método baseado na maximização da utilidade esperada numericamente que consome muito tempo[...]”6. Porém eles fazem uma ressalva: “O preço a se pagar é que o foco é colocado somente em um número finito de momentos.” 6 Tradução do autor. 17 3. ANÁLISE DE COMPONENTES INDEPENDENTES (ACI) A ACI é uma técnica que permite, a partir de uma amostra de dados observados, supostamente independentes, e gerados a partir de uma mistura de outros dados, extrair as fontes de sinais que geraram a amostra, bem como o peso de cada fonte na mistura de dados, a partir de análise estatística das amostras. Observa-se as variáveis aleatórias no instante , as quais são modeladas como combinações lineares de observadas diretamente) e e , com variáveis aleatórias latentes (não : independentes por definição. Em notação matricial: é chamada matriz de mistura. Uma condição necessária para se determinar os componentes independentes é que estes não tenham distribuições gaussianas. Isso se deve ao fato que é impossível obter distribuições conjuntas de variáveis aleatórias que são transformações de variáveis aleatórias gaussianas, uma vez que a distribuição daquelas não dependem da matriz de transformação . Sendo assim, a matriz não pode ser estimada. Este fenômeno ocorre porque variáveis aleatórias gaussianas conjuntamente não-correlacionadas são necessariamente independentes. Tendo isso em vista, a não-gaussianidade é usada como princípio para estimação por ACI. Umas das possíveis medidas de não-gaussianidade é a curtose, porém, devido à alta sensibilidade desta a valores extremos, prefere-se outras medidas. Como outra opção, usa-se a negentropia que é baseada na quantidade de informação teórica do diferencial de entropia. A entropia com densidade é definido como: de um vetor aleatório 18 Como um resultado fundamental da teoria de informação é que variáveis gaussianas têm a maior entropia entre todas as variáveis aleatórias de igual variância, pode se afirmar que a negentropia de uma vetor aleatório não- gaussiano, definida na eq. 37, é sempre positiva; e, ao maximizá-la, determina-se os componentes independentes. Para se estimar os componentes independentes usando a negentropia como medida, é comum o uso de um algoritmo FastICA, o qual é de fácil implementação. 19 4. GARCHSK E IC-GARCHSK 4.1 GARCHSK O GARCHSK proposto em León, Rubio, e Serna (2004) é um modelo univariado baseado em uma expansão do tipo Gram-Charlier da função densidade da distribuição Normal para os erros, o qual leva em conta a dinâmica da assimetria e curtose da distribuição dos log-retornos dos ativos financeiros. Em León, Rubio, e Serna (2004), o modelo estimado para um ativo financeiro tem a seguinte estrutura : é o logaritmo neperiano dos retornos do ativo financeiro, informação no período . E , , são a variância, assimetria e curtose correspondentes à distribuição condicional dos resíduos padronizados Os parâmetros verdadeiros é conjunto . do modelo são estimados maximizando-se o logartimo da função de verossimilhança do modelo para observações que é: sendo que é o logaritmo neperiano da função de verossimilhança para uma observação t e é dada por: 20 e: A derivação para se chegar a fórmula de encontra-se no Apêndice A. Para garantir que a variância e a curtose condicional do modelo GARCHSK sejam positivas e também garantir a estacionariedade, deve-se impor restrições aos parâmetros estimados: . Utilizando a teoria assintótica, a estimação por máxima verossimilhança dos parâmetros pode ser aproximada pela distribuição: , em que I é a matriz de informação de Fischer, que é calculada a partir dos valores dos parâmetros estimados como a somatória do produto vetorial (produto externo) do gradiente de para cada elemento da amostra: A derivação das fórmulas de encontra-se no Apêndice B. 4.2 IC-GARCHSK Em uma extensão deste modelo para estimação de momentos condicionais de um portfólio com versão multivaridada: ativos, Qi-Fa Xu, Cui-Xia Jiang (2006) propõem a seguinte 21 sendo que é o vetor de erros padronizados; I é a matriz identidade de ordem são as matrizes de co-assimetria e co-curtose de , , , respectivamente; são vetores de ordem são matrizes quadradas de ordem de ordem ; , respectivamente; ; , são matrizes quadradas são matrizes quadradas de ordem ; ; denota o operador semi-vetor, o qual empilha os elementos inferiores triangulares de uma matriz quadrada de ordem n, em um vetor ; e representa o operador para o produto de Kronecker. O GARCHSK multivariado pode ser usado para a discutir a interação multivariável ou multi-mercado, isto é propagação da volatilidade (inclui variância, assimetria e curtose). O modelo GARCHSK multivariado é a extensão do modelo GARCH multivariado quando momentos superiores, especialmente o terceiro e quarto momentos, são considerados ao mesmo tempo. Há parâmetros a serem estimados no modelo representado pelas eqs. 48 a 52. Mesmo se considerada a situação mais simples, quando , existem 112 parâmetros desconhecidos a serem estimados. Se o número de variáveis ou ordem de defasagem aumenta por uma unidade, o número de parâmetros a serem estimados aumentará significantemente. Então o “desastre de dimensão” em um modelo GARCHSK multivariado é mais sério que em um modelo GARCH multivariado. [Qi-Fa Xu, Cui-Xia Jiang (2006)] 22 Para contornar este problema Qi-Fa Xu, Cui-Xia Jiang (2006) propõem um novo modelo, o IC-GARCHSK. Este utiliza-se da ACI (Análise de Componentes Independentes) para decompor as séries de tempo observadas e obter as fontes potenciais de sinal, levando em consideração que as séries são sinais emitidos pelo mercado financeiro e que, portanto, são misturas de algumas fontes de sinais independentes. Assim, se os componentes independentes, estatisticamente mutualmente independentes, e a matriz são existe, tal que: são os n independentes componentes do Então vetor de retornos e . E é uma matriz de posto-cheio desconhecida, que é o inverso da matriz de mistura definida na seção 3, e é chamada de matriz de separação. A partir da eq. 53, pode-se obter a variância, assimetria e curtose condicionais respectivamente como nas eqs. 54 a 56 abaixo: Uma vez estimados os componentes independentes, a variância, assimetria e curtose condicionais podem ser estimadas por um modelo GARCHSK univariado que pode ser representado pelas eqs. 57 a 59 a seguir: 23 e , , e são respectivamente a variância condicional, a assimetria condicional e a curtose condicional do l-ésimo componente independente IClt (l = 1,2,...,n). Assim a matriz de co-variância condicional, a matriz de co-assimetria condicional, e a matriz de co-curtose condicional dos ativos podem ser obtidas multiplicando-se ambos os lados das eqs. 54 a 56 pelo inverso das matrizes correspondentes. O resultado obtido é: e: sendo que é uma matriz quadrada de ordem entre os elementos n, j, e k, i.e formada pelas co-assimetrias . E, no caso de componentes independentes, somente quando n = j = k, ter-se-á valores diferentes de zero e iguais a (l = n = j = k) para os elementos Analogamente . é uma matriz quadrada de ordem curtoses entre os elementos n, i, j, e k, i.e formada pelas co- . Sendo que, no caso de componentes independentes, somente quando n = i = j = k, ter-se-á valores diferentes de zero e iguais a (l = n = i = j = k) para os elementos . 24 5. ANÁLISE EMPÍRICA Na seção 5.1, define-se a amostra utilizada. Na seção 5.2, caracteriza-se a mesma, apresentando-se as estatísticas e também os testes de normalidade, correlação serial, e heterocedasticidade. Já na seção 5.3, apresenta-se a estimação dos parâmetros IC-GARCHSK, necessário para calcular os momentos condicionais dos log-retornos dos pares de moedas. E na seção 5.4, são mostrados os resultados obtidos para as carteiras construídas com estes ativos, otimizando-se diretamente a função utilidade esperada aproximada pela expansões de Taylor de 2ª e 4ª ordem. Nesta última seção, consideram-se a alocação estática e a alocação dinâmica baseada nos momentos condicionais previstos pelo modelo estimado na seção 5.3. 5.1 A AMOSTRA A amostra é constituída pela série dos log-retornos7 dos preços diários em unidades monetárias da moeda em questão por dólar americano, nomeadamente: Euro (EUR), Florín Húngaro (HUF), Lira Turca (TRY), Real Brasileiro (BRL), Dólar Australiano (AUD), Dólar Neozelandês (NZD), e Peso Mexicano (MXN); e pela série com as taxas de juros ao ano do depósito interbancário de um dia nas respectivas moedas. Foram utilizados como critérios para a escolha dos pares de moedas a taxa de juros dos títulos destes países (maiores taxas de juros), bem como a presença de assimetria e excesso de curtose. A escolha do EUR se deveu ao fato de ter um ativo que possibilitasse diversificação dos momentos de ordem superior, uma vez que este par de moeda se afasta menos de uma distribuição Normal. A série dos preços, bem como das taxas de juros foram retiradas do software Bloomberg, com preços das quatro horas da tarde de Londres para as moedas, e taxa de fechamento para os juros. O período da amostra compreende as datas 01/Jan/2004 e 20/Out/2011. A escolha deste período da amostra se deveu ao fato da Lira Turca ter passado por grandes desvalorizações e mudança de regime cambial antes de 2004. O horário foi 7 dólar. , sendo que é o preço da moeda em questão em unidades monetárias dela por 25 escolhido com o intuito de se obter o período do dia de maior liquidez, e, consequentemente, preços mais justos (menores bid/ask). Durante a análise dos dados, o período da amostra foi dividido8 em diferentes períodos, para realizar análises dentro e fora da amostra. 5.2 CARACTERIZAÇÃO DA AMOSTRA Em uma investigação preliminar a cerca da amostra, a tabela 1 mostra a estimativa dos quatro primeiros momentos desta e os resultados dos testes de hipótese nula de normalidade, homocedasticidade, e correlação serial dos dados, todos realizados no software Matlab Student Version versão 7.12. Foca-se aqui em três testes de normalidade: a estatística Jarque-Bera (JB), proposta por Jarque e Bera (1980), a estatística Omnibus (OM), proposta por Doornik e Hansen (1994), e a estatística Komogorov-Smirnov (KS). Como se vê na tabela 1, todos os testes rejeitam a hipótese nula de normalidade com nível de significância inferior a 1%. O teste usado para correlação serial foi a estatística Ljung-Box para 5 e 20 defasagens, os quais mostram que os pares de moedas TRY, NZD, HUF, e EUR não apresentam correlação serial, porém os ativos AUD, BRL, e MXN apresentaram correlação serial até o nível de significância de 1%. Como se vê no gráfico 1 da função de auto-correlação, o AUD apresentou correlação na 1ª, 5ª, 13ª, e 17ª defasagens; no gráfico 2 o BRL apresentou auto-correlação na 1ª, 2ª, 12ª, 18ª, e 19ª; e o MXN na 1ª, 5ª, 18ª, e 19ª defasagens. No contexto de mercado, não há muito sentido em modelar retornos com defasagens além da 5ª. E, por último, o teste LM para heterocedasticidade proposto por Engle (1982) revelou que todas as séries dos log-retornos apresentam heterecedasticidade, uma vez que todos os pvalores foram inferiores a 1%, rejeitando-se firmemente a hipótese nula de homocedasticidade. Com base nestes resultados obtidos, conclui-se que um modelo dinâmico deve prever melhor a distribuição dos retornos dado a presença de correlação serial. Além disso, devido a presença de heterocedasticidade, conclui-se que é necessário modelar a dinâmica da variância das séries. 8 Quando isso ocorre, o autor detalha qual o período está sendo considerado para determinado estudo. 26 Tabela 1 – Estatística descritiva e testes de normalidade, correlação serial, e heterocedasticidade. Fonte: Elaboração própria Função de Autocorrelação Amostral Autocorrelação Amostral 0.8 0.6 0.4 0.2 0 -0.2 0 2 4 6 8 10 Lag 12 14 Gráfico 1 – Função de Autocorrelação Amostral do AUD. Fonte: Elaboração própria. 16 18 20 27 Função de Autocorrelação Amostral Autocorrelação Amostral 0.8 0.6 0.4 0.2 0 -0.2 0 2 4 6 8 10 Lag 12 14 16 18 20 16 18 20 Gráfico 2 – Função de Autocorrelação Amostral do BRL. Fonte: Elaboração própria. Função de Autocorrelação Amostral Autocorrelação Amostral 0.8 0.6 0.4 0.2 0 -0.2 0 2 4 6 8 10 Lag 12 14 Gráfico 3 – Função de Autocorrelação Amostral do MXN. Fonte: Elaboração própria. 28 5.3. ESTIMAÇÃO DOS PARÂMETROS DO MODELO IC-GARCHSK O primeiro passo foi estimar os componentes independentes das séries dos log-retornos para 5 dos 7 pares de moedas, escolhidos aleatoriamente, pelo método de negentropia sem levar em conta não-lineariedades. O algoritmo usado foi o de ponto fixo de Härvynen, Karhunen, e Oja (2001)9. Foram utilizados os seguintes pares de moedas: NZD, HUF, BRL, MXN, e EUR, para a sub-amostra compreendendo 2/3 iniciais da amostra10. No gráfico 4, mostra-se os retornos dos pares de moeda, e, no gráfico 5, os componentes independentes11. Gráfico 4 – Log-retornos de NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra. Fonte: Elaboração própria. 9 Aqui utilizou a rotina FastICA versão 2.5 para Matlab 6.x e 7.x baixada do endereço eletrônico da internet: http://research.ics.tkk.fi/ica/fastica/code/dlcode.shtml. 10 Mediante requisição, o autor fornecerá os resultados para diferentes sub-amostras para diferentes carteiras. 11 A matriz W de separação inicial foi escolhida como a matriz identidade, para uniformizar os resultados ao invés de deixar o algoritmo determiná-la aleatoriamente. Este fato não prejudica, nem altera os resultados finais, porém os componentes independentes diferem para cada W inicial se forem escolhidos aleatoriamente. 29 Gráfico 5 – Componentes independentes para os ativos NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra. Fonte: Elaboração própria. Obtidos os componentes independentes, o próximo passo foi a estimação do modelo IC-GARCHSK em si. O modelo estimado neste trabalho sofreu uma alteração em relação ao proposto em León, Rubio, e Serna (2004). Ao invés de se modelar o retorno esperado dos componentes independentes como um AR(1), utilizou-se uma média móvel semanal (5 dias úteis), com o intuito de capturar mudanças de tendência de curto prazo12, e a raiz quadrada da variância esperada, tentando-se capturar os efeitos de alavancagem13, como variáveis independentes. Além disso, utilizou-se a rotina de otimização fmincon do Matlab, ao invés do algoritmo BHHH do software Gauss, o qual foi utilizado no trabalho de León, Rubio, 12 Os resultados obtidos, para o retorno final dos portfólios simulados, foram melhores com o modelo aqui proposto do que com o do trabalho original de León, et al (2004). Sobre requisição, o autor pode fornecer os resultados obtidos com o modelo sem as modificações. 13 Claria, Davis, Pedersen (2009) documentam sensitividade da regressão de Fama ao regime de volatilidade. Seus resultados mostram que o coeficente do forward premium é superior a 1, para a sub-amostra de volatilidade enquadrada no quartil superior. 30 e Serna (2004). No Apêndice C, encontra-se a demonstração que, mesmo com estas alterações na equação dos retornos condicionais, a assimetria e curtose condicional dos retornos são iguais as de , e, portanto, a distribuição condicional destes seguem: sendo que , , são definidos como nas eq. 45 e 46, e é a função densidade Normal. E, assim, a função de máxima-verossimilhança pode ser calculada pela eq. 44. O modelo IC-GARCHSK possui alto grau de não-lineariedade devido ao grande número de parâmetros a serem estimados e a sua recursividade. Assim fazse necessário uma estimação em vários passos. Primeiro estimou-se os parâmetros para um GARCH-m (GARCH in mean) simples com a equação da média como descrito acima. Então estimou-se os parâmetros da eq. 40, utilizando-se a assimetria incondicional da amostra como chute inicial para o parâmetro parâmetros e , e zero para os . Os parâmetros da eq. 41 foram mantidos como zero. Estimados os parâmetros da eq. 40, procedeu-se da mesma maneira para estimar os parâmetros da eq. 41, mantendo os da eq. 40 fixos em zero. As soluções destas estimativas foram usadas como chute inicial para a estimação final. Foram estimados modelos distintos, escolhendo-se aleatoriamente 5 dos 7 pares de moedas, para diferentes tamanhos de sub-amostra (1/2 da amostra, 2/3 da amostra, 3/4 da amostra). Os resultados finais dos diferentes métodos de alocação comparados na seção 5.4. foram similares14. Os valores dos parâmetros do modelo IC-GARCHSK dos componentes independentes para a carteira contendo os pares de moedas NZD, HUF, BRL, MXN, e EUR, para a sub-amostra contendo os 2/3 iniciais da amostra estão na tabela 2, bem como o p-valor. Percebe-se os parâmetros são significativos a 5%, exceto os parâmetros da curtose defasada da equação da curtose condicional de todos os componentes, além das inovações defasadas da curtose condicional dos componentes independentes 2 e 4. O parâmetro referente a defasagem da variância tem valor 14 Mediante requisição, o autor fornecerá os resultados para diferentes sub-amostras para diferentes carteiras. 31 entre 0,73 e 0,97, o que denota alta persistência da variância dos componentes independentes. Outra fato a se notar e que foi recorrente para diferentes combinações de ativos é que o parâmetro ser zero ou próximo de zero, o que denota que a curtose não depende das inovações defasadas de um período. Tabela 2 – Parâmetros e p-valores do IC-GARCHSK estimado para a as moedas NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra. Fonte: Elaboração própria. 32 5.4 ALOCAÇÃO ESTÁTICA E DINÂMICA DE CARTEIRAS DE CARRY TRADE Para comparar um investidor que se preocupa apenas com os dois primeiros momentos, ou seja, com o critério média-variância prosposto por Markowitz (1952), com um que leva em consideração momentos de ordem superior, calcula-se o custo de oportunidade para a alocação usando a expansão de 2ª ordem em relação a de 4ª ordem. Este custo de oportunidade é definido em Simaan (1993). Neste trabalho considerou-se como hipóteses que o mercado é perfeito, competitivo, e com divisibilidade; não há custos de transação e tributários; e receitas advindas de vendas a descoberto podem ser usadas em sua integralidade. Estas hipóteses que são padrão na literatura de alocação de carteiras não prejudicam os resultados deste trabalho, uma vez que comparou-se métodos de alocação similares entre si. Primeiro procedeu-se com a alocação estática considerando-se os momentos incondicionais da amostra da seção 5.2 dos componentes independentes, e calculando as matrizes de co-variância, co-assimetria, co-curtose dos retornos dos ativos utilizando-se a da matriz de separação , usando o pacote de otimização fmincon do software Matlab Student Version versão 7.12 para estimar as alocações que maximizavam a função utilidade do investidor. Posteriormente realizou-se a alocação dinâmica, utilizando-se os parâmetros do modelo estimado na seção 5.3, para calcular as matrizes co-variância, co-assimetria, co-curtose dos retornos dos ativos para cada instante de tempo , através das eqs. 60 a 62, e, então determinouse as alocações para cada instante de tempo que maximizavam a função utilidade. No caso da alocação dinâmica, considerou-se a taxa de juros de um dia para depósito interbancários como uma parcela determinística acrescida à equação do retorno esperado. Para ambos os casos, foram feitos estudos dentro e fora da subamostra. Também, em cada caso, foram determinadas as alocações ótimas fazendo a otimização da função utilidade esperada obtida pelas expansões de 2ª e 4ª ordem. Na tabela 3 a seguir, para os dados fora da amostra, exibem-se os resultados obtidos da distância absoluta entre as alocações do portfólio obtido por otimização da expansão de 4ª ordem da utilidade esperada ( ) e do obtido pela estratégia 33 baseada na expansão até 2ª ordem ( ), ou seja, , onde é o número de ativos. Apresentam-se também os quatros momentos das estratégias, bem como o custo de oportunidade da estratégia baseadas na aproximação de 2ª ordem em relação a otimização da aproximação de 4ª ordem (prêmio de otimização). O custo de oportunidade é definido como sendo o retorno adicional que o portfólio obtido pela aproximação por expansão de Taylor deve ter para que o investidor fique indiferente, ou seja, é o e que satisfaz: é o retorno do portfólio para uma da aproximação função utilidade esperada, e é o retorno do portfólio obtido por otimização direta. Pode-se inferir dos resultados apresentados na tabela 3 que a aproximação de 4ª ordem da utilidade esperada apresentou desempenho superior para diferentes níveis de aversão ao risco , uma vez que o custo de oportunidade ao se utilizar a expansão de 2ª. ordem foi semrpe positivo. Conforme aumentou-se o grau de aversão ao risco, a norma também aumentou. Outro resultado que pode ser inferido da tabela 3 é que o fato de utilizar uma expansão de ordem superior levou a uma preferência pela diversificação dos momentos superiores para graus de aversão ao risco maiores. No caso da expansão de 4ª ordem, a variância e curtose continuam a serem reduzidas, e a assimetria aumentada para , o que não acontece de maneira significativa para a expansão de 2ª ordem. Os resultados para o caso da alocação dinâmica foram semelhantes no que diz respeito a desempenho da expansão utilizada, e podem ser vistos na tabela 4. Porém neste caso, os custos de oportunidade passam a ser menores que no caso da alocação estática. Para e , a expansão de 2ª ordem no caso estático apresentou respectivamente custos de oportunidade de 0,23 centavos por dólar investido e 0,26 centavos por dólar investido diariamente, enquanto no caso dinâmico estes custos forma respectivamente 0,15 e 0,12 centavos por dólar investido. 34 Tabela 3 – Custo de Oportunidade, Momentos,e Norma para alocação estática para a as moedas NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra. Fonte: Elaboração própria. Tabela 4 – Custo de Oportunidade e Momentos para alocação dinâmica para a as moedas NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra. Fonte: Elaboração própria. 35 CONCLUSÃO Neste trabalho estimou-se o modelo IC-GARCHSK, que foi utilizado para prever os momentos condicionais de uma carteira de carry trade. Percebeu-se que os momentos de ordem superior previsto por este modelo não variaram muito. Então comparou-se a alocação de carteiras de carry trade estática e dinâmica, considerando-se momentos de ordem superior e apenas média-variância. Em ambos casos, a alocação com momentos de ordem superior mostrou-se superior. Porém, ao se utilizar a estratégia dinâmica, este ganho foi consideravelmente reduzido. Como possível melhoria pode-se estimar um modelo mais robusto para estimação dos momentos condicionais superiores para tentar auferir melhores resultados. Uma estratégia alternativa seria utilizar um modelo GARCH-m com distribuição skew-t para estimar a média e variância em cada instante de tempo, e utilizar o modelo MQ-CAViaR proposto em White, Lo, e Manganelli (2008) para estimar a assimetria e curtoses condicionais. Uma outra possibilidade é utilizar a metodologia proposta em Jondeau e Rockinger (2008). Aqui n ão se comparou se a estratégia de alocação dinâmica é superior a estática. Este fato pode ser explorado em trabalhos futuros, comparando-se o custo de oportunidade entre as duas estratégias, levando-se em consideração custos de transação, bem como aversão a incertezas do modelo. Também não se levou em consideração o efeito de turnover nas alocações dinâmicas, efeito que deve ser levado em consideração ao se comparar duas estratégias que balanceiam suas alocacações dinamicamente. 36 REFERÊNCIAS ARDITTI, Fred D.. Risk and The Required Return on Equity. The Journal of Finance, Vol. 22, No. 1, pp. 19-36, Março 1996. BILSON, John F. O.. The “Speculative Efficiency”Hypothesis. The Journal of Business, Vol. 54, No. 3, pp. 435-451, Julho 1981. DELLA CORTE, Pasquale, SARNO, Lucio, & TSIAKA, Ilias. An Economic Evaluation of Empirical Exchange Rate Models. The Review of Financial Studies, Vol. 22, n° 9, pp. 3491-3530, 2009. ENGEL, Charles. The Forward Discount Anomaly and the Risk Premium: A Survey of Recent Evidence. NBER Working Paper Series 5312, Outubro 1995. FAMA, Eugene F.. Mandelbrot and the Stable Paretian Hypothesis. The Journal of Business, Vol. 36, No. 4, pp. 420-429, Outubro 1963. FAMA, Eugene F.. Random Walks In Stock Market Prices. Financial Analysts Journal 21, pp. 55–59, Outubro 1965. FAMA, Eugene F.. Forward and Spot Exchange Rates. The Journal of Monetary Economics, Vol. 14, pp. 319-338, 1984. FROOT, Kenneth A., & THALER, Richard H.. Anomalies Foreign Exchange. The Journal of Economics Perspectives, Vol. 4, No. 3, pp. 179-192, 1990. HYVÄRINEN, Aapo, KARHUNEN, Juha, & OJA, Erkki. Independent Component Analysis. 1st ed. A Wiley-Interscience Publication. 2001. 481 p. HOCHRADL, Markus, & WAGNER, Christian. Trading the Forward Bias: Are There Limits to Speculation?. Journal of International Money and Finance, Vol. 29, pp. 423441, 2010. HODRICK, R. J.. The Empirical Evidence on the Efficiency of Forward and Futures Foreign Exchange Markest. Chur: Harwood, 1987. JONDEAU, Eric, & ROCKINGER. Gram-Charlier Densities. Banque de France Working Paper No. 56. Julho 1999. JONDEAU, Eric, & ROCKINGER, Michael. Optimal Portfolio Allocation under Higher Moments. EFMA 2004 Basel Meeting Paper. Janeiro 2004. JONDEAU, Eric, & ROCKINGER, Michael. Time-Variability in Higher Moments is Important for Asset Allocation. Outubro 2008. JURCZENCKO, Emmanuel, & MAILLET, Bertrand. Multi-Moment Asset Allocation and Pricing Models. 1st ed. Wiley Finance. 2006. 233 p. 37 KROKK, Yoram, LEVY, Haim, & MARKOWITZ, Harry M.. Mean-Variance Versus Direct Utility Maximization. The Journal of Finance, Vol. 39, No. 1, pp. 47-61, Março 1984. LEÓN, Ángel, RUBIO, Gonzalo, & SERNA, Gregorio. Autoregressive Conditional Volatility, Skewness and Kurtosis. WP-AD 2004-13, Instituto Valenciano de Investigaciones Económicas, S.A.. LEVY, Haim. A Utility Function Depending on the First Three Moments. The Journal of Finance, Vol. 24. No. 4, pp. 715-719, Setembro 1969. LEVY, Haim, & MARKOWITZ, Harry M.. Approximating Expected Utility by a Function of Mean and Variance. The American Economic Review, Vol. 69. No 3, pp. 308-317, Junho 1979. MANDELBROT, Benoit. The Variation of Certain Speculative Prices. The Journal of Business, Vol. 36, No. 4, pp. 394-419, Outubro 1963. MARKOWITZ, Harry. Portfolio Selection. The Journal of Finance, Vol. 7, No. 1, pp. 77-91, Março 1952. SAMUELSON, Paul A.. The Fundamental Approximation Theorem of Portfolio Analysis in terms of Means, Variances and Higher Moments. The Review of Economics Studies. Vol. 37, No. 4, pp. 537-542, Outubro 1970. SIMAAN, Yusif. What is the Opportunity Cost of Mean-Variance Investment Strategies? Management Sciences, Vol. 39, No.5, pp. 578-587, Maio 1993. WAGNER, Christian. Risk-Premia, Carry-Trade Dynamics, and Economic Value of Currency Speculation. MPRA Paper N0. 21124, Agosto 2009. WHITE, Halbert, KIM, Tae-Hwan, & MANGANELLI, Simone. Modelling Autoregressive Conditional Skewness and Kurtosis with Multi-Quantile CAViaR. ECB Working Paer No. 957, Novembro 2008. XU, Qi-FA, JIANG, Cui-Xia, & KANG, Pu. Dynamic Portfolio Selection under Higher Moments. Proceeding of the Sixth International Conference on Machine Learning and Cybernetics, Agosto 2007. 38 APÊNDICE A A derivação aqui mostrada segue Jondeau e Rockinger (1999). De acordo com Jondeau e Rockinger (1999), se a distribuição de uma variável aleatória é similar à distribuição Normal, porém sua função distribuição de probabilidade é desconhecida, pode-se aproximar esta por: com sendo a densidade normal de média e variância unitária, e sendo escolhida de forma a garantir os primeiros momentos iguais a distribuição de . Uma vez que os polinômios de Hermite formam uma base ortogonal com respeito ao produto escalar gerado pela expectativa com a densidade Normal , a densidade verdadeira é aproximada por: e é polinômio de Hermite probabilístico de ordem , e são definidos como: Sendo assim os primeiros polinômios probabilísticos de Hermite são dados por: Usando expansão Gram-Charlier tipo A, tem-se: 39 Jondeau e Rockinger (1999) mostram que para uma expansão Gram-Charlier tipo A, e são respectivamente a assimetria e o excesso de curtose . Sendo assim a função densidade de probabilidade pode ser escrita como: Para garantir que positividade de e que a sua integral seja igual a 1, utiliza-se uma pdf transformada: Usando que , tem-se: e: Substituindo a eq. 38, temos que a função densidade em um instante é: Para uma amostra com observações, a função log-verossimilhança a parte de uma constante é dada pela eq. 43. E a eq. 44 vem através do log da função de verossimilhança da função densidade de . 40 APÊNDICE B Seja , , , , , e , onde , , e é um sub-espaço compacto Euclideano para garantir que o segundo, terceiro e quarto momentos de e sejam finitos. Então os parâmetros verdadeiros do modelo são estimados maximizando-se o logartimo da função de verossimilhança do modelo para onde observações que é: é o logaritmo neperiano da função de verossimilhança para uma observação t e é dada por: Para se chegar a fórmula , deve-se derivar em relação a cada vetor de parâmetros de cada equação do modelo. Derivando as eqs. 38 a 42, 44 e 45 em relação a , obtem-se: 41 E portanto: Analogamente para : E assim: Da mesma fora para : O que leva a: 42 Por último, derivando em relação a : O que resulta em: E, assim, o gradiente da função log-verossimilhança é: 43 APÊNDICE C Uma vez que a equação descritiva dos retornos foi alterada para: a média condicional e a variância para fica: uma vez que a variância condicional só tem termos determinísticos. Então a assimetria condicional de Analogamente, é: 44 APÊNDICE D CÓDIGO EM MATLAB PARA ESTIMAÇÃO DO IC-GARCHSK clear; % Importando dados dados_ica = xlsread('C:\Base de dados.xlsx', 'Sheet6', 'C:G'); % Obtendo o número de ativos e tamanho da amostra [obs,ativos]= size(dados_ica); % Definindo tamanho da amostra a ser utilizada in_sample = round(2/3*obs); out_sample = obs - in_sample; % Importanto taxas de juros de depósitos over-night da moeda de funding riskfree = xlsread('C:\Base de dados.xlsx', 'Sheet6', 'P:P'); dados = zeros(in_sample,ativos); dados_in_sample = zeros(in_sample,ativos); dados_out_sample = zeros(out_sample,ativos); % Importanto taxas de juros de depósitos over-night das moedas de carry on_rate = -xlsread('C:\Base de dados.xlsx', 'Sheet6', 'K:O'); on_rate_out = zeros(out_sample,ativos); % Definindo dados dentro da amostra for t = 1 : in_sample; dados(t,:) = dados_ica(t,:); dados_in_sample(t,:) = dados_ica(t,:); end % Definindo dados fora da amostra for t = in_sample + 1 : obs; dados_out_sample(t-in_sample,:) = dados_ica(t,:); on_rate_out(t-in_sample,:) = on_rate(t,:); end % Estimandos os componentes independentes W = eye(ativos); % Matriz de mistura inicial igual a identidade [icasig,W,U] = fastica (transpose(dados),'initGuess', W ); dados_transpostos = zeros(ativos,in_sample); dados_transpostos = icasig; dados = transpose(dados_transpostos); medias = transpose(sum(dados))/in_sample; % Inicializando variáveis data (amostra) fina_parameters (parâmetros % estimados do modelo ARGARCHSK e dados_arch (amostra para estimação do % modelo GARCH-m data = zeros(in_sample,ativos); final_parameters = zeros(11,ativos); dados_arch = zeros(in_sample-5,1); % Loop para estimação do modelo para cada ativo da amostra for n= 1:ativos; % Preencendo matriz com dados das amostras de cada ativo para estimação % do modelo ARGARCHSK data(:,n) = dados(:,n) - medias(n); % Preenchendo matriz com dados das amostras de cada ativo para % estimação do modelo GARCH-m dados_arch = dados(6:in_sample,n); garchmma = zeros(in_sample-5,1); for i=1:in_sample-5; garchmma(i)= mean(dados(i:i+4)); end; garchmoptions = GARCHOptSet('Mean',1); [garchmparam] = garchest(dados_arch,garchmma,[],garchmoptions); % Atribuindo parâmetros obtidos da estimação do GARCH-m para o chute 45 % inicial alpha(1,1) = garchmparam.theta(5); alpha(1,2) = garchmparam.theta(4); beta(1,1) = garchmparam.theta(1); beta(1,2) = garchmparam.theta(3); beta(1,3) = garchmparam.theta(2); Innovations = garchmparam.resid; % Calculando quantis segundo White(2004) dos resíduos do GARCH-m quants = quantile(Innovations,[0.025 0.25 0.5 0.75 0.975]); % Inicializando demais parâmetros do ARGARCHSK gamma(1,1) = (quants(4)+quants(2)-2*quants(3))/(quants(4)-quants(2)); gamma(1,2)= 1e-6; gamma(1,3)= 1e-6; delta(1,1) = (quants(5)-quants(1))/(quants(4)-quants(2)); delta(1,2)= 1e-6; delta(1,3)= 1e-6; startingvals = [transpose(alpha);transpose(beta);transpose(gamma);transpose(delta)]; matrix_startingvals(:,n) = startingvals; % Vetor com todos os parâmetros do ARGARCHSK com parâmetros da equação % de curtose condicional fixados em zero startingvals1 = [transpose(alpha);transpose(beta);transpose(gamma)]; % Vetor com todos os parâmetros do ARGARCHSK com parâmetros da equação % de assimetria condicional fixados em zero startingvals2 = [transpose(alpha);transpose(beta);transpose(delta)]; % Definindo opções da ferramenta de otimização restrita do MATLAB options = optimset('fmincon'); options = optimset(options,'Display', 'off'); options = optimset(options,'MaxFunEvals', 5000); options = optimset(options,'MaxIter', 500); options = optimset(options,'TolFun', 1e-6); options = optimset(options,'TolX', 1e-6); options = optimset(options,'FunValCheck', 'off'); options = optimset(options,'LargeScale', 'off'); options = optimset(options,'Hessian','bfgs'); options = optimset(options,'LineSearchType', 'quadcubic'); options = optimset(options,'Algorithm', 'SQP'); % Definindo vetores com restrições inferiores e superiores dos % parâmteros para o caso com os parâmetros da equação da curtose % condicional fixados em zero LB = [-1+1e-12;-1+1e-12; 1e-12; 1e-12; 1e-12; -1e+12;-1+1e-12;1+1e-12]; UB = [ 1-1e-12; 1-1e-12; 1e+12; 1-1e-12; 1-1e-12; +1e+12; 1-1e-12; 11e-12]; % Definindo matriz com restrições em forma de inequação dos parâmetros A = [1 1 0 0 0 0 0 0; ... -1 -1 0 0 0 0 0 0; ... 0 0 0 1 1 0 0 0; ... 0 0 0 0 0 0 1 1; ... 0 0 0 0 0 0 -1 -1]; % Definindo limites das inequaçoes dos parâmetros b = [1;1;1;1;1]-1e-12; % Estimando parâmetros do caso com parâmetros da equação da curtose % condicional fixados em zero [parameters, LLF, EXITFLAG, OUTPUT, LAMBDA, GRAD] = fmincon('garchsk_likelihood1', startingvals1 , A , b ,[] , [] , LB , UB,[],options, data, in_sample, n); % Obtendo vetor de parâmetros da equação de assimetria % condicional gamma = [ parameters(6),parameters(7),parameters(8)]; % Definindo vetores com restrições inferiores e superiores dos 46 % parâmteros para o caso com os parâmetros da equação da assimetria % condicional fixados em zero LB = [-1+1e-12;-1+1e-12;1e-12; 1e-12; 1e-12; 1e-12; 1e-12; 1e-12]; UB = [ 1-1e-12; 1-1e-12;1e+12; 1-1e-12; 1-1e-12; 1e+12; 1-1e-12; 11e-12]; % Definindo matriz com restrições em forma de inequação dos parâmetros A = [1 1 0 0 0 0 0 0; ... -1 -1 0 0 0 0 0 0; ... 0 0 0 1 1 0 0 0; ... 0 0 0 0 0 0 1 1]; % Definindo limites das inequaçoes dos parâmetros b = [1;1;1;1]-1e-12; % Estimando parâmetros do caso com parâmetros da equação da assimetria % condicional fixados em zero [parameters, LLF, EXITFLAG, OUTPUT, LAMBDA, GRAD] = fmincon('garchsk_likelihood2', startingvals2 , A , b ,[] , [] , LB , UB,[],options, data, in_sample, n); % Obtendo vetor de parâmetros da equação de curtose % condicional delta = [ parameters(6),parameters(7),parameters(8)]; % Vetor inicial com todos os parâmetros do ARGARCHSK startingvals = [transpose(alpha);transpose(beta);transpose(gamma);transpose(delta)] % Definindo vetores com restrições inferiores e superiores dos % parâmteros do ARGARCHSK LB = [-1+1e-12;-1+1e-12; 1e-12; 1e-12; 1e-12;-1e+12;-1+1e-12;-1+1e12; 1e-12; 1e-12; 1e-12]; UB = [ 1-1e-12; 1-1e-12; 1e+12; 1-1e-12; 1-1e-12; 1e+12; 1-1e-12; 1-1e12; 1e+12; 1-1e-12; 1-1e-12]; % Definindo matriz com restrições em forma de inequação dos parâmetros A = [1 1 0 0 0 0 0 0 0 0 0; ... -1 -1 0 0 0 0 0 0 0 0 0; ... 0 0 0 1 1 0 0 0 0 0 0; ... 0 0 0 0 0 0 1 1 0 0 0; ... 0 0 0 0 0 0 -1 -1 0 0 0; ... 0 0 0 0 0 0 0 0 0 1 1]; % Definindo limites das inequaçoes dos parâmetros b = [1;1;1;1;1;1]-1e-12; % Estimando parâmetros do ARGARCHSK [parameters, LLF, EXITFLAG, OUTPUT, LAMBDA, GRAD] = fmincon('garchsk_likelihood', startingvals , A , b ,[] , [] , LB , UB,[],options, data, in_sample, n); % Armazaendo parâmetros estimados final_parameters(:,n) = parameters; end % Calculando as variâncas assintóticas dos parâmetros do modelo estimado e % os respectivos p-valores asymptotic_covariance_matrix = zeros(11,11,ativos); asymptotic_variance = zeros(11,ativos); t_stats = zeros(11,ativos); pvalues = zeros(11,ativos); for n = 1 : ativos; [info_matrix] = garchsk_info_matrix_Nelson3(final_parameters(:,n),data,in_sample,n); asymptotic_covariance_matrix(:,:,n) = (pinv(info_matrix))/in_sample; for cont = 1 : 11; asymptotic_variance(cont,n) = asymptotic_covariance_matrix(cont,cont,n); t_stats(cont,n) = (final_parameters(cont,n))/((asymptotic_variance(cont,n)/in_sample)^0.5); 47 pvalues(cont,n) = 2*(1 - tcdf(abs(t_stats(cont,n)),in_sample-1)); end; end; % Escrevendo em Excel os resultados obtidos para os parâmetros, bem como % seus p-valores e erro padrão xlswrite('C:\Resultados.xlsx', final_parameters, 'Parâmetros','A1:E11'); xlswrite('C:\Resultados.xlsx', pvalues, 'Parâmetros','A13:E23'); xlswrite('C:\Resultados.xlsx',asymptotic_variance.^0.5,'Parâmetros','A25:E3 5'); ESTIMAÇÃO DA FUNÇÃO MÁXIMA VEROSSIMILHANÇA function [LT,innovs] = llt(theta_zero,novos_dados,obs,n) z1= zeros(obs-5,3,1); z2= zeros(obs-5,3,1); z3= zeros(obs-5,3,1); alpha = [theta_zero(1), theta_zero(2)]; beta= [ theta_zero(3),theta_zero(4),theta_zero(5)]; gamma = [ theta_zero(6),theta_zero(7),theta_zero(8)]; delta= [ theta_zero(9),theta_zero(10),theta_zero(11)]; e= zeros(obs-5,1); h= ones(obs-5,1); dum= zeros(obs-5,1); ni = zeros(obs-5,1); s = ones(obs-5,1); k = ones(obs-5,1); quants = quantile(novos_dados(:,n),[0.025 0.25 0.5 0.75 0.975]); h(1,1)= var(novos_dados(:,n)); s(1,1) = skewness(novos_dados(:,n)); k(1,1) = (quants(5)-quants(1))/(quants(4)-quants(2)); psi = ones(obs-5,1); gamma_M= ones(obs-5,1); e(1) = novos_dados(6,n) - alpha(1,1)*mean(novos_dados(1:5,n))alpha(1,2)*h(1)^0.5; ni(1)= (h(1)^(-0.5))*e(1); psi(1) = 1 + (s(1)*((ni(1)^3) - 3*ni(1))/6) + ((k(1) - 3)*((ni(1)^4) 6*(ni(1)^2) + 3)/24); gamma_M(1) = 1 + (s(1)^2)/6 + (((k(1)-3)^2)/24); lt = zeros(obs-5,1); for t= 2:obs-5; z1(t,:)= [1,e(t-1)^2,h(t-1)]; h(t) = z1(t,:)*transpose(beta); media_movel = mean(novos_dados(t:t+4,n)); e(t) = novos_dados(t+5,n) - alpha(1,1)*media_movel alpha(1,2)*h(t)^0.5; z2(t,:) = [1,ni(t-1)^3,s(t-1)]; s(t) = z2(t,:)*transpose(gamma); z3(t,:) = [1,ni(t-1)^4,k(t-1)]; k(t) = z3(t,:)*transpose(delta); ni(t)= (h(t)^(-0.5))*e(t); psi(t) = 1 + (s(t)*((ni(t)^3) - 3*ni(t))/6) + ((k(t) 3)*((ni(t)^4) - 6*(ni(t)^2) + 3)/24); 48 gamma_M(t) = 1 + (s(t)^2)/6 + (((k(t)-3)^2)/24); lt(t) = -1/2*log(h(t)) - 1/2*(ni(t)^2) + log(psi(t)^2) log(gamma_M(t)); end LT = -sum(lt); innovs = e; return