FUNDAÇÃO GETÚLIO VARGAS
ESCOLA DE ECONOMIA DE SÃO PAULO
PABLO FRISANCO OLIVEIRA
ALOCAÇÃO DINÂMICA ÓTIMA COM MOMENTOS DE ORDEM SUPERIOR PARA
A ESTRATÉGIA DE CARRY TRADE
SÃO PAULO
2012
PABLO FRISANCO OLIVEIRA
ALOCAÇÃO DINÂMICA ÓTIMA COM MOMENTOS DE ORDEM SUPERIOR PARA
A ESTRATÉGIA DE CARRY TRADE
Dissertação apresentada à Escola de
Economia de São Paulo da Fundação
Getúlio Vargas, como requisito para
obtenção do título de Mestre em
Economia.
Campo de Conhecimento:
Alocação de Carteira
Orientador:Prof. Dr. Emerson F Marçal
SÃO PAULO
2012
Oliveira, Pablo F..
Alocação Dinâmica Ótima com Momentos de Ordem Superior para a Estratégia
de Carry Trade / Pablo F. Oliveira. - 2012
50 f.
Orientador: Emerson Fernandes Marçal.
Dissertação (MPFE) - Escola de Economia de São Paulo.
1. Taxa de juros. 2. Câmbio. 3. Investimentos - Análise. 4.Investidores
(Finanças). I. Marçal, Emerson Fernandes. II. Dissertação (MPFE) - Escola de
Economia de São Paulo. III. Título.
CDU 336.745
PABLO FRISANCO OLIVEIRA
ALOCAÇÃO DINÂMICA ÓTIMA COM MOMENTOS DE ORDEM SUPERIOR PARA
A ESTRATÉGIA DE CARRY TRADE
Dissertação apresentada à Escola de
Economia de São Paulo da Fundação
Getúlio Vargas, como requisito para
obtenção do título de Mestre em
Economia.
Campo de Conhecimento:
Alocação de Carteira
Data de aprovação:
30/Janeiro/2012
Banca Examinadora:
______________________________
Prof. Dr. Emerson Fernandes Marçal
(Orientador) FGV-EESP
FGV-EESP
______________________________
Prof. Dr. João Filipe B. V. de
Mendonça. Mergulhão
FGV-EESP
______________________________
Prof. Dr. Fernando Antonio Slaibe
Postali
USP-FEA
SÃO PAULO
2012
RESUMO
O objetivo do presente trabalho é verificar se, ao levar-se em consideração
momentos de ordem superior (assimetria e curtose) na alocação de uma carteira de
carry trade, há ganhos em relação à alocação tradicional que prioriza somente os
dois primeiros momentos (média e variância). A hipótese da pesquisa é que moedas
de carry trade apresentam retornos com distribuição não-Normal, e os momentos de
ordem superior desta têm uma dinâmica, a qual pode ser modelada através de um
modelo da família GARCH, neste caso IC-GARCHSK. Este modelo consiste em uma
equação para cada momento condicional dos componentes independentes,
explicitamente: o retorno, a variância, a assimetria, e a curtose. Outra hipótese é que
um investidor com uma função utilidade do tipo CARA (constant absolute risk
aversion), pode tê-la aproximada por uma expansão de Taylor de 4ª ordem. A
estratégia do trabalho é modelar a dinâmica dos momentos da série dos logartimos
neperianos dos retornos diários de algumas moedas de carry trade através do
modelo IC-GARCHSK, e estimar a alocação ótima da carteira dinamicamente, de tal
forma que se maximize a função utilidade do investidor. Os resultados mostram que
há ganhos sim, ao levar-se em consideração os momentos de ordem superior, uma
vez que o custo de oportunidade desta foi menor que o de uma carteira construída
somente utilizando como critérios média e variância.
Palavras-chave: Carry trade, Alocação de Carteiras, Análise de Componentes
Independentes, Momentos de Ordem Superior, GARCH, IC-GARCHSK
ABSTRACT
The aim of the present work is verify if, when the higher moments (skewness
and kurtosis) are taken in consideration for carry trade portfolio allocation
optimization, an investor can be better off than the traditional allocation, which
prioritizes only the first two moments (mean and variance). The hypothesis of the
research is that a carry trade currency exhibits non-Normal returns distribution, and
its higher moments have a dynamic which can be modeled by GARCH-type model, in
this specific case IC-GARCHSK. This model consists of one equation to each of the
independent components’ conditional moments, named the returns, variance, the
skewness, and the kurtosis. Another hypothesis is that a CARA (constant absolute
risk aversion) utility function investor can have its function approximated by 4th order
Taylor expansion. The work’s strategy is modelling the dynamics of the daily logreturns series’ moments of some carry trade currencies using the model above and
dynamically estimate the optimal allocation which maximizes the investor’s expected
utility function. The results show that the investor can benefit from taking in
consideration the series’ higher moments, once this portfolio exhibited smaller
opportunity cost than one that uses only mean and variance as criteria.
Key words: Carry trade, Portfolio Allocation, Independent Component Analysis,
Higher Moments, GARCH, IC-GARCHSK
SUMÁRIO
INTRODUÇÃO
6
1. PARIDADE DESCOBERTA DE JUROS E CARRY-TRADE
8
2. ALOCAÇÃO DE CARTEIRAS COM MOMENTOS DE ORDEM SUPERIOR
11
2.1 O PROBLEMA DA ALOCAÇÃO E A APROXIMAÇÃO DA FUNÇÃO UTILIDADE
ESPERADA
11
2.2 SOLUÇÃO ÓTIMA O CASO ESPECÍFICO DA FUNÇÃO UTILIDADE TIPO CARA
14
3. ANÁLISE DE COMPONENTES INDEPENDENTES – ACI
17
4. GARCHSK E IC-GARCHSK
19
4.1 GARCHSK
19
4.2 IC-GARCHSK
20
5. ANÁLISE EMPÍRICA
24
5.1 A AMOSTRA
24
5.2 CARACTERIZAÇÃO DA AMOSTRA
25
5.3. ESTIMAÇÃO DOS PARÂMETROS DO MODELO IC-GARCHSK
28
5.4. ALOCAÇÃO ESTÁTICA E DINÂMICA DE CARTEIRAS DE CARRY-TRADE
32
CONCLUSÃO
35
REFERÊNCIAS
36
APÊNDICE
38
APÊNDICE A
38
APÊNDICE B
40
APÊNDICE C
43
APÊNDICE D
44
6
INTRODUÇÃO
Dois fatos estilizados são as motivações deste trabalho. O primeiro é o
“Forward Premium Puzzle”, o qual diz respeito a não verificação da Paridade
Descoberta de Taxa de Juros (doravante PDTJ). De acordo com a PDTJ, sob
neutralidade ao risco e expectativas racionais, o valor esperado para a variação da
taxa de câmbio das moedas de dois países distintos para um determinado período é
igual ao diferencial de taxa de juros que os títulos de dívida destes pagam, i.e.
espera-se que a moeda do país com títulos que pagam maior taxa de juros depreciese em relaçao a moeda do outro país na mesma proporção do diferencial das taxas
de juros entre estes dois títulos. Porém o que se verifica é que as moedas de países
com títulos de dívida de maior taxa de juros tendem a apreciar relativamente às de
países com títulos de taxas de juros mais baixas.
Tentando explorar os desvios da PDTJ, agentes de mercado usam de uma
estratégia conhecida como carry trade para tentar realizar lucros. A estratégia
consiste em investir os recursos emprestados na moeda de juros menor na moeda
de maior juros. E contanto que esta não deprecie mais que o diferencial de taxas, o
investidor aufere um ganho.
O segundo fato estilizado é a não-normalidade dos retornos de ativos
financeiros. Vários modelos de precificação de ativos assumem como hipótese que a
distribuição dos retornos dos ativos segue uma distribuição Normal. No entanto, o
que se verifica é que há uma maior ocorrência de observações de retornos
negativos (assimetria negativa) e uma frequência de eventos extremos maior do que
a esperada pela distribuição Normal (excesso de curtose).
O trabalho visa explorar esses dois fatos, propondo uma estratégia de
alocação dinâmica ótima de carry trade, em que se leva em consideração o fato dos
retornos de moedas de carry trade não possuírem distribuição Normal.
Na seção 1, apresenta-se uma discussão sobre PDTJ e carry trade, fazendo
a relação de como o “Forward Premium Puzzle” pode ser explorado pela estratégia
de carry trade. Na seção 2, descorre-se sobre alocação de carteiras sob momentos
de ordem superior, apresentando o problema de um investidor com um função
7
utilidade do tipo von Neumann-Morgenstern, e sua solução para uma função do tipo
CARA aproximada por uma expansão de Taylor de 4ª ordem. Na seção 3 descorrese sobre Análise de Componentes Independentes. Na seção 4 apresenta-se o
modelo
econométrico
GARCHSK
(Generalized
Autoregressive
Conditional
Heterokesdaticity Skewness Kurtosis) e sua extensão multivariada IC-GARCHSK
(Independent
Components
-
Generalized
Autoregressive
Conditional
Heterokesdaticity, Skewness, Kurtosis), utilizado para previsão dos momentos
condicionais dos log-retornos dos ativos. Na seção 5 faz-se o dethamento do
procedimento empírico da dissertação, e também apresentam-se os resultados
obtidos, bem como, sua análise. E, na útlima seção, redige-se as considerações
finais e conclusões, sugerindo possíveis melhorias e extensões para o estudo aqui
realizado.
8
1. PARIDADE DESCOBERTA DE JUROS E CARRY-TRADE
A PDTJ afirma que, sobre condições de neutralidade ao risco e expectativas
racionais, a variação da taxa de câmbio esperada entre dois países em um certo
período de tempo é igual ao diferencial das taxas de juros des dois países:
sendo que
denota o valor esperado condicional a um conjunto informação até o
período t,
é o logaritmo neperiano da taxa de câmbio em unidades monetárias
doméstica por unidade monetária estrangeira, e
,
são os logaritmos neperianos
das taxas de juros doméstica e estrangeira respectivamente.
A Paridade Coberta da Taxa de Juros (PCTJ), uma condição de nãoarbitragem, que, sobre a hipótese de expectativas racionais, é considerada válida,
afirma que a diferença entre a taxa de câmbio forward para um certo período de
tempo e a taxa de câmbio spot deve ser igual ao diferencial de taxas de juros:
na qual
é o logaritmo neperiano da taxa de câmbio forward em unidades
monetárias doméstica por unidade monetária estrangeira.
Testes sobre a verificação da PDTJ consistem em substituir a eq. 2 na eq. 1 e
rodar a seguinte regressão, conhecida como regressão de Fama (1984):
Se a PDTJ é uma hipótese verdadeira, os seguintes resultados são
esperados:
,
, e
é não-correlacionado ao conjunto informação
disponível em .
Desde o trabalho de Bilson (1981), passando por Fama (1984), Hodrick
(1987), Froot e Thaler (1990), Engel (1996), entre outros, tem-se constantemente
verificado que a hipótese de PDTJ é rejeitada. Este fato estilizado ficou conhecido
como Forward Premium Puzzle. E, além disso, o parâmetro
tende a ser negativo,
9
i.e. as moedas de países com títulos de maior taxa de juros tendem a apreciar
relativamente às de países com títulos de taxas de juros mais baixas1.
Bilson (1981) testa a hipótese de Eficiência Especulativa, estimando a
regressão de Fama através do método MQG (Mínimos Quadrados Generalizados)
para dados de diferentes moedas em seção transversal, para aumentar a eficiência
dos estimadores. Ele ainda separa em dois grupos a variável forward premium (uma
variável para o grupo das observações com valores em módulo inferiores a 10% e
outra para o restante da amostra). Em seu trabalho, Bilson (1981) rejeita a hipótese
de Eficiência Especulativa, uma vez que seu modelo conseguiu gerar uma estratégia
especulativa para gerar lucros previsíveis, a partir da exploração do viés do mercado
de câmbio.
Fama (1984) conclui que a variação das taxas forward de câmbio é, em sua
maioria, devido a variações nos prêmios e que o prêmio e o valor esperado dos
componentes da taxa futura de câmbio das taxas forward de câmbio são
negativamente correlacionados entre si.
Já Froot e Thaler (1990) discutem as principais teorias que tentam explicar
este puzzle. Eles citam o Prêmios pelo Risco (Risk Premia), Erros Expectacionais
(Peso Problem), e Aprendizado (Learning). Após apresentar as deficiências destas
teorias, eles propõem uma possível explicação: no curto prazo, o mercado é
ineficiente, pois há uma demora na resposta de alguns investidores, ou porque eles
demoram um tempo para pensar sobre a estratégia, ou simplesmente porque os
investidores não respondem rápido a informações recentes.
Engel (1996) faz uma extensa revisão sobre a modelagem e testes para Risk
Premium, incluindo testes de consumption CAPM, modelos de variável latente, e
modelos de portfólio balanceado. Ele ainda examina os modelos de equilíbrio geral e
discute sobre suas implicações.
Partindo em uma direção diferente da literatura que tenta explicar os desvios
da PDTJ, há uma com o intuito de explorá-la, tentando auferir o benefício econômico
que um investidor tem ao ingressar em uma estratégia de carry trade. Bilson (1981)
1
Froot(1990): “O coeficiente médio estimado em 75 estimativas publicadas é -0,88.”
10
propõe montar uma carteria de carry trade, levando em consideração custos de
transação e exigência de depósito de margens, e mostra que, embora seu modelo
sobre-estime o retorno esperado e sub-estime o risco, a estratégia ainda é lucrativa.
Hochradl e Wagner (2008) mostram que, ao construir carteiras de carry trade
com otimização restrita, é possível obter retornos com índices de Sharpe superiores
a benchmarks razoáveis, mesmo após considerar-se custos de transação.
Della Corte, Sarno, e Tsiaka (2009) concluem que a habilidade preditiva dos
forward premium tem valor econômico substancial no contexto da alocação dinâmica
de carteiras de câmbio e que os modelos de volatilidade estocástica performam
melhor que os de volatilidade constante e GARCH(1,1). Seus resultados são
robustos aos altos custos de transação e justificam o amplo uso do viés do forward
premium e timing de volatilidade para a gestão de carteiras de câmbio.
Já Wagner (2009) encontra que a PDTJ se verifica em um sentido
especulativo, ou seja, embora os testes tradicionais sobre os valores teóricos
,
rejeitem a hipótese da PDTJ, o mesmo não ocorre com testes que levam em
consideração que desvios do valor teórico de
são compensados por desvios de ,
e, portanto, o excesso de retorno não é significantemente diferente de zero.
Também conclui que o viés do forward premium é causado pela omissão de um
prêmio pelo risco variante no tempo e que a estratégia de carry trade para uma
carteira multi-moedas realmente gera valor econômico.
11
2. ALOCAÇÃO DE CARTEIRAS COM MOMENTOS DE ORDEM SUPERIOR
É de longa data o conhecimento que os ativos financeiros não apresentam
retornos que seguem o padrão de uma distribuição Normal. Mandelbrot (1963),
Fama (1963,1965) são frequentemente citados. Este fato levou a uma literatura que
questionava a adequabilidade do critério média-variância proposto por Markowitz
(1952), buscando a introdução de momentos de ordem superior na função utilidade
esperada. Pode-se citar os trabalhos de Arditti (1967), Levy (1969), e Samuelson
(1970) como trabalhos nesta linha.
Como notam Jondeau e Rockinger (2004), mais recentemente novas técnicas
para resolver o problema de alocação de carteiras com momentos de ordem
superior foram desenvolvidas, baseadas na técnica de Polynomial Goal Programing
(PGP)2. Mas como eles ressalvam: “Uma desvantagem deste método, entretanto, é
que o problema de alocação resolvido pelo método PGP não pode ser precisamente
relacionado com uma aproximação da utilidade esperada.” Sendo assim, Jondeau e
Rockinger (2004) propõem uma alternativa através do uso de uma expansão de
Taylor como aproximação da função utilidade esperada.
Na seção a seguir, apresenta-se o problema de alocação de carteira ótima
para um investidor com uma função utilidade esperada
, sua aproximação
por uma expansão de Taylor, e a solução ótima para este investidor, utilizando esta
expansão.
2.1 O PROBLEMA DA ALOCAÇÃO E A APROXIMAÇÃO DA FUNÇÃO
UTILIDADE ESPERADA
Seja um investidor que maximiza sua utilidade esperada do tipo von
Neumann-Morgenstern
2
ao fim do período , cuja
função preferência
O método PGP consiste em transformar um problema de otimização multi-objetivo em um único polinômio
que é representado pelas distâncias em módulos dos ótimos individuais de cada objetivo e a solução geral. O
problema, então, passa a ser a minimização destas distâncias elevadas a um peso conhecido ou determinado
empiricamente.
12
pertence a uma classe de funções utilidade
alocar sua renda inical
3,
e que dispõe de
ativos para
(arbitrariamente escolhida igual 1), com vetor de retornos
e função distribuição acumulada mulitvariada contínua
Se este investidor aloca frações em cada ativo, representadas
pelo vetor
, sua renda ao final do período é dada por
, onde
. Impondo-se que a somatória de todas as frações é 1, e que
são todas maiores que zero, ou seja, o investidor não vende a descoberto e não tem
acesso a um ativo livre de risco, a alocação ótima é obtida resolvendo-se o seguinte
problema:
As n condições de primeira ordem são:
sendo que
Se
é a j-ésima derivada de
com relação a
é diferenciável em um intervalo , pode aproximar-se
por uma expansão de Taylor de ordem
e
em torno de
, e temos:
, é o valor esperado da renda ao final do período,
, o valor esperado do vetor de retornos, e
é o resto de Lagrange
definido como:
3
onde
.
é a j-ésima derivada de da funçã utilidade em relação a
.
13
sendo que
se
, ou
se
,e
.
Sendo assim, a utilidade esperada pode ser aproximada por:
Como mostra Lhabitant (1997), sobre algumas condições4 é possível escrever
a eq. 9 em função dos momentos da distribuição dos retornos.
e:
são respectivamente a variância, assimetria, curtose absolutas5, e o k-ésimo
momento centrado do retorno da carteira do investidor ao final do período,
é o retorno esperado da carteira, e
.
4
No capitulo 1 do livro Multi-moment Asset Allocation and Pricing Models, páginas 4 a 10, Jurczenko e Maillet fornecem as
condições sobre as quais é possível expressar uma função de utilidade esperada continuamente diferenciável em função de
todos os momentos da distribuição dos retornos.
5
A definição de assimetria e curtose absoluta diferem da definição estatística como momentos superiores centais
padronizados:
14
Como a função utilidade do investidor é do tipo
, segue da eq. 10 que a
utilidade esperada depende positivamente do retorno esperado e da assimetria e
negativamente da variância e curtose. Ou seja, o investidor tem preferência por
maiores retornos positivos, e aversão a risco e ocorência de eventos extremos e
infreqüentes.
2.2 SOLUÇÃO ÓTIMA PARA O CASO ESPECÍFICO DA FUNÇÃO UTILIDADE
TIPO CARA
Definem-se as matrizes de co-variância, co-assimetria, e co-curtose no
instante de
e
ativos,
,
,e
, respectivamente, como sendo:
denota produto de Kronecker,
,
,e
tem dimensões
,
,e
respectivamente, e seus elementos são dados por:
com
.
Pode-se reescrever agora as definições de retorno, variância, assimetria e
curtose do portfólio em função de
,
,e
da seguinte forma:
15
Considera-se agora um investidor com uma funçao do tipo CARA (Constant
Absolute Risk Aversion), como coeficiente de aversão ao risco
, definida como:
e a expansão de Taylor de 4ª ordem da utitilidade esperada como:
Então, depois de algumas manipulações algébricas, a condição de primeira
ordem em relação a
para achar-se a solução ótima será dada por:
As definições dos momentos da carteira como nas eqs. 15 a 17, permitem
calcular diretamente as derivadas destes em relação ao vetor
E assim, a eq. 27 pode ser reescrita nesta forma:
:
16
e
O sistema de eq. 32 acima pode ser facilmente resolvida usando um pacote
de otimização padrão, para se obter a solução ótima para uma função utilidade do
tipo CARA. Alternativamente, pode-se otimizar a eq. 26 para se obter a solução
ótima.
Conforme Jondeau e Rockinger (2004): “A principal vantagem do método
proposto aqui é que os pesos atribuídos aos vários momentos da carteira na eq. 32
são selecionados com base na função utilidade, enquanto eles são arbitrariamente
escolhidos no método PGP. Resolver a eq. 32 também fornece uma alternativa ao
método baseado na maximização da utilidade esperada numericamente que
consome muito tempo[...]”6. Porém eles fazem uma ressalva: “O preço a se pagar é
que o foco é colocado somente em um número finito de momentos.”
6
Tradução do autor.
17
3. ANÁLISE DE COMPONENTES INDEPENDENTES (ACI)
A ACI é uma técnica que permite, a partir de uma amostra de dados
observados, supostamente independentes, e gerados a partir de uma mistura de
outros dados, extrair as fontes de sinais que geraram a amostra, bem como o peso
de cada fonte na mistura de dados, a partir de análise estatística das amostras.
Observa-se as
variáveis aleatórias
no instante , as quais são
modeladas como combinações lineares de
observadas diretamente)
e
e
, com
variáveis aleatórias latentes (não
:
independentes por definição. Em notação matricial:
é chamada matriz de mistura.
Uma condição necessária para se determinar os componentes independentes
é que estes não tenham distribuições gaussianas. Isso se deve ao fato que é
impossível
obter
distribuições
conjuntas
de
variáveis
aleatórias
que
são
transformações de variáveis aleatórias gaussianas, uma vez que a distribuição
daquelas não dependem da matriz de transformação
. Sendo assim, a matriz
não pode ser estimada. Este fenômeno ocorre porque variáveis aleatórias
gaussianas
conjuntamente
não-correlacionadas
são
necessariamente
independentes.
Tendo isso em vista, a não-gaussianidade é usada como princípio para
estimação por ACI. Umas das possíveis medidas de não-gaussianidade é a curtose,
porém, devido à alta sensibilidade desta a valores extremos, prefere-se outras
medidas. Como outra opção, usa-se a negentropia que é baseada na quantidade de
informação teórica do diferencial de entropia. A entropia
com densidade
é definido como:
de um vetor aleatório
18
Como um resultado fundamental da teoria de informação é que variáveis
gaussianas têm a maior entropia entre todas as variáveis aleatórias de igual
variância, pode se afirmar que a negentropia
de uma vetor aleatório
não-
gaussiano, definida na eq. 37, é sempre positiva; e, ao maximizá-la, determina-se os
componentes independentes.
Para se estimar os componentes independentes usando a negentropia como
medida, é comum o uso de um algoritmo FastICA, o qual é de fácil implementação.
19
4. GARCHSK E IC-GARCHSK
4.1 GARCHSK
O GARCHSK proposto em León, Rubio, e Serna (2004) é um modelo
univariado baseado em uma expansão do tipo Gram-Charlier da função densidade
da distribuição Normal para os erros, o qual leva em conta a dinâmica da assimetria
e curtose da distribuição dos log-retornos dos ativos financeiros. Em León, Rubio, e
Serna (2004), o modelo estimado para um ativo financeiro tem a seguinte estrutura :
é o logaritmo neperiano dos retornos do ativo financeiro,
informação no período
. E
,
,
são a variância, assimetria e curtose
correspondentes à distribuição condicional dos resíduos padronizados
Os parâmetros verdadeiros
é conjunto
.
do modelo são estimados
maximizando-se o logartimo da função de verossimilhança do modelo para
observações que é:
sendo que
é o logaritmo neperiano da função de verossimilhança para uma
observação t e é dada por:
20
e:
A derivação para se chegar a fórmula de
encontra-se no Apêndice A.
Para garantir que a variância e a curtose condicional do modelo GARCHSK
sejam positivas e também garantir a estacionariedade, deve-se impor restrições aos
parâmetros estimados:
.
Utilizando a teoria assintótica, a estimação por máxima verossimilhança dos
parâmetros
pode ser aproximada pela distribuição:
, em que I é a
matriz de informação de Fischer, que é calculada a partir dos valores dos
parâmetros estimados como a somatória do produto vetorial (produto externo) do
gradiente de
para cada elemento da amostra:
A derivação das fórmulas de
encontra-se no Apêndice B.
4.2 IC-GARCHSK
Em uma extensão deste modelo para estimação de momentos condicionais
de um portfólio com
versão multivaridada:
ativos, Qi-Fa Xu, Cui-Xia Jiang (2006) propõem a seguinte
21
sendo que
é o vetor de erros padronizados; I é a matriz identidade de ordem
são as matrizes de co-assimetria e co-curtose de
,
,
,
respectivamente;
são vetores de ordem
são matrizes quadradas de ordem
de ordem
;
,
respectivamente;
;
,
são matrizes quadradas
são matrizes quadradas de ordem
;
; denota o
operador semi-vetor, o qual empilha os elementos inferiores triangulares de uma
matriz quadrada de ordem n, em um vetor
; e
representa o
operador para o produto de Kronecker.
O GARCHSK multivariado pode ser usado para a discutir a interação multivariável ou multi-mercado, isto é propagação da volatilidade (inclui variância,
assimetria e curtose). O modelo GARCHSK multivariado é a extensão do modelo
GARCH multivariado quando momentos superiores, especialmente o terceiro e
quarto momentos, são considerados ao mesmo tempo. Há
parâmetros a
serem estimados no modelo representado pelas eqs. 48 a 52. Mesmo se
considerada a situação mais simples, quando
, existem 112 parâmetros desconhecidos a serem estimados. Se o
número de variáveis ou ordem de defasagem aumenta por uma unidade, o número
de parâmetros a serem estimados aumentará significantemente. Então o “desastre
de dimensão” em um modelo GARCHSK multivariado é mais sério que em um
modelo GARCH multivariado. [Qi-Fa Xu, Cui-Xia Jiang (2006)]
22
Para contornar este problema Qi-Fa Xu, Cui-Xia Jiang (2006) propõem um
novo modelo, o IC-GARCHSK. Este utiliza-se da ACI (Análise de Componentes
Independentes) para decompor as séries de tempo observadas e obter as fontes
potenciais de sinal, levando em consideração que as séries são sinais emitidos pelo
mercado financeiro e que, portanto, são misturas de algumas fontes de sinais
independentes. Assim, se os componentes independentes,
estatisticamente mutualmente independentes, e a matriz
são
existe, tal que:
são os n independentes componentes do
Então
vetor de retornos
e
. E
é uma matriz de posto-cheio desconhecida, que é o
inverso da matriz de mistura definida na seção 3, e é chamada de matriz de
separação.
A partir da eq. 53, pode-se obter a variância, assimetria e curtose
condicionais respectivamente como nas eqs. 54 a 56 abaixo:
Uma vez estimados os componentes independentes, a variância, assimetria e
curtose condicionais podem ser estimadas por um modelo GARCHSK univariado
que pode ser representado pelas eqs. 57 a 59 a seguir:
23
e
,
, e
são respectivamente a variância condicional, a assimetria
condicional e a curtose condicional do l-ésimo componente independente IClt (l =
1,2,...,n).
Assim a matriz de co-variância condicional, a matriz de co-assimetria
condicional, e a matriz de co-curtose condicional dos
ativos podem ser obtidas
multiplicando-se ambos os lados das eqs. 54 a 56 pelo inverso das matrizes
correspondentes. O resultado obtido é:
e:
sendo que
é uma matriz quadrada de ordem
entre os elementos n, j, e k, i.e
formada pelas co-assimetrias
. E, no caso de componentes
independentes, somente quando n = j = k, ter-se-á valores diferentes de zero e iguais
a
(l = n = j = k) para os elementos
Analogamente
.
é uma matriz quadrada de ordem
curtoses entre os elementos n, i, j, e k, i.e
formada pelas co-
. Sendo que, no caso de
componentes independentes, somente quando n = i = j = k, ter-se-á valores diferentes
de zero e iguais a
(l = n = i = j = k) para os elementos
.
24
5. ANÁLISE EMPÍRICA
Na seção 5.1, define-se a amostra utilizada. Na seção 5.2, caracteriza-se a
mesma, apresentando-se as estatísticas e também os testes de normalidade,
correlação serial, e heterocedasticidade. Já na seção 5.3, apresenta-se a estimação
dos parâmetros IC-GARCHSK, necessário para calcular os momentos condicionais
dos log-retornos dos pares de moedas. E na seção 5.4, são mostrados os resultados
obtidos para as carteiras construídas com estes ativos, otimizando-se diretamente a
função utilidade esperada aproximada pela expansões de Taylor de 2ª e 4ª ordem.
Nesta última seção, consideram-se a alocação estática e a alocação dinâmica
baseada nos momentos condicionais previstos pelo modelo estimado na seção 5.3.
5.1 A AMOSTRA
A amostra é constituída pela série dos log-retornos7 dos preços diários em
unidades monetárias da moeda em questão por dólar americano, nomeadamente:
Euro (EUR), Florín Húngaro (HUF), Lira Turca (TRY), Real Brasileiro (BRL), Dólar
Australiano (AUD), Dólar Neozelandês (NZD), e Peso Mexicano (MXN); e pela série
com as taxas de juros ao ano do depósito interbancário de um dia nas respectivas
moedas. Foram utilizados como critérios para a escolha dos pares de moedas a taxa
de juros dos títulos destes países (maiores taxas de juros), bem como a presença de
assimetria e excesso de curtose. A escolha do EUR se deveu ao fato de ter um ativo
que possibilitasse diversificação dos momentos de ordem superior, uma vez que
este par de moeda se afasta menos de uma distribuição Normal. A série dos preços,
bem como das taxas de juros foram retiradas do software Bloomberg, com preços
das quatro horas da tarde de Londres para as moedas, e taxa de fechamento para
os juros. O período da amostra compreende as datas 01/Jan/2004 e 20/Out/2011. A
escolha deste período da amostra se deveu ao fato da Lira Turca ter passado por
grandes desvalorizações e mudança de regime cambial antes de 2004. O horário foi
7
dólar.
, sendo que
é o preço da moeda em questão em unidades monetárias dela por
25
escolhido com o intuito de se obter o período do dia de maior liquidez, e,
consequentemente, preços mais justos (menores bid/ask). Durante a análise dos
dados, o período da amostra foi dividido8 em diferentes períodos, para realizar
análises dentro e fora da amostra.
5.2 CARACTERIZAÇÃO DA AMOSTRA
Em uma investigação preliminar a cerca da amostra, a tabela 1 mostra a
estimativa dos quatro primeiros momentos desta e os resultados dos testes de
hipótese nula de normalidade, homocedasticidade, e correlação serial dos dados,
todos realizados no software Matlab Student Version versão 7.12. Foca-se aqui em
três testes de normalidade: a estatística Jarque-Bera (JB), proposta por Jarque e
Bera (1980), a estatística Omnibus (OM), proposta por Doornik e Hansen (1994), e a
estatística Komogorov-Smirnov (KS). Como se vê na tabela 1, todos os testes
rejeitam a hipótese nula de normalidade com nível de significância inferior a 1%. O
teste usado para correlação serial foi a estatística Ljung-Box para 5 e 20
defasagens, os quais mostram que os pares de moedas TRY, NZD, HUF, e EUR
não apresentam correlação serial, porém os ativos AUD, BRL, e MXN apresentaram
correlação serial até o nível de significância de 1%. Como se vê no gráfico 1 da
função de auto-correlação, o AUD apresentou correlação na 1ª, 5ª, 13ª, e 17ª
defasagens; no gráfico 2 o BRL apresentou auto-correlação na 1ª, 2ª, 12ª, 18ª, e
19ª; e o MXN na 1ª, 5ª, 18ª, e 19ª defasagens. No contexto de mercado, não há
muito sentido em modelar retornos com defasagens além da 5ª. E, por último, o
teste LM para heterocedasticidade proposto por Engle (1982) revelou que todas as
séries dos log-retornos apresentam heterecedasticidade, uma vez que todos os pvalores foram inferiores a 1%, rejeitando-se firmemente a hipótese nula de
homocedasticidade. Com base nestes resultados obtidos, conclui-se que um modelo
dinâmico deve prever melhor a distribuição dos retornos dado a presença de
correlação serial. Além disso, devido a presença de heterocedasticidade, conclui-se
que é necessário modelar a dinâmica da variância das séries.
8
Quando isso ocorre, o autor detalha qual o período está sendo considerado para determinado estudo.
26
Tabela 1 – Estatística descritiva e testes de normalidade, correlação serial, e
heterocedasticidade.
Fonte: Elaboração própria
Função de Autocorrelação Amostral
Autocorrelação Amostral
0.8
0.6
0.4
0.2
0
-0.2
0
2
4
6
8
10
Lag
12
14
Gráfico 1 – Função de Autocorrelação Amostral do AUD.
Fonte: Elaboração própria.
16
18
20
27
Função de Autocorrelação Amostral
Autocorrelação Amostral
0.8
0.6
0.4
0.2
0
-0.2
0
2
4
6
8
10
Lag
12
14
16
18
20
16
18
20
Gráfico 2 – Função de Autocorrelação Amostral do BRL.
Fonte: Elaboração própria.
Função de Autocorrelação Amostral
Autocorrelação Amostral
0.8
0.6
0.4
0.2
0
-0.2
0
2
4
6
8
10
Lag
12
14
Gráfico 3 – Função de Autocorrelação Amostral do MXN.
Fonte: Elaboração própria.
28
5.3. ESTIMAÇÃO DOS PARÂMETROS DO MODELO IC-GARCHSK
O primeiro passo foi estimar os componentes independentes das séries dos
log-retornos para 5 dos 7 pares de moedas, escolhidos aleatoriamente, pelo método
de negentropia sem levar em conta não-lineariedades. O algoritmo usado foi o de
ponto fixo de Härvynen, Karhunen, e Oja (2001)9. Foram utilizados os seguintes
pares de moedas: NZD, HUF, BRL, MXN, e EUR, para a sub-amostra
compreendendo 2/3 iniciais da amostra10. No gráfico 4, mostra-se os retornos dos
pares de moeda, e, no gráfico 5, os componentes independentes11.
Gráfico 4 – Log-retornos de NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da
amostra.
Fonte: Elaboração própria.
9
Aqui utilizou a rotina FastICA versão 2.5 para Matlab 6.x e 7.x baixada do endereço eletrônico da internet:
http://research.ics.tkk.fi/ica/fastica/code/dlcode.shtml.
10
Mediante requisição, o autor fornecerá os resultados para diferentes sub-amostras para diferentes carteiras.
11
A matriz W de separação inicial foi escolhida como a matriz identidade, para uniformizar os resultados ao invés
de deixar o algoritmo determiná-la aleatoriamente. Este fato não prejudica, nem altera os resultados finais, porém
os componentes independentes diferem para cada W inicial se forem escolhidos aleatoriamente.
29
Gráfico 5 – Componentes independentes para os ativos NZD, HUF, BRL, MXN, e
EUR, considerando-se 2/3 da amostra.
Fonte: Elaboração própria.
Obtidos os componentes independentes, o próximo passo foi a estimação do
modelo IC-GARCHSK em si. O modelo estimado neste trabalho sofreu uma
alteração em relação ao proposto em León, Rubio, e Serna (2004). Ao invés de se
modelar o retorno esperado dos componentes independentes como um AR(1),
utilizou-se uma média móvel semanal (5 dias úteis), com o intuito de capturar
mudanças de tendência de curto prazo12, e a raiz quadrada da variância esperada,
tentando-se capturar os efeitos de alavancagem13, como variáveis independentes.
Além disso, utilizou-se a rotina de otimização fmincon do Matlab, ao invés do
algoritmo BHHH do software Gauss, o qual foi utilizado no trabalho de León, Rubio,
12
Os resultados obtidos, para o retorno final dos portfólios simulados, foram melhores com o modelo aqui proposto do que com
o do trabalho original de León, et al (2004). Sobre requisição, o autor pode fornecer os resultados obtidos com o modelo sem
as modificações.
13
Claria, Davis, Pedersen (2009) documentam sensitividade da regressão de Fama ao regime de volatilidade. Seus resultados
mostram que o coeficente do forward premium é superior a 1, para a sub-amostra de volatilidade enquadrada no quartil
superior.
30
e Serna (2004). No Apêndice C, encontra-se a demonstração que, mesmo com
estas alterações na equação dos retornos condicionais, a assimetria e curtose
condicional dos retornos
são iguais as de
, e, portanto, a distribuição condicional
destes seguem:
sendo que
,
, são definidos como nas eq. 45 e 46, e
é a função
densidade Normal. E, assim, a função de máxima-verossimilhança pode ser
calculada pela eq. 44.
O modelo IC-GARCHSK possui alto grau de não-lineariedade devido ao
grande número de parâmetros a serem estimados e a sua recursividade. Assim fazse necessário uma estimação em vários passos. Primeiro estimou-se os parâmetros
para um GARCH-m (GARCH in mean) simples com a equação da média como
descrito acima. Então estimou-se os parâmetros da eq. 40, utilizando-se a assimetria
incondicional da amostra como chute inicial para o parâmetro
parâmetros
e
, e zero para os
. Os parâmetros da eq. 41 foram mantidos como zero. Estimados
os parâmetros da eq. 40, procedeu-se da mesma maneira para estimar os
parâmetros da eq. 41, mantendo os da eq. 40 fixos em zero. As soluções destas
estimativas foram usadas como chute inicial para a estimação final.
Foram estimados modelos distintos, escolhendo-se aleatoriamente 5 dos 7
pares de moedas, para diferentes tamanhos de sub-amostra (1/2 da amostra, 2/3 da
amostra, 3/4 da amostra). Os resultados finais dos diferentes métodos de alocação
comparados na seção 5.4. foram similares14. Os valores dos parâmetros do modelo
IC-GARCHSK dos componentes independentes para a carteira contendo os pares
de moedas NZD, HUF, BRL, MXN, e EUR, para a sub-amostra contendo os 2/3
iniciais da amostra estão na tabela 2, bem como o p-valor.
Percebe-se os parâmetros são significativos a 5%, exceto os parâmetros da
curtose defasada da equação da curtose condicional de todos os componentes,
além das inovações defasadas da curtose condicional dos componentes
independentes 2 e 4. O parâmetro referente a defasagem da variância tem valor
14
Mediante requisição, o autor fornecerá os resultados para diferentes sub-amostras para diferentes carteiras.
31
entre 0,73 e 0,97, o que denota alta persistência da variância dos componentes
independentes. Outra fato a se notar e que foi recorrente para diferentes
combinações de ativos é que o parâmetro
ser zero ou próximo de zero, o que
denota que a curtose não depende das inovações defasadas de um período.
Tabela 2 – Parâmetros e p-valores do IC-GARCHSK estimado para a as moedas
NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra.
Fonte: Elaboração própria.
32
5.4 ALOCAÇÃO ESTÁTICA E DINÂMICA DE CARTEIRAS DE CARRY TRADE
Para comparar um investidor que se preocupa apenas com os dois primeiros
momentos, ou seja, com o critério média-variância prosposto por Markowitz (1952),
com um que leva em consideração momentos de ordem superior, calcula-se o custo
de oportunidade para a alocação usando a expansão de 2ª ordem em relação a de
4ª ordem. Este custo de oportunidade é definido em Simaan (1993).
Neste trabalho considerou-se como hipóteses que o mercado é perfeito,
competitivo, e com divisibilidade; não há custos de transação e tributários; e receitas
advindas de vendas a descoberto podem ser usadas em sua integralidade. Estas
hipóteses que são padrão na literatura de alocação de carteiras não prejudicam os
resultados deste trabalho, uma vez que comparou-se métodos de alocação similares
entre si.
Primeiro procedeu-se com a alocação estática considerando-se os momentos
incondicionais da amostra da seção 5.2 dos componentes independentes, e
calculando as matrizes de co-variância, co-assimetria, co-curtose dos retornos dos
ativos utilizando-se a da matriz de separação
, usando o pacote de otimização
fmincon do software Matlab Student Version versão 7.12 para estimar as alocações
que maximizavam a função utilidade do investidor. Posteriormente realizou-se a
alocação dinâmica, utilizando-se os parâmetros do modelo estimado na seção 5.3,
para calcular as matrizes co-variância, co-assimetria, co-curtose dos retornos dos
ativos para cada instante de tempo , através das eqs. 60 a 62, e, então determinouse as alocações para cada instante de tempo que maximizavam a função utilidade.
No caso da alocação dinâmica, considerou-se a taxa de juros de um dia para
depósito interbancários como uma parcela determinística acrescida à equação do
retorno esperado. Para ambos os casos, foram feitos estudos dentro e fora da subamostra. Também, em cada caso, foram determinadas as alocações ótimas fazendo
a otimização da função utilidade esperada obtida pelas expansões de 2ª e 4ª ordem.
Na tabela 3 a seguir, para os dados fora da amostra, exibem-se os resultados
obtidos da distância absoluta entre as alocações do portfólio obtido por otimização
da expansão de 4ª ordem da utilidade esperada (
) e do obtido pela estratégia
33
baseada na expansão até 2ª ordem ( ), ou seja,
, onde
é o número
de ativos. Apresentam-se também os quatros momentos das estratégias, bem como
o custo de oportunidade da estratégia baseadas na aproximação de 2ª ordem em
relação a otimização da aproximação de 4ª ordem (prêmio de otimização). O custo
de oportunidade
é definido como sendo o retorno adicional que o portfólio obtido
pela aproximação por expansão de Taylor deve ter para que o investidor fique
indiferente, ou seja, é o
e
que satisfaz:
é o retorno do portfólio para uma da aproximação função utilidade esperada, e
é o retorno do portfólio obtido por otimização direta.
Pode-se inferir dos resultados apresentados na tabela 3 que a aproximação
de 4ª ordem da utilidade esperada apresentou desempenho superior para diferentes
níveis de aversão ao risco , uma vez que o custo de oportunidade ao se utilizar a
expansão de 2ª. ordem foi semrpe positivo. Conforme aumentou-se o grau de
aversão ao risco, a norma também aumentou. Outro resultado que pode ser inferido
da tabela 3 é que o fato de utilizar uma expansão de ordem superior levou a uma
preferência pela diversificação dos momentos superiores para graus de aversão ao
risco maiores. No caso da expansão de 4ª ordem, a variância e curtose continuam a
serem reduzidas, e a assimetria aumentada para
, o que não acontece de
maneira significativa para a expansão de 2ª ordem.
Os resultados para o caso da alocação dinâmica foram semelhantes no que
diz respeito a desempenho da expansão utilizada, e podem ser vistos na tabela 4.
Porém neste caso, os custos de oportunidade passam a ser menores que no caso
da alocação estática. Para
e
, a expansão de 2ª ordem no caso estático
apresentou respectivamente custos de oportunidade de 0,23 centavos por dólar
investido e 0,26 centavos por dólar investido diariamente, enquanto no caso
dinâmico estes custos forma respectivamente 0,15 e 0,12 centavos por dólar
investido.
34
Tabela 3 – Custo de Oportunidade, Momentos,e Norma para alocação estática para
a as moedas NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra.
Fonte: Elaboração própria.
Tabela 4 – Custo de Oportunidade e Momentos para alocação dinâmica para a as
moedas NZD, HUF, BRL, MXN, e EUR, considerando-se 2/3 da amostra.
Fonte: Elaboração própria.
35
CONCLUSÃO
Neste trabalho estimou-se o modelo IC-GARCHSK, que foi utilizado para
prever os momentos condicionais de uma carteira de carry trade. Percebeu-se que
os momentos de ordem superior previsto por este modelo não variaram muito.
Então comparou-se a alocação de carteiras de carry trade estática e
dinâmica, considerando-se momentos de ordem superior e apenas média-variância.
Em ambos casos, a alocação com momentos de ordem superior mostrou-se
superior.
Porém,
ao
se
utilizar
a
estratégia
dinâmica,
este
ganho
foi
consideravelmente reduzido.
Como possível melhoria pode-se estimar um modelo mais robusto para
estimação dos momentos condicionais superiores para tentar auferir melhores
resultados. Uma estratégia alternativa seria utilizar um modelo GARCH-m com
distribuição skew-t para estimar a média e variância em cada instante de tempo, e
utilizar o modelo MQ-CAViaR proposto em White, Lo, e Manganelli (2008) para
estimar a assimetria e curtoses condicionais. Uma outra possibilidade é utilizar a
metodologia proposta em Jondeau e Rockinger (2008).
Aqui n ão se comparou se a estratégia de alocação dinâmica é superior a
estática. Este fato pode ser explorado em trabalhos futuros, comparando-se o custo
de oportunidade entre as duas estratégias, levando-se em consideração custos de
transação, bem como aversão a incertezas do modelo. Também não se levou em
consideração o efeito de turnover nas alocações dinâmicas, efeito que deve ser
levado em consideração ao se comparar duas estratégias que balanceiam suas
alocacações dinamicamente.
36
REFERÊNCIAS
ARDITTI, Fred D.. Risk and The Required Return on Equity. The Journal of Finance,
Vol. 22, No. 1, pp. 19-36, Março 1996.
BILSON, John F. O.. The “Speculative Efficiency”Hypothesis. The Journal of
Business, Vol. 54, No. 3, pp. 435-451, Julho 1981.
DELLA CORTE, Pasquale, SARNO, Lucio, & TSIAKA, Ilias. An Economic Evaluation
of Empirical Exchange Rate Models. The Review of Financial Studies, Vol. 22, n° 9,
pp. 3491-3530, 2009.
ENGEL, Charles. The Forward Discount Anomaly and the Risk Premium: A Survey
of Recent Evidence. NBER Working Paper Series 5312, Outubro 1995.
FAMA, Eugene F.. Mandelbrot and the Stable Paretian Hypothesis. The Journal of
Business, Vol. 36, No. 4, pp. 420-429, Outubro 1963.
FAMA, Eugene F.. Random Walks In Stock Market Prices. Financial Analysts Journal
21, pp. 55–59, Outubro 1965.
FAMA, Eugene F.. Forward and Spot Exchange Rates. The Journal of Monetary
Economics, Vol. 14, pp. 319-338, 1984.
FROOT, Kenneth A., & THALER, Richard H.. Anomalies Foreign Exchange. The
Journal of Economics Perspectives, Vol. 4, No. 3, pp. 179-192, 1990.
HYVÄRINEN, Aapo, KARHUNEN, Juha, & OJA, Erkki. Independent Component
Analysis. 1st ed. A Wiley-Interscience Publication. 2001. 481 p.
HOCHRADL, Markus, & WAGNER, Christian. Trading the Forward Bias: Are There
Limits to Speculation?. Journal of International Money and Finance, Vol. 29, pp. 423441, 2010.
HODRICK, R. J.. The Empirical Evidence on the Efficiency of Forward and Futures
Foreign Exchange Markest. Chur: Harwood, 1987.
JONDEAU, Eric, & ROCKINGER. Gram-Charlier Densities. Banque de France
Working Paper No. 56. Julho 1999.
JONDEAU, Eric, & ROCKINGER, Michael. Optimal Portfolio Allocation under Higher
Moments. EFMA 2004 Basel Meeting Paper. Janeiro 2004.
JONDEAU, Eric, & ROCKINGER, Michael. Time-Variability in Higher Moments is
Important for Asset Allocation. Outubro 2008.
JURCZENCKO, Emmanuel, & MAILLET, Bertrand. Multi-Moment Asset Allocation
and Pricing Models. 1st ed. Wiley Finance. 2006. 233 p.
37
KROKK, Yoram, LEVY, Haim, & MARKOWITZ, Harry M.. Mean-Variance Versus
Direct Utility Maximization. The Journal of Finance, Vol. 39, No. 1, pp. 47-61, Março
1984.
LEÓN, Ángel, RUBIO, Gonzalo, & SERNA, Gregorio. Autoregressive Conditional
Volatility, Skewness and Kurtosis. WP-AD 2004-13, Instituto Valenciano de
Investigaciones Económicas, S.A..
LEVY, Haim. A Utility Function Depending on the First Three Moments. The Journal
of Finance, Vol. 24. No. 4, pp. 715-719, Setembro 1969.
LEVY, Haim, & MARKOWITZ, Harry M.. Approximating Expected Utility by a
Function of Mean and Variance. The American Economic Review, Vol. 69. No 3, pp.
308-317, Junho 1979.
MANDELBROT, Benoit. The Variation of Certain Speculative Prices. The Journal of
Business, Vol. 36, No. 4, pp. 394-419, Outubro 1963.
MARKOWITZ, Harry. Portfolio Selection. The Journal of Finance, Vol. 7, No. 1, pp.
77-91, Março 1952.
SAMUELSON, Paul A.. The Fundamental Approximation Theorem of Portfolio
Analysis in terms of Means, Variances and Higher Moments. The Review of
Economics Studies. Vol. 37, No. 4, pp. 537-542, Outubro 1970.
SIMAAN, Yusif. What is the Opportunity Cost of Mean-Variance Investment
Strategies? Management Sciences, Vol. 39, No.5, pp. 578-587, Maio 1993.
WAGNER, Christian. Risk-Premia, Carry-Trade Dynamics, and Economic Value of
Currency Speculation. MPRA Paper N0. 21124, Agosto 2009.
WHITE, Halbert, KIM, Tae-Hwan, & MANGANELLI, Simone. Modelling
Autoregressive Conditional Skewness and Kurtosis with Multi-Quantile CAViaR. ECB
Working Paer No. 957, Novembro 2008.
XU, Qi-FA, JIANG, Cui-Xia, & KANG, Pu. Dynamic Portfolio Selection under Higher
Moments. Proceeding of the Sixth International Conference on Machine Learning
and Cybernetics, Agosto 2007.
38
APÊNDICE A
A derivação aqui mostrada segue Jondeau e Rockinger (1999).
De acordo com Jondeau e Rockinger (1999), se a distribuição de uma
variável aleatória
é similar à distribuição Normal, porém sua função distribuição de
probabilidade é desconhecida, pode-se aproximar esta por:
com
sendo a densidade normal de média e variância unitária, e
sendo
escolhida de forma a garantir os primeiros momentos iguais a distribuição de . Uma
vez que os polinômios de Hermite formam uma base ortogonal com respeito ao
produto escalar gerado pela expectativa com a densidade Normal
, a densidade
verdadeira é aproximada por:
e
é polinômio de Hermite probabilístico de ordem , e são definidos como:
Sendo assim os primeiros polinômios probabilísticos de Hermite são dados
por:
Usando expansão Gram-Charlier tipo A, tem-se:
39
Jondeau e Rockinger (1999) mostram que para uma expansão Gram-Charlier
tipo A,
e
são respectivamente a assimetria
e o excesso de curtose
.
Sendo assim a função densidade de probabilidade pode ser escrita como:
Para garantir que positividade de
e que a sua integral seja igual a 1,
utiliza-se uma pdf transformada:
Usando que
, tem-se:
e:
Substituindo a eq. 38, temos que a função densidade em um instante é:
Para uma amostra com
observações, a função log-verossimilhança a parte
de uma constante é dada pela eq. 43. E a eq. 44 vem através do log da função de
verossimilhança da função densidade de
.
40
APÊNDICE B
Seja
,
,
,
,
, e
, onde
,
, e
é
um sub-espaço compacto Euclideano para garantir que o segundo, terceiro e quarto
momentos de
e
sejam finitos. Então os parâmetros verdadeiros
do
modelo são estimados maximizando-se o logartimo da função de verossimilhança do
modelo para
onde
observações que é:
é o logaritmo neperiano da função de verossimilhança para uma
observação t e é dada por:
Para se chegar a fórmula
, deve-se derivar
em relação a cada vetor de
parâmetros de cada equação do modelo.
Derivando as eqs. 38 a 42, 44 e 45 em relação a , obtem-se:
41
E portanto:
Analogamente para :
E assim:
Da mesma fora para :
O que leva a:
42
Por último, derivando em relação a :
O que resulta em:
E, assim, o gradiente da função log-verossimilhança é:
43
APÊNDICE C
Uma vez que a equação descritiva dos retornos foi alterada para:
a média condicional e a variância para
fica:
uma vez que a variância condicional só tem termos determinísticos.
Então a assimetria condicional de
Analogamente,
é:
44
APÊNDICE D
CÓDIGO EM MATLAB PARA ESTIMAÇÃO DO IC-GARCHSK
clear;
% Importando dados
dados_ica = xlsread('C:\Base de dados.xlsx', 'Sheet6', 'C:G');
% Obtendo o número de ativos e tamanho da amostra
[obs,ativos]= size(dados_ica);
% Definindo tamanho da amostra a ser utilizada
in_sample = round(2/3*obs);
out_sample = obs - in_sample;
% Importanto taxas de juros de depósitos over-night da moeda de funding
riskfree = xlsread('C:\Base de dados.xlsx', 'Sheet6', 'P:P');
dados = zeros(in_sample,ativos);
dados_in_sample = zeros(in_sample,ativos);
dados_out_sample = zeros(out_sample,ativos);
% Importanto taxas de juros de depósitos over-night das moedas de carry
on_rate = -xlsread('C:\Base de dados.xlsx', 'Sheet6', 'K:O');
on_rate_out = zeros(out_sample,ativos);
% Definindo dados dentro da amostra
for t = 1 : in_sample;
dados(t,:) = dados_ica(t,:);
dados_in_sample(t,:) = dados_ica(t,:);
end
% Definindo dados fora da amostra
for t = in_sample + 1 : obs;
dados_out_sample(t-in_sample,:) = dados_ica(t,:);
on_rate_out(t-in_sample,:) = on_rate(t,:);
end
% Estimandos os componentes independentes
W = eye(ativos); % Matriz de mistura inicial igual a identidade
[icasig,W,U] = fastica (transpose(dados),'initGuess', W );
dados_transpostos = zeros(ativos,in_sample);
dados_transpostos = icasig;
dados = transpose(dados_transpostos);
medias = transpose(sum(dados))/in_sample;
% Inicializando variáveis data (amostra) fina_parameters (parâmetros
% estimados do modelo ARGARCHSK e dados_arch (amostra para estimação do
% modelo GARCH-m
data = zeros(in_sample,ativos);
final_parameters = zeros(11,ativos);
dados_arch = zeros(in_sample-5,1);
% Loop para estimação do modelo para cada ativo da amostra
for n= 1:ativos;
% Preencendo matriz com dados das amostras de cada ativo para estimação
% do modelo ARGARCHSK
data(:,n) = dados(:,n) - medias(n);
% Preenchendo matriz com dados das amostras de cada ativo para
% estimação do modelo GARCH-m
dados_arch = dados(6:in_sample,n);
garchmma = zeros(in_sample-5,1);
for i=1:in_sample-5;
garchmma(i)= mean(dados(i:i+4));
end;
garchmoptions = GARCHOptSet('Mean',1);
[garchmparam] = garchest(dados_arch,garchmma,[],garchmoptions);
% Atribuindo parâmetros obtidos da estimação do GARCH-m para o chute
45
% inicial
alpha(1,1) = garchmparam.theta(5);
alpha(1,2) = garchmparam.theta(4);
beta(1,1) = garchmparam.theta(1);
beta(1,2) = garchmparam.theta(3);
beta(1,3) = garchmparam.theta(2);
Innovations = garchmparam.resid;
% Calculando quantis segundo White(2004) dos resíduos do GARCH-m
quants = quantile(Innovations,[0.025 0.25 0.5 0.75 0.975]);
% Inicializando demais parâmetros do ARGARCHSK
gamma(1,1) = (quants(4)+quants(2)-2*quants(3))/(quants(4)-quants(2));
gamma(1,2)= 1e-6;
gamma(1,3)= 1e-6;
delta(1,1) = (quants(5)-quants(1))/(quants(4)-quants(2));
delta(1,2)= 1e-6;
delta(1,3)= 1e-6;
startingvals =
[transpose(alpha);transpose(beta);transpose(gamma);transpose(delta)];
matrix_startingvals(:,n) = startingvals;
% Vetor com todos os parâmetros do ARGARCHSK com parâmetros da equação
% de curtose condicional fixados em zero
startingvals1 = [transpose(alpha);transpose(beta);transpose(gamma)];
% Vetor com todos os parâmetros do ARGARCHSK com parâmetros da equação
% de assimetria condicional fixados em zero
startingvals2 = [transpose(alpha);transpose(beta);transpose(delta)];
% Definindo opções da ferramenta de otimização restrita do MATLAB
options = optimset('fmincon');
options = optimset(options,'Display', 'off');
options = optimset(options,'MaxFunEvals', 5000);
options = optimset(options,'MaxIter', 500);
options = optimset(options,'TolFun', 1e-6);
options = optimset(options,'TolX', 1e-6);
options = optimset(options,'FunValCheck', 'off');
options = optimset(options,'LargeScale', 'off');
options = optimset(options,'Hessian','bfgs');
options = optimset(options,'LineSearchType', 'quadcubic');
options = optimset(options,'Algorithm', 'SQP');
% Definindo vetores com restrições inferiores e superiores dos
% parâmteros para o caso com os parâmetros da equação da curtose
% condicional fixados em zero
LB = [-1+1e-12;-1+1e-12; 1e-12;
1e-12;
1e-12; -1e+12;-1+1e-12;1+1e-12];
UB = [ 1-1e-12; 1-1e-12; 1e+12; 1-1e-12; 1-1e-12; +1e+12; 1-1e-12; 11e-12];
% Definindo matriz com restrições em forma de inequação dos parâmetros
A = [1 1 0 0 0 0 0 0; ...
-1 -1 0 0 0 0 0 0; ...
0 0 0 1 1 0 0 0; ...
0 0 0 0 0 0 1 1; ...
0 0 0 0 0 0 -1 -1];
% Definindo limites das inequaçoes dos parâmetros
b = [1;1;1;1;1]-1e-12;
% Estimando parâmetros do caso com parâmetros da equação da curtose
% condicional fixados em zero
[parameters, LLF, EXITFLAG, OUTPUT, LAMBDA, GRAD] =
fmincon('garchsk_likelihood1', startingvals1 , A , b ,[] , [] , LB ,
UB,[],options, data, in_sample, n);
% Obtendo vetor de parâmetros da equação de assimetria
% condicional
gamma = [ parameters(6),parameters(7),parameters(8)];
% Definindo vetores com restrições inferiores e superiores dos
46
% parâmteros para o caso com os parâmetros da equação da assimetria
% condicional fixados em zero
LB = [-1+1e-12;-1+1e-12;1e-12;
1e-12;
1e-12;
1e-12;
1e-12;
1e-12];
UB = [ 1-1e-12; 1-1e-12;1e+12; 1-1e-12; 1-1e-12;
1e+12; 1-1e-12; 11e-12];
% Definindo matriz com restrições em forma de inequação dos parâmetros
A = [1 1 0 0 0 0 0 0; ...
-1 -1 0 0 0 0 0 0; ...
0 0 0 1 1 0 0 0; ...
0 0 0 0 0 0 1 1];
% Definindo limites das inequaçoes dos parâmetros
b = [1;1;1;1]-1e-12;
% Estimando parâmetros do caso com parâmetros da equação da assimetria
% condicional fixados em zero
[parameters, LLF, EXITFLAG, OUTPUT, LAMBDA, GRAD] =
fmincon('garchsk_likelihood2', startingvals2 , A , b ,[] , [] , LB ,
UB,[],options, data, in_sample, n);
% Obtendo vetor de parâmetros da equação de curtose
% condicional
delta = [ parameters(6),parameters(7),parameters(8)];
% Vetor inicial com todos os parâmetros do ARGARCHSK
startingvals =
[transpose(alpha);transpose(beta);transpose(gamma);transpose(delta)]
% Definindo vetores com restrições inferiores e superiores dos
% parâmteros do ARGARCHSK
LB = [-1+1e-12;-1+1e-12; 1e-12;
1e-12;
1e-12;-1e+12;-1+1e-12;-1+1e12; 1e-12;
1e-12;
1e-12];
UB = [ 1-1e-12; 1-1e-12; 1e+12; 1-1e-12; 1-1e-12; 1e+12; 1-1e-12; 1-1e12; 1e+12; 1-1e-12; 1-1e-12];
% Definindo matriz com restrições em forma de inequação dos parâmetros
A = [1 1 0 0 0 0 0 0 0 0 0; ...
-1 -1 0 0 0 0 0 0 0 0 0; ...
0 0 0 1 1 0 0 0 0 0 0; ...
0 0 0 0 0 0 1 1 0 0 0; ...
0 0 0 0 0 0 -1 -1 0 0 0; ...
0 0 0 0 0 0 0 0 0 1 1];
% Definindo limites das inequaçoes dos parâmetros
b = [1;1;1;1;1;1]-1e-12;
% Estimando parâmetros do ARGARCHSK
[parameters, LLF, EXITFLAG, OUTPUT, LAMBDA, GRAD] =
fmincon('garchsk_likelihood', startingvals , A , b ,[] , [] , LB ,
UB,[],options, data, in_sample, n);
% Armazaendo parâmetros estimados
final_parameters(:,n) = parameters;
end
% Calculando as variâncas assintóticas dos parâmetros do modelo estimado e
% os respectivos p-valores
asymptotic_covariance_matrix = zeros(11,11,ativos);
asymptotic_variance = zeros(11,ativos);
t_stats = zeros(11,ativos);
pvalues = zeros(11,ativos);
for n = 1 : ativos;
[info_matrix] =
garchsk_info_matrix_Nelson3(final_parameters(:,n),data,in_sample,n);
asymptotic_covariance_matrix(:,:,n) = (pinv(info_matrix))/in_sample;
for cont = 1 : 11;
asymptotic_variance(cont,n) =
asymptotic_covariance_matrix(cont,cont,n);
t_stats(cont,n) =
(final_parameters(cont,n))/((asymptotic_variance(cont,n)/in_sample)^0.5);
47
pvalues(cont,n) = 2*(1 - tcdf(abs(t_stats(cont,n)),in_sample-1));
end;
end;
% Escrevendo em Excel os resultados obtidos para os parâmetros, bem como
% seus p-valores e erro padrão
xlswrite('C:\Resultados.xlsx', final_parameters, 'Parâmetros','A1:E11');
xlswrite('C:\Resultados.xlsx', pvalues, 'Parâmetros','A13:E23');
xlswrite('C:\Resultados.xlsx',asymptotic_variance.^0.5,'Parâmetros','A25:E3
5');
ESTIMAÇÃO DA FUNÇÃO MÁXIMA VEROSSIMILHANÇA
function [LT,innovs] = llt(theta_zero,novos_dados,obs,n)
z1= zeros(obs-5,3,1);
z2= zeros(obs-5,3,1);
z3= zeros(obs-5,3,1);
alpha = [theta_zero(1), theta_zero(2)];
beta= [ theta_zero(3),theta_zero(4),theta_zero(5)];
gamma = [ theta_zero(6),theta_zero(7),theta_zero(8)];
delta= [ theta_zero(9),theta_zero(10),theta_zero(11)];
e= zeros(obs-5,1);
h= ones(obs-5,1);
dum= zeros(obs-5,1);
ni = zeros(obs-5,1);
s = ones(obs-5,1);
k = ones(obs-5,1);
quants = quantile(novos_dados(:,n),[0.025 0.25 0.5 0.75 0.975]);
h(1,1)= var(novos_dados(:,n));
s(1,1) = skewness(novos_dados(:,n));
k(1,1) = (quants(5)-quants(1))/(quants(4)-quants(2));
psi = ones(obs-5,1);
gamma_M= ones(obs-5,1);
e(1) = novos_dados(6,n) - alpha(1,1)*mean(novos_dados(1:5,n))alpha(1,2)*h(1)^0.5;
ni(1)= (h(1)^(-0.5))*e(1);
psi(1) = 1 + (s(1)*((ni(1)^3) - 3*ni(1))/6) + ((k(1) - 3)*((ni(1)^4) 6*(ni(1)^2) + 3)/24);
gamma_M(1) = 1 + (s(1)^2)/6 + (((k(1)-3)^2)/24);
lt = zeros(obs-5,1);
for t= 2:obs-5;
z1(t,:)= [1,e(t-1)^2,h(t-1)];
h(t) = z1(t,:)*transpose(beta);
media_movel = mean(novos_dados(t:t+4,n));
e(t) = novos_dados(t+5,n) - alpha(1,1)*media_movel alpha(1,2)*h(t)^0.5;
z2(t,:) = [1,ni(t-1)^3,s(t-1)];
s(t) = z2(t,:)*transpose(gamma);
z3(t,:) = [1,ni(t-1)^4,k(t-1)];
k(t) = z3(t,:)*transpose(delta);
ni(t)= (h(t)^(-0.5))*e(t);
psi(t) = 1 + (s(t)*((ni(t)^3) - 3*ni(t))/6) + ((k(t) 3)*((ni(t)^4) - 6*(ni(t)^2) + 3)/24);
48
gamma_M(t) = 1 + (s(t)^2)/6 + (((k(t)-3)^2)/24);
lt(t) = -1/2*log(h(t)) - 1/2*(ni(t)^2) + log(psi(t)^2) log(gamma_M(t));
end
LT = -sum(lt);
innovs = e;
return
Download

fundação getúlio vargas escola de economia de são paulo pablo