Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
ANÁLISE DE EQUIVALÊNCIA ENTRE ATIVOS FINANCEIROS
Gustavo Santos Raposo
PUC-RJ: Departamento de Engenharia Elétrica - DEE
Rua Marquês de São Vicente, 225 - Gávea, Cep: 22453-900 – Rio de Janeiro/RJ
E-mail: [email protected]
Victor Santos Raposo
COPPE/UFRJ: Programa de Engenharia de Produção - PEP
Cidade Universitária – Centro de Tecnologia, Cep: 21945-970 – Rio de Janeiro/RJ
E-mail: [email protected]
Resumo
No presente trabalho, procurar-se-á apresentar, em linhas gerais, metodologia proposta para a
análise de ativos financeiros equivalentes, a qual toma por base toda teoria de agrupamento de
elementos, em particular a análise de clusters e técnicas de classificação, fazendo uso de certos tipos
de variáveis e parâmetros utilizados/calculados com base na teoria financeira.
Para a realização das análises propostas, o presente estudo utilizar-se-á, primeiramente, de
fundamentos e métodos estatísticos, em especial o K-means e análise de discriminantes, e,
posteriormente, de uma modelagem empregando redes neurais, com uso das redes auto-organizáveis
(SOM – Self-Organizing Map) e das redes PNNs (Probabilistic Neural Networks), possibilitando uma
abordagem comparativa entre os resultados encontrados.
Assim sendo, o estudo mostra as etapas que compõem o arcabouço analítico proposto,
enfatizando as fases de modelagem e preparação dos dados de entrada, em que, através da abordagem
de um caso prático, são apresentados os resultados finais passíveis de serem obtidos segundo a
proposta, ilustrando tanto o processo de formação dos grupos (clustering e ordenação), quanto à
classificação de entidades novas, condicionada a existência de padrões pré-determinados.
Palavras-chave: classificação, ativos financeiros, redes neurais.
Abstract
This paper presents methodology proposed for the analysis of financial assets similarities,
which is based on the clustering and classification techniques, using different parameters and attributes
determined by the financial theory.
In order to establish the proposed model, this article aggregates two different methods. The
first one is based on statistical techniques, using K-means for clustering and discriminant analysis to
classify the elements. The results are compared to the ones obtained through neural network
procedures – self-organizing networks and probabilistic neural networks, respectively.
In that way, this article shows the different steps followed during the modeling process, giving
emphasis to the phases related to the input data manipulation regarding a practical case; presenting a
brief description of the theory concerned.
Keywords: classification, financial assets, neural networks
Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
1. Introdução
A similaridade entre ativos financeiros desempenha papel fundamental, principalmente no que se
refere à questão da definição de estratégias de investimentos em mercados ineficientes e/ou pouco
líquidos. Além da questão das estratégias de investimentos, considerando a atuação em mercados
emergentes, que compartilha as características citadas anteriormente, outra área de interesse para o
estudo de equivalência entre ativos financeiros diz respeito à atuação das chamadas câmaras de
compensação (Clearing Houses).
As câmaras de compensação são entidades cujo objetivo é prover garantias ao mercado quanto ao
fechamento das operações transacionadas, garantindo, assim, a solvência das mesmas. Deste modo,
pode-se entender a atuação das referidas entidades como sendo “a contraparte das contrapartes”.
A operação das câmaras de compensação está condicionada à existência de um certo grau de
disponibilidade interna de ativos sendo negociados livremente no mercado, estando os preços dos
mesmos relacionados aos chamados fatores de mercado (taxa de juros, índices de inflação, câmbio,
spreads de crédito, dentre outros). Porém, um dos fatos característicos dos mercados emergentes é a
existência dos spreads de liquidez, cujo valor oscila de acordo com diversos fatores, dentre os quais
destacam-se: presença de instrumentos necessários à adoção de políticas de hedge, volume em
mercado após a distribuição primária e concentração/diversificação dos bond holders.
Torna-se imprescindível ao bom funcionamento destes agentes que seja possível a utilização de
ativos que, dentro de um determinado nível de confiança, compartilhem características semelhantes
àquele originalmente transacionado, reduzindo perdas inesperadas, ocasionadas, principalmente, pela
ineficiência do mercado no qual tais transações são realizadas.
Dentro deste espírito, o presente trabalho vem propor um procedimento analítico, que terá por
objetivo principal o detalhamento do processo para a identificação dos chamados grupos de “ativos
similares”, contemplando os instrumentos que compõem o mercado brasileiro de renda fixa. Em
paralelo, são apresentadas técnicas de classificação, as quais tem por objetivo auxiliar o processamento
de informações, dispensando a re-execução das rotinas de formação dos grupos (computacionalmente
intensivo).
2. Procedimento de Análise
As etapas correspondentes ao procedimento de análise proposto são:
1)
2)
Formação dos grupos: definição do processo de formação de grupos de instrumentos
financeiros (clusters), com base no grau de similaridade apresentada. Nesta etapa serão
empregadas duas metodologias distintas: K-means (estatística clássica) e redes SOM (redes
neurais);
Alocação de “novos instrumentos”: classificação de um novo ativo em um dos grupos
previamente definidos. Novamente serão utilizados dois procedimentos diferentes. São
eles: análise de discriminantes e redes PNN.
3. Análise de Clusters
A análise de cluster consiste em métodos de agrupamento de objetos ou variáveis de interesse,
mediante análise das similaridades (distâncias) que estas apresentam entre si. Ela difere dos métodos
de classificação tradicionais, e o objetivo principal passa a ser, dada uma nova observação para um
certo número de grupos existentes, definir aquele no qual a nova observação será inserida. Assim, a
análise de cluster pode ser entendida como um método mais primitivo, onde nenhum pressuposto com
relação ao número de grupos nem a estrutura dos mesmos é feita, sendo as medidas de similaridade
entre as variáveis, os únicos inputs requeridos para a modelagem.
Assim sendo, o objetivo básico da análise de cluster é determinar os grupos “naturais” das
variáveis de interesse. De forma a possibilitar tal determinação, torna-se necessário o desenvolvimento
de uma escala quantitativa, segundo a qual as medidas de associação (similaridades) entre os
diferentes objetos possam ser definidas.
568
Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
3.1. Medidas de similaridades:
Conforme exposto anteriormente, o grande desafio dos procedimentos de análise é buscar
estruturas simples de agrupamento a partir de conjunto complexo de dados, fazendo uso de medidas de
proximidade ou similaridade entre os diferentes objetos em estudo. Existe uma grande parcela de
subjetividade envolvida na definição da medida de similaridade apropriada. Para que o processo de
escolha seja bem sucedido, tornam-se necessárias certas considerações, tanto no que diz respeito à
natureza das variáveis (discreta, contínua e binária ou dicotômica), quanto à escala das medidas
(nominal, ordinal, intervalo ou razão).
Pode-se distinguir dois procedimentos distintos dentro do processo de análise de cluster. O
primeiro diz respeito ao processo de agrupamento dos itens ou objetos de estudo, no qual a grande
maioria dos autores faz uso do método das distâncias. Já o segundo, se refere ao agrupamento das
variáveis que qualificam cada um dos itens de interesse, onde é dada maior ênfase ao uso de medidas
de associação e/ou correlação.
¾ Distâncias e similaridades para pares de itens:
• Distância euclidiana:
Sejam dois vetores x’ = [x1, x2, ..., xp] e y’ = [y1, y2, ..., yp]. Então, a distância euclidiana entre eles
será:
d(x, y ) =
p
∑ (x
i =1
− yi ) =
2
i
(x − y )' . (x − y )
Onde, d(x, y) – distância euclidiana entre os vetores x e y.
•
Distância estatística:
Sejam dois vetores aleatórios x’ = [x1, x2, ..., xp] e y’ = [y1, y2, ..., yp]. Então, a distância estatística
entre eles será:
d est (x, y ) =
(x − y )' . S −1 . (x − y )
Onde, dest (x, y) é a distância estatística entre os vetores x e y e S é o estimador da matriz de variânciacovariância.
Vale lembrar que, para a determinação da distância estatística, torna-se necessário o conhecimento
das variâncias e covariâncias amostrais. Entretanto, sem o prévio conhecimento dos diferentes grupos,
tais informações não poderão ser geradas. Devido a este fato, a distância euclidiana é geralmente
preferida para a implementação das rotinas de identificação dos chamados “grupos naturais”.
3.2. Método de determinação de distâncias entre grupos:
¾ Método K-means:
Em linhas gerais, o método consiste de um algoritmo que busca redefinir o conjunto inicial de
grupos proposto, a partir da análise da distância entre os centróides dos mesmos, tomando por base a
distância euclidiana como sendo a medida de similaridade imposta.
Os passos percorridos pelo método podem ser resumidos da seguinte maneira:
1. Particionar os itens em K grupos iniciais, escolhidos aleatoriamente;
2. Percorrer o conjunto inicial de itens, comparando a distância entre cada um e os diferentes
grupos existentes, realizando a re-alocação dos mesmos, caso a menor distância auferida seja
inferior àquela apresentada pelo centróide do grupo no qual a variável estava inicialmente alocada
(normalmente utiliza-se a distância euclidiana, podendo as observações estar padronizadas ou
não);
569
Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
3. Repetir passos 1 e 2 até que não seja possível mais nenhuma realocação entre os grupos.
¾ Redes SOM:
A principal característica dos mapas auto-organizáveis é converter um sinal (padrão) de dimensão
arbitrária em um mapa discreto de uma ou duas dimensões, promovendo esta transformação de uma
maneira estruturalmente ordenada.
Dentre os métodos existentes, merece destaque aquele desenvolvido por Kohonen (1982), o qual
provém um mapeamento topológico, que aloca de maneira ótima um número fixo de vetores em um
espaço de entrada de dimensão elevada, facilitando a compressão da informação.
O algoritmo responsável pela formação dos mapas auto-organizáveis tem início a partir da
inicialização dos pesos sinápticos, a qual deve ser processada tomando-se por base valores aleatórios
pequenos a serem atribuídos a cada uma das interconexões.
Na figura abaixo, ilustra-se a metodologia de formação dos mapas auto-organizáveis, como o
modelo proposto por Kohonen.
Figura 1 – Representação esquemática dos mapas auto-organizáveis
Existem três grandes processos envolvendo a formação dos mapas auto-organizáveis. São eles:
• Competição: Para cada padrão de entrada apresentado os diferentes neurônios irão determinar
seus respectivos valores, a partir das chamadas funções discriminantes (base para competição). O
neurônio que apresentar o maior valor (estado de ativação) será considerado vencedor;
• Cooperação: A posição topológica do neurônio vencedor determinará quais neurônios irão
compor a vizinhança excitada, ou melhor, estimulada conjuntamente;
• Atualização do peso sináptico: Estabelece a forma pela qual os pesos das interconexões
(sinapses) de cada neurônio que compõe a vizinhança estimulada são alterados, de modo a
aumentar o valor da função discriminante de cada processador condicionado ao referido padrão de
entrada.
9 Características básicas:
ƒ
ƒ
ƒ
ƒ
ƒ
Regra de propagação: Netij = Σ xi . wij = X . W
Função de ativação: degrau (para o vencedor)
Topologia: 1 camada de processadores
Algoritmo de aprendizado: não supervisionado
Valores (entrada/saída): binários/contínuos
4. Métodos de Classificação
O processo de classificação objetiva a alocação de entidades em grupos, entendidos como
conjuntos de elementos previamente definidos. Conforme comentado, no presente trabalho foram
utilizados dois métodos de naturezas distintas: análise de discriminantes e PNN.
570
27 a 30/09/05, Gramado, RS
Pesquisa Operacional e o Desenvolvimento Sustentável
4.1. Análise de Discriminantes
A análise de discriminantes consiste de uma técnica de separação de entidades de interesse. Ainda
no que diz respeito à utilização da análise de discriminantes, deve-se ressaltar sua função quando da
alocação de determinados objetos ou observações a grupos (ou populações) previamente definidos.
Com base no que foi colocado, percebe-se a divisão da teoria de análise de discriminantes em dois
campos distintos, porém com determinado grau de convergência. São eles:
1. Separação: cujo objetivo principal é descrever, gráfica ou algebricamente, as diferenças
apresentadas pelos objetos (ou observações) a partir de grupos (ou populações) previamente
conhecidos. De maneira resumida, procede-se à identificação dos “discriminantes” que tornam as
observações tão distantes entre si quanto possível – definindo similaridades de maneira indireta.
2. Alocação: agrupar indivíduos, objetos ou observações em classes/categorias previamente
definidas.
O presente trabalho buscará dar ênfase à questão de alocação de itens de interesse, neste caso
ativos financeiros, em grupos previamente definidos – resultado da análise de cluster executada na
etapa inicial do presente trabalho.
Dentre os métodos de alocação (n grupos) existentes, merecem destaque:
¾ Análise de discriminantes (população normal com matriz de variância-covariância distinta):
Ao considerar grupos com função de distribuição de probabilidades Gaussiana e matriz de
variância-covariância distinta, tem-se que o mínimo da probabilidade total de classificação equivocada
dependerá da razão entre as verossimilhanças ou, equivalentemente, da diferença entre as logverossimilhanças (para detalhes, ver Johnson, Richard A. and Wichern, Dean W. – 5a edição). Dessa
forma, seja:
f K (x0 ) =
1
(2π )
p
2
ΣK
1
[(
. exp x0 − x K
2
) Σ (x
T
−1
K
0
− xK
)]
então, x 0 será alocado no grupo k, se f K (x 0 ) > f i ( x 0 ) ∀ i ≠ K
¾ Análise de Fisher:
A motivação do método está relacionada à necessidade de uma representação alternativa para a
população, onde esta seria definida a partir de combinações lineares das observações. Dentre as
vantagens do método, pode-se destacar:
•
•
•
Redução do número de parâmetros qualificadores das populações;
Análise explicita das relações existentes entre as populações;
Identificação de outliers.
Apesar o método de Fisher ter sido originalmente proposto com o objetivo de segregar
populações, seu uso em problemas de alocação é fortemente recomendado. Neste, um dado elemento é
associado a um determinado grupo caso o quadrado da distância verificada entre o elemento e o
centróide deste grupo seja inferior ao dos demais existentes (para detalhes, ver Johnson, Richard A.
and Wichern, Dean W. – 5a edição). Assim, seja:
g
(
)(
B = ∑ ni x i − x x i − x
i =1
)
T
Onde, g é o número de populações e ni o número de observações da população/grupo “i”.
571
27 a 30/09/05, Gramado, RS
Pesquisa Operacional e o Desenvolvimento Sustentável
g
ni
(
)(
W = ∑∑ x i j − x x i j − x
)
T
i =1 j =1
então, os autovetores (ai, i=1...r) da matriz W −1 B serão os chamados discriminantes amostrais de
Fisher e a regra de alocação será:
∑ [a (x
x 0 será alocado no grupo k, se:
j =1
T
j
)] < ∑ [a (x
2
r
0
− xK
j =1
T
j
)]
2
r
0
− xi
∀i ≠ K
4.2. PNN (Probabilistic Neural Networks)
Rede inspirada nos classificadores bayesianos, as PNNs vem sendo fortemente empregadas em
problemas de classificação de padrões em grupos com elementos previamente conhecidos. Dentre as
vantagens apresentadas merecem destaque:
- Mapeamento não linear dos dados de entrada;
- Poder de generalização (tratamento apropriado de dados ruidosos);
- Utilização do processamento paralelo (paralelismo);
- Aprendizado rápido;
- Convergência para o classificador bayesiano;
- Indicação de confiança (grau de evidência que justifica a alocação em determinado grupo em
detrimento de outros).
Na ilustração a seguir, é apresentado o funcionamento das redes PNNs para um caso genérico,
supondo p amostras da classe A e q amostras da classe B.
Figura 2 – Representação esquemática das redes PNNs
5. Estudo de Caso
Dentre os fatores que caracterizam um determinado ativo financeiro, pode-se destacar: fator de
risco de mercado, grau de liquidez, duração média, categoria do emissor. Assim, qualquer
procedimento de agrupamento deverá, necessariamente, fazer uso destes tipos de parâmetros, de forma
a minimizar os resultados de uma eventual substituição, tanto no que se refere à entidade garantidora
(clearing), quanto aos participantes de maneira geral.
5.1. Formação dos grupos
No estudo de caso proposto foram utilizados ativos financeiros hipotéticos de variados tipos.
Dentre estes destacam-se: debêntures, NTN-Ds, NBC-Es, LFTs, LTNs, NTN-Cs, CDBs e TDAs.
Processo de agrupamento: uso de variáveis dicotômicas.
9 Fator de risco de mercado (TJLP, TR, IPCA, IGP-M, Dólar, Juros pré e Juros pós);
9 Faixas de duração (0 – 0.5 ano, 0.5 – 1.0 ano, 1.0 – 1.5 anos, 1.5 – 2.0 anos e > 2.0 anos);
572
Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
9 Faixas – índices de liquidez (0 – 0.3, 0.3 – 0.6 e 0.6 – 1.0);
9 Categoria de emissor (A, B e C).
A seguir são apresentadas as metodologias propostas no presente artigo aplicadas ao estudo de
caso em questão.
5.1.1. K-means
Conforme já mencionado anteriormente, o procedimento estatístico utilizado para composição dos
grupos foi o K-means, pertencente à família dos métodos aglomerativos não-hierárquicos. Após o
término do processo de obtenção dos dados, ou seja, geração das informações referentes aos ativos
financeiros, passa-se à fase de elaboração da base a ser utilizada pela rotina de formação dos grupos.
Após a montagem da base de dados, tem início o processo de construção dos grupos, mediante
aplicação do algoritmo K-means. Neste, conforme já visto ao longo do trabalho, torna-se necessária a
definição prévia do número de grupos a serem formados.
No contexto do trabalho a ser desenvolvido, optar-se-á pela construção de sete grupos distintos. A
seguir, são apresentados os resultados obtidos para os dois ensaios realizados.
•
Ensaio 1 – pesos iguais para parâmetros
Tabela 1 – Grupos de ativos financeiros (pesos iguais) – K-means
•
Ensaio 2 – pesos variados para parâmetros
•
•
•
•
Fatores de risco: 3;
Duration: 1;
Índice de Liquidez: 2;
Rating: 2.
Tabela 2 – Grupos de ativos financeiros (pesos diferentes) – K-means
•
Ensaio 1:
Grupo 1 → Praticamente todos os ativos apresentam como fator de risco a Taxa de Juros de
Longo Prazo - TJLP. Somente o ativo DEB VOT 2 possui como fator de risco o CDI. Todos os
título têm o prazo de 3 anos, com vencimento em 2003;
Grupo 2 → Todos os ativos possuem como fator de risco principal a Taxa Referencial (TR).
Somente DEB SHELL IPCA possui como indexador o IPCA;
573
Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
Grupo 3 → Neste grupo, os fatores que prevaleceram na composição das medidas de similaridade
foram: rating dos emissores e índice de liquidez.;
Grupo 4 → Composto por títulos públicos e privados (debênture), tendo como fator de risco a
taxa de variação de inflação medida pelo IGP-M (NTN-C’s);
Grupo 5 → Composto somente por títulos públicos, tendo como fator de risco a taxa de câmbio
(NTN-D’s e NBC-E’s);
Grupo 6 → Composto basicamente por títulos pré-fixados, com duração muito semelhante;
Grupo 7 → Composto por ativos que apresentam um mesmo grau de liquidez e cujos emissores
encontram-se classificados como rating “A”.
•
Ensaio 2:
Neste, devido ao peso conferido aos fatores de risco ser superior aos demais parâmetros, pode-se
constatar que esta é a medida que prevalece na montagem dos grupos.
5.1.2. SOM
A rede neural utilizada nesta etapa do trabalho apresenta as seguintes características principais:
-
Topologia: 15 x 15;
Vizinhança: quadrada;
Medida de distância: Euclidiana;
Número de épocas (ajuste fino): 100000;
Taxa de aprendizado: 0.2.
A seguir serão apresentados os resultados obtidos a partir do emprego das redes auto-organizáveis,
em especial, o mapa de Kohonen.
•
Ensaio 1 – pesos iguais para parâmetros
Figura 3 – Grupos formados a partir do uso das redes SOM (pesos iguais)
Tabela 3 – Grupos de ativos financeiros (pesos iguais) – Redes SOM
574
Pesquisa Operacional e o Desenvolvimento Sustentável
•
27 a 30/09/05, Gramado, RS
Ensaio 2 – pesos variados para parâmetros
•
•
•
•
Fatores de risco: 3;
Duration: 1;
Índice de Liquidez: 2;
Rating: 2.
Figura 4 – Grupos formados a partir do uso das redes SOM (pesos diferentes)
Tabela 4 – Grupos de ativos financeiros (pesos diferentes) – Redes SOM
•
Ensaio 1:
Grupo 1 → Praticamente todos os ativos apresentam como fator de risco a Taxa de Juros de
Longo Prazo - TJLP;
Grupo 2 → Todos os ativos possuem como fator de risco principal a Taxa Referencial (TR);
Grupo 3 → Neste grupo, os fatores que prevaleceram na composição das medidas de similaridade
foram: rating dos emissores e índice de liquidez;
Grupo 4 → Composto somente por títulos públicos, tendo como fator de risco a taxa de variação
de inflação medida pelo IGP-M (NTN-C’s);
Grupo 5 → Composto principalmente por títulos públicos, tendo como fator de risco a taxa de
câmbio (NTN-D’s e NBC-E’s) – exceção para DEB PETR1;
Grupo 6 → Composto basicamente por títulos pré-fixados, com duração muito semelhante;
Grupo 7 → Composto por ativos que apresentam um mesmo grau de liquidez e cujos emissores
encontram-se classificados como rating “A”.
•
Ensaio 2:
575
Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
Neste, devido ao peso conferido aos fatores de risco ser superior aos demais parâmetros, pode-se
constatar que esta é a medida que prevalece na montagem dos grupos. Vale ressaltar que o processo de
agrupamento realizado pelas redes auto-organizáveis alcançou um resultado final superior, pelo menos
do ponto de vista qualitativo, do que o método estatístico (K-Means).
5.2. Classificação de novos ativos
A presente seção tem por objetivo, a partir do emprego da análise de discriminantes (método de
Fisher) e do uso de redes PNNs, determinar o grupo no qual um determinado conjunto de ativos
financeiros hipotéticos deveria ser alocado, de forma a respeitar as idéias de determinação de classes
apresentadas quando da primeira fase do trabalho. Para tal, serão utilizados os grupos definidos
anteriormente, resultado da análise de cluster com ausência de ponderação. Neste exemplo ilustrativo
será considerada somente a saída obtida a partir dos procedimentos estatísticos.
5.2.1. Análise de Discriminantes
Convém ressaltar a necessidade de re-parametrização dos objetos em estudo, devido ao fato de que
existe uma maior quantidade de “parâmetros qualificadores” do que de observações (entidades
alocadas por grupo) propriamente ditas. Sem este procedimento, o estimador da matriz de variânciacovariância se mostrará não inversível.
Desta forma, será considerado o seguinte conjunto de ativos:
Tabela 5 – Conjuntos de ativos financeiros a serem alocados em grupos pré-existentes
e a seguinte re-parametrização1, onde o objetivo é reduzir o número de parâmetros qualificadores,
consolidando a natureza dos inicialmente utilizados:
Tabela 6 – Re-parametrização proposta
Dessa forma, o novo conjunto de ativos terá a seguinte forma:
Tabela 7 – Conjuntos de ativos financeiros (após re-parametrização)
Assim, seguindo-se os passos do método de Fisher (descritos anteriormente) e aplicando a reparametrização proposta aos ativos analisados na etapa inicial do trabalho, ter-se-á:
1
A re-parametrização proposta não torna os subgrupos existentes ordenáveis, estando relacionada a um procedimento
puramente qualitativo de identificação.
576
27 a 30/09/05, Gramado, RS
Pesquisa Operacional e o Desenvolvimento Sustentável
•
Resultado final (alocação dos ativos nos grupos previamente definidos):
Ativos
Ativo 1
Ativo 2
Ativo 3
Ativo 4
Ativo 5
Grupo 1 Grupo 2 Grupo 3 Grupo 4 Grupo 5 Grupo 6 Grupo 7
0
0
0
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
Tabela 8 – Resultado final da classificação (análise de discriminantes)
5.2.2. PNN
Neste, não se faz necessário qualquer tipo ou procedimento de re-parametrização, o qual pode,
além do inconveniente resultante da manipulação da base de dados, ocasionar desvios nos resultados a
serem obtidos.
A seguir são apresentados os resultados obtidos pela execução da rede.
Ativos
Ativo 1
Ativo 2
Ativo 3
Ativo 4
Ativo 5
Grupo 1
0
0
0
1
0
Grupo 2
0
0
0
0
0
Grupo 3
0
0
0
0
0
Grupo 4
0
0
0
0
0
Grupo 5
0
0
1
0
0
Grupo 6
1
1
0
0
1
Grupo 7
0
0
0
0
0
Tabela 9 – Resultado final da classificação (redes PNN)
6. Comentários finais e conclusões
Pode-se perceber que a teoria de análise de cluster atende à proposição básica de mercados pouco
líquidos, a qual diz respeito à identificação de padrões de similaridade entre os ativos financeiros
passíveis de negociação. Apesar dos resultados obtidos terem sido satisfatórios sob o ponto de vista
processual, ressalta-se que existe um elevado grau de subjetividade, tanto com relação à escolha do
modelo para composição dos grupos (medidas de distância, formas de agrupamento,...), como na
própria aferição dos resultados obtidos, sendo imprescindível, nesse caso, o pleno domínio do
problema em estudo, de forma a minimizar possíveis distorções na informação final, resultado do
modelo.
No caso em estudo, vimos que os resultados do modelo proposto se mostram sobremaneira
sensíveis a mudanças nos valores dos parâmetros que qualificam as variáveis de interesse, estando
todos os demais resultados condicionados à ponderação ou grau de importância atribuído a cada um
desses parâmetros, cabendo observar, mais uma vez, a importância do completo entendimento do
problema.
Pode-se concluir que tanto o emprego da análise de discriminantes, quanto do PNN foram bem
sucedidos, dentro da idéia de se desenvolver uma alternativa à alocação de novas entidades a grupos
previamente selecionados, não tornando necessário todo o processamento de formação dos grupos
desenvolvido. Convém ressaltar que, numa implementação prática da metodologia proposta neste
trabalho, esta questão seria de grande importância no gerenciamento da “inclusão” de novos ativos no
mercado, tanto em termos de acurácia, precisão e praticidade, quanto em termos da possível ausência
de alguns dos parâmetros balizadores/qualificadores das variáveis de interesse.
577
Pesquisa Operacional e o Desenvolvimento Sustentável
27 a 30/09/05, Gramado, RS
Bibliografia
[1] Algorithmics Inc. RiskWatch – Sistema de controle e gerenciamento de risco.
[2] Banco Central do Brasil. “Manual de Títulos e Valores Mobiliários.” 1997.
[3] Haykin, S. “Neural Networks” – Second Edition – Prentice Hall.
[4] Johnson, Richard A. and Wichern, Dean W. “Applied Multivariate Statistical Analysis” – Fifth
Edition – Prentice Hall.
578
Download

ANÁLISE DE EQUIVALÊNCIA ENTRE ATIVOS FINANCEIROS