RELATÓRIOS DE PESQUISA EM ENGENHARIA DE PRODUÇÃO, v.13, Série C, n. 2, p. 12-21.
DETALHAMENTO DE UMA METODOLOGIA DE CLASSIFICAÇÃO
BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
Annibal Parracho Sant’Anna
Universidade Federal Fluminense
Resumo
Este artigo detalha, passo a passo, um procedimento de classificação de uma opção identificada
pelos valores de certo número de atributos ou de avaliações segundo certo número de critérios ou
avaliadores. As classes são previamente determinadas por alguns perfis de referência, isto é, por opções
fictícias com valores dos referidos atributos ou avaliações que as identificam. A ideia básica para o
procedimento é que todas as medidas envolvidas não são números exatos, mas, sim, valores de variáveis
aleatórias. A composição probabilística é usada para calcular probabilidades de um vetor de variáveis
aleatórias com parâmetros de posição dados pelos valores da opção apresentar valores respectivamente
acima e abaixo dos valores apresentados pelas variáveis aleatórias centradas nos valores dos perfis de
referência. A opção é alocada na classe para a qual esses dois valores são mais próximos um do outro.
Um exemplo de aplicação é construído para tornar mais compreensível o procedimento.
Palavras-chave. Composição Probabilística de Preferências, Computação, Apoio à Decisão
Multicritério
Artigo submetido em 19/8/2013. Versão final recebida em 21/9/2013. Publicado em 30/9/2013.
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
13
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
1. Introdução
A Composição Probabilística de Preferências (CPP), proposta por Sant’Anna e
Sant’Anna (2001) e desenvolvida mais detalhadamente em Sant’Anna (2009) é uma
metodologia para composição de múltiplos critérios que leva em conta a imprecisão nas
medidas dos atributos ou nas manifestações de preferência. As avaliações iniciais segundo cada
critério são tratadas como parâmetros de posição de distribuições estatísticas. Depois de
precisamente especificadas essas distribuições, a comparação entre as opções segundo cada
critério resulta na determinação de probabilidades de preferência.
A ideia de comparar com base na composição de probabilidades de preferência é
aplicada em Sant’Anna et al. (2012) para classificar opções identificadas por múltiplos critérios
em classes predeterminadas por perfis de referência. Neste caso, em vez de comparar as opções
entre si, basta compará-las com os perfis representativos de cada classe. Tanto as avaliações das
opções segundo os múltiplos critérios, quanto os dos perfis de referência, que são dados por
avaliações fictícias segundo os mesmos critérios, são, para realizar-se a comparação, tratados
como estimativas de parâmetros de localização de variáveis aleatórias.
A modelagem dessas variáveis pode ser desenvolvida livremente de modo a representar
adequadamente os fatores que provocam a imprecisão nas avaliações. Para constituir um
padrão, adotam-se neste artigo distribuições normais. Os valores observados fornecem as
médias para essas distribuições. Seus desvios padrão são estimados pelos desvios padrão das
amostras de valores usados para representar avaliações segundo o critério respectivo nos perfis
de referência.
O número de critérios e de perfis representativos de cada critério é também de livre
escolha. Como em Sant’Anna (2013), o que é chamado de avaliação segundo um critério pode
ser o valor de um atributo ou de uma medida de preferência extraída de qualquer forma de
qualquer conjunto de avaliadores.
Também se pode escolher entre as diferentes formas de composição de preferência
sugeridas em Sant’Anna (2013). Pode-se usar, por exemplo, a probabilidade de as avaliações
segundo todos os critérios estarem de um mesmo lado, acima ou abaixo dos perfis
representativos a classe ou a probabilidade de as avaliações segundo pelo menos um critério.
Formas alternativas de composição são usadas para encapsular a classificação em um
intervalo entre dois extremos. O extremo inferior é obtido aplicando uma forma de
classificação mais exigente e outro, aplicando uma forma de classificação mais benevolente. O
uso destes dois adjetivos corresponde à ideia de que as classes estão ordenadas com uma classe
estando acima de outra quando os valores dos seus perfis representativos apresentam valores
maiores que os da outra.
A seguir são detalhados os sucessivos passos do procedimento. Depois se aplica a
metodologia a um exemplo de classificação dos alunos de uma turma em cinco classes com
base em critérios derivados das notas finais em sete disciplinas.
2. O Procedimento Passo a Passo
2.1. Primeira Etapa. Modelagem do Problema
A etapa inicial, de modelagem, envolve a escolha dos atributos, critérios ou avaliadores
a serem empregados, do número de classes e dos perfis representativos de cada classe e da
distribuição de probabilidades para as perturbações estocásticas que se supõe afetarem as
medições.
14
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
O princípio da parcimônia é o mais importante nesta etapa. Indica evitar critérios
redundantes, não usar mais valores para as avaliações que o suficiente para discriminar
adequadamente as opções a comparar e poucos perfis de referência. Em geral não há
necessidade de mais de um perfil de referência para cada classe nem de mais de cinco classes.
Quanto à distribuição de probabilidades das perturbações, a distribuição normal é a
mais usada para representar erros de medida. A ideia por trás da hipótese de normalidade é a de
que a aleatoriedade decorre da combinação de um grande número de possíveis desvios para um
ou outro lado. Em Sant’Anna (2013) são adotadas distribuições triangulares assimétricas,
tomando por base a ideia de que seriam mais prováveis os desvios em direção aos extremos
mais afastados. Esta hipótese é mais razoável no caso em que o objetivo é escolher uma melhor
opção. No caso de classificação, as opções podendo, em princípio, pertencer a qualquer classe
no espectro considerado, a hipótese clássica de normalidade parece mais natural. Nada impede
que se usem, entretanto, distribuições triangulares ou quaisquer outras que pareçam mais
adequadas a uma situação real.
Na falta de informação mais precisa, o desvio-padrão das distribuições normais é
suposto o mesmo para todas as medições segundo o mesmo critério e estimado pelo desviopadrão da amostra de medidas segundo esse critério nos padrões de referência. A dispersão dos
padrões de referência decorre em parte de caracterizarem classes distintas e pode-se supor que
as medidas de opções de uma classe possam concentrar-se nas proximidades dessa classe, mais
do que os valores observados nos padrões de referência, de modo que se esteja com isto
superestimando levemente os desvios padrão. Como esse possível viés afeta igualmente todas
as medidas, seu efeito sobre as comparações tem-se revelado negligenciável.
Quando se conhecem antecipadamente as alternativas que se pretende classificar, podese orientar a construção dos perfis de referência de modo a evitar que a estimação das
dispersões pelos desvios-padrão observados venha a atribuir maior influência a critérios com
perfis mais concentrados. Pode-se garantir igual espaçamento entre os perfis das diferentes
classes em todos os critérios, usando para construir os perfis os percentis das distribuições
observadas nas avaliações das alternativas segundo cada critério.
Por exemplo, no caso de cinco classes, as coordenadas do perfil representativo da
primeira classe seriam dadas pelos percentis de 10%. As do segundo, pelos percentis de 30%.
As do terceiro, pelas medianas. As do quarto, pelos percentis de 70%. E as do perfil da classe
mais alta pelos percentis de 90%. Em geral, para um número n qualquer de classes, as classes
extremas usariam os percentis de 1/n-1/2n e (n-1)/n+ 1/2n, mantendo-se entre classes
sucessivas distâncias constantes de 1/n.
Cabe observar, ainda, que a distribuição normal é uma distribuição no conjunto dos
números reais e os valores observados costumam ser inteiros positivos. À discretizaçao dos
valores todos estão acostumados, mas, nem sempre é fácil admitir que as medidas de certas
grandezas possam tomar valores negativos. Distribuições truncadas no zero podem ser usadas
para tornar o modelo mais realista, mas, complicam o cálculo desnecessariamente. A
distribuição dos erros afeta pouco a comparação e a possibilidade de erros cada vez mais raros
para os dois lados do centro da distribuição é, geralmente, real.
2.2. Segunda etapa. Construção das Matrizes de Identificação das classes
O número de perfis previamente oferecidos é variável. Para equilibrar a comparação
são adicionados perfis com valores iguais às médias aritméticas dos valores dos perfis iniciais
em número tal que, ao se efetuarem os cálculos todas as classes tenham o mesmo número de
perfis.
Assim, a classe de ordem i é representada por uma matriz Ci de ordem mXn onde m é o
número máximo de perfis oferecido inicialmente para identificar alguma classe e n é o número
15
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
de critérios. Os perfis representativos de cada classe são representados por avaliações em todos
os critérios menores ou iguais às dos perfis das classes acima dela, de modo que essas matrizes
devem obedecer à restrição Ci1(j1,k) ≤ Ci2(j2,k) se i1<i2, para todo par (j1, j2) de valores entre 1 e
m.
2.3 Terceira Etapa. Cálculo das Probabilidades de Dominância
A computação mais delicada da composição probabilística de preferências é a das
probabilidades de dominância. No caso de classificação em classes predeterminadas, esta
computação se simplifica muito, pois não se comparam mais todas as opções de um conjunto
entre si. Cada opção é comparada apenas com o conjunto de perfis de referência de cada classe.
Se há apenas um perfil para cada classe, este cálculo consiste na aplicação direta da
função de distribuição normal acumulada. Para um número maior de perfis em cada classe,
denotando por (Xij1, ... , Xijn) o vetor de variáveis aleatórias representativas do j-ésimo perfil da
i-ésima classe e por (Y1, ... , Yn) o vetor de variáveis aleatórias representativas da opção a ser
classificada, os resultados das comparações são duas matrizes de qXn coordenadas, onde n
continua denotando o número de critérios e q é o número de classes.
As coordenadas da primeira dessas matrizes são as probabilidades, para cada critério k
e cada classe i, de Yk ≥ Xijk para todo j de 1 a m.
Analogamente, as coordenadas da segunda são as probabilidades, para cada critério k e
cada classe i, de Yk ≤ Xijk para todo j de 1 a m.
tem-se:
Denotando por Aik+ a coordenada ik da primeira dessas matrizes e por Aik- a da segunda,
Aik+ = P[Yk ≥ Xijk para todo j]
e
Aik- = P[Yk ≤ Xijk para todo j].
Assumindo independência entre as perturbações, as probabilidades destas duas
interseções são dadas pelos produtos. Assim,
Aik+ = ∏j P[Yk ≥ Xijk]
e
Aik- = ∏j P[Yk ≤Xijk].
Pode ser útil lembrar aqui que a média de Xijk é o valor rijk da avaliação atribuída pelo
critério k-ésimo ao j-ésimo perfil da classe i e a média de Yk é o valor atribuído à opção pelo késimo critério. E que, tanto para Xijk quanto para Yk, usa-se como desvio padrão o desvio padrão
observado no vetor (r11k, ... , r1mk, ... , rq1k, ... , rqmk).
Cada uma das probabilidades do primeiro desses vetores pode ser calculada em uma
planilha Excel usando algum procedimento de cálculo da integral na reta do produto de m+1
fatores, os valores das m funções de distribuição normal acumulada de média rijk e o valor da
fução de densidade normal de média ak, todas com o desvio-padrão acima referido. Para obter o
segundo vetor, basta repetir este cálculo, substituindo rijk por –rijk.
2.4. Quarta Etapa. Classificação
Para cada classe, do vetor de probabilidades de a opção estar acima dos perfis
representativos da classe para os n critérios é obtido, segundo uma regra de composição
probabilística, um escore único. Outro escore combina as probabilidades de a opção estar
16
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
abaixo dos perfis representativos da classe. A opção é classificada na classe para a qual seja
mínimo o valor absoluto da diferença entre esses dois escores.
Usando uma regra de composição pessimista, baseada no cálculo da probabilidade da
interseção dos eventos correspondentes à dominância segundo cada critério, assumindo
independência e denotando por Ai+ e Ai- esses dois escores, tem-se
Ai+ =∏kAik+
e
Ai- =∏kAikA hipótese de independência tem a vantagem de usar de todos Aik+ e Aik-, enquanto a
hipótese de máxima correlação levaria a desprezar todos os valores menos o maior ou o menor.
Além disso, a ausência de correlação entre perturbações em avaliação é muito mais comum que
a de existência de correlação. Já o ponto de vista pessimista, que leva a calcular probabilidades
de a alternativa estar acima por todos os critérios ou abaixo por todos os critérios, só tem a
vantagem de conduzir a valores mais espaçados. Pode ser usada concomitante com o ponto de
vista otimista, conduzindo a duas estimativas centrais para a posição da alternativa. A
divergência entre essas duas classificações eventualmente reforçará a conveniência de usar uma
classificação intervalar em vez da classificação pontual.
O escore derivado do ponto de vista otimista para substituir Ai+ baseia-se na
substituição do evento: estar acima dos perfis da classe por todos os critérios pelo
complementar do evento: estar abaixo dos perfis da classe por todos os critérios. Analogamente
para a probabilidade de estar abaixo.
Assim, como variante para Ai+ e Ai-, temos
ai+ = 1 - ∏k(1-Aik+)
e
ai- = 1 - ∏k(1-Aik-)
Outras regras de composição podem ser aplicadas. Para ter uma informação sobre
limites a que se pode chegar mudando a regra de cálculo, pode ser oferecido, junto com a
classificação pontual, um classificação intervalar, situando a alternativa entre os dois extremos
de um par de classificações, uma extremamente benevolente e outra extremamente exigente. O
limite inferior é dado pela classificação obtida usando, em lugar de Ai+, o mínimo entre as
probabilidades de a opção estar acima da classe i por algum escore isolado e em lugar de Ai-, o
máximo. Assim a classificação exigente coloca a opção na classe i que minimize o valor
absoluto de
minkAik+ - maxkAikJá o limite superior é dado pela classificação obtida usando em lugar de Ai+ o máximo
entre as probabilidades de a opção estar acima da classe por algum escore isolado e usando em
lugar de Ai- o mínimo. Assim a classificação benevolente coloca a opção na classe i que
minimize o valor absoluto de
maxkAik+ - minkAik-.
3. Exemplo
Como exemplo de aplicação consideremos o problema de, no fim do ano letivo, decidir
o destino dos 24 alunos de uma turma do ensino fundamental com base no seu desempenho em
17
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
sete disciplinas. As opções a classificar são os alunos e os critérios são baseados em atributos
quantitativos, as notas finais dos alunos nas sete disciplinas.
Associadas a cinco possíveis destinos dos alunos no ano seguinte, cinco classes são
consideradas. Para identificar as classes são formados perfis de notas nas disciplinas. Para
ilustrar a possibilidade de identificar as classes por fronteiras entre classes sucessivas,
admitimos neste exemplo perfis iguais em classes sucessivas, os mesmos valores sendo usados
no perfil superior de cada uma dessas classes e no perfil inferior da seguinte.
Assim, três perfis representativos são usados para as três classes centrais, um perfil
inferior, um perfil intermediário e um perfil superior. As classes extremas são representadas por
um único perfil central.
As classes e os respectivos perfis são as seguintes.
A.
Alunos selecionados para inclusão em programa de
acompanhamento de alunos especialmente qualificados, representada por 1
perfil: 90 em cada disciplina.
B.
Alunos promovidos para turma comum da série seguinte,
representada por três perfis: superior, 80, mediano, 70, e inferior, 60, em cada
disciplina.
C.
Alunos promovidos para turma da série escolar seguinte com
acompanhamento de deficiências, representada por três perfis: superior, 60,
mediano, 50, e inferior, 40, em cada disciplina.
D.
Alunos mantidos na série escolar atual, representada por três
perfis: superior, 40, mediano, 30, e inferior, 20, em cada disciplina.
E.
Alunos mantidos na mesma série escolar com
acompanhamento de deficiências, representado por um perfil: perfil, 10 em
cada disciplina.
A primeira etapa, de modelagem do problema, termina com a estimação dos desvios
padrão para as distribuições normais que representarão as avaliações segundo cada critério.
Como os perfis são, neste caso, vetores de sete valores iguais, os desvios-padrão serão os
mesmos para todos os sete critérios. A estimativa comum é o desvio padrão da amostra de 11
coordenadas (10,20,30,40,40,50,60,60,70,80,90), igual a 25 aproximadamente.
A segunda etapa consiste na uniformização dos números de perfis das classes. Desta
etapa resultam cinco matrizes de três linhas e sete colunas. As matrizes da primeira e da última
classe são formadas simplesmente por três replicações dos perfis iniciais
(10,10,10,10,10,10,10) e (90,90, 90, 90, 90, 90,90), respectivamente.
Apenas na terceira etapa se dá entrada aos valores das opções a serem avaliadas. Cada
opção é avaliada separadamente. Sugere-se aqui transferir os valores das avaliações da opção
segundo cada critério para uma quarta linha de cada uma das cinco matrizes de perfis formadas
na etapa anterior e usar essas matrizes como entrada para um procedimento do MATLAB como
o empregado na Etapa 3 da Composição Probabilística de Preferências em Sant’Anna (2013).
Alternativamente, a probabilidade conjunta pode ser calculada por um procedimento
numérico de integração aproximada na própria planilha Excel em que essas matrizes são
formadas como indicado na seção anterior.
O resultado dessa etapa são os vetores de probabilidades de classificação acima e
abaixo de cada classe. Para um aluno com notas (41,55,75,46,45,40,48), as probabilidades de
situar-se em cada um dos sete critérios acima e abaixo de cada uma das classes são dadas nas
Tabelas 1 e 2 a seguir.
18
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
Tabela 1. Probabilidades Aik+ de a opção estar acima de cada classe em cada critério
1
2
3
4
5
6
7
Classe\Critério
0,011
0,034
0,122
0,017
0,016
0,010
0,020
A
0,048
0,114
0,288
0,067
0,063
0,045
0,076
B
0,156
0,288
0,532
0,198
0,189
0,148
0,216
C
0,357
0,532
0,762
0,418
0,406
0,345
0,443
D
0,628
0,780
0,920
0,687
0,675
0,616
0,709
E
Tabela 2. Probabilidades Aik- de a opção estar abaixo de cada classe em cada critério
Classe\Critério
1
2
3
4
5
6
7
0,816
0,675
0,425
0,771
0,780
0,824
0,751
A
0,582
0,406
0,189
0,520
0,532
0,595
0,494
B
0,333
0,189
0,063
0,277
0,288
0,345
0,256
C
0,141
0,063
0,014
0,108
0,114
0,148
0,096
D
0,046
0,016
0,002
0,032
0,034
0,049
0,027
E
A última etapa consiste em compor as probabilidades segundo os sete critérios em
escores globais de localização acima e abaixo das classes e comparar esses escores para obter a
classificação final.
Os escores para a localização acima de cada classe nas composições pelo produto, o
mínimo e o máximo, respectivamente, para o mesmo vetor de notas acima referido, estão na
Tabela 3 e as probabilidades de localização abaixo, na Tabela 4.
Tabela 3. Escores globais Ai+ de localização acima de cada classe
Algum
Classe\Escore
Todos
Mínimo
Máximo
0,000000000003 0,213651638517
0,010
0,122
A
0,045
0,288
0,000000022785 0,536694671844
B
0,000028682315 0,877950609066
0,148
0,532
C
0,003764460778 0,990996250333
0,345
0,762
D
0,091324334882 0,999925846750
0,616
0,920
E
Tabela 4. Escores globais Ai- de localização abaixo de cada classe
Algum
Classe\Escore Todos
Mínimo
Máximo
0,087340011560 0,999924595943
0,425
0,824
A
0,003631380509 0,990733838178
0,189
0,595
B
0,000027924610 0,872961022403
0,063
0,345
C
0,000000022355 0,517177276126
0,014
0,148
D
0,000000000003 0,189658830333
0,002
0,049
E
19
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
Finalmente, para cada forma de composição, se determina qual a classe com as
probabilidades de estar acima e abaixo mais próximas. Um algoritmo de classificação pode ser
empregado para, primeiro, correndo as classes em ordem ascendente (ou descendente),
localizar o par de classes em que a diferença Ai+ - Ai- troca de sinal e depois escolher entre essas
duas classes aquela em que essa diferença é mais próxima de zero.
Uma macro pode ser empregada para realizar de uma vez as classificações para as
opções uma a uma. O resultado da aplicação a uma turma com as notas das sete primeiras
colunas da Tabela 5 gerará as classificações exigente, centrais e benevolente da Tabela 5.
1
100
95
90
85
50
45
43
42
42
41
41
40
40
40
40
39
38
36
34
33
32
21
12
0
2
85
82
92
80
75
50
56
65
45
55
43
52
55
65
48
52
51
70
44
46
65
41
44
15
Tabela 5. Avaliações Iniciais e Classificações Finais
benevolente
3
4
5
6
7
exigente centrais
81 100 90
90
92
5
5
5
5e
68
90
83
85
95
4
5 5
5
59
86
90
88
80
3
5 5
5
80
52
82
88
81
3
4 5
5
70
60
65
55
58
3
4 4
4
71
62
68
63
65
3
4 4
4
64
72
58
63
67
3
4 4
4
73
65
55
65
55
3
3 4
4
75
44
40
45
53
3
3 3
4
75
46
45
40
48
3
3 3
4
77
42
65
46
60
3
3 3
4
79
65
50
55
45
3
3 3
4
67
79
50
51
58
3
3 3
4
58
48
45
69
65
3
3 3
4
75
49
60
47
45
3
3 3
4
80
60
55
62
65
2
3 3
4
72
65
57
41
59
2
3 3
4
80
50
51
53
55
2
3 3
4
71
64
66
55
61
2
3 3
4
76
65
60
60
60
2
3 3
4
75
68
60
48
60
2
3 3
4
65
60
69
65
60
2
3 3
4
52
58
50
45
55
1
3 3
3
15
20
25
30
30
1
1 2
2
4. Conclusão
O desenvolvimento detalhado aqui apresentado demonstra a facilidade de se utilizar
esta metodologia de classificação recorrendo a qualquer aplicativo computacional que forneça
apenas informação sobre os valores da distribuição normal unidimensional. Outras
distribuições e outras hipóteses sobre as correlações entre as variáveis aleatórias podem ser
usadas sem grande acréscimo de dificuldade computacional. No conjunto de dados aqui tratado,
20
METODOLOGIA DE CLASSIFICAÇÃO BASEADA NA COMPOSIÇÃO PROBABILÍSTICA DE PREFERÊNCIAS
tanto quanto em outros conjuntos de dados analisados anteriormente, verificou-se que tais
escolhas da distribuição para tornar os modelos mais apropriados aos dados exercem influência
muito limitada sobre a classificação.
Agradecimento. Este trabalho contou com o apoio do CNPq, por meio de bolsa de
produtividade de pesquisa.
Referências
Sant’Anna, A. P. (2009).A Probabilistic Approach to the Evaluation and Combination of
Preferences. In: Ajith, A., Hassanien, A. e Snasel, V. (Org.). Function Approximation and
Classifications. Berlin: Springer, p. 107-125.
Sant’Anna, A. P. (2013). Procedimento de Cálculo para a Composição Probabilística de
Preferências, Relatórios de Pesquisa em Engenharia de Produção, v. 13,CC, 1, 1-11.
Sant’Anna, A. P., Costa, H. G e Pereira, V. (2012). CPP-TRI: Um método de Classificação
Ordenada baseado em Composição Probabilística. Relatórios de Pesquisa em Engenharia de
Produção, v. 12, n. 8, p. 104-117.
Sant’Anna, A. P. e Sant’Anna, L. A. F. P. (2001). Randomization as a Stage in Criteria
Combining. In Ribeiro, J. L. D., Fogliato, F. S e Guimarães, L. B. M, Production and
Distribution Challenges for the 21th Century. ABEPRO, P. Alegre, p. 248-256.
21
Download

Detalhamento de uma Metodologia de Classificação Baseada na