Seleção de Atributos
Aprendizagem de Máquina
• Artur Aquino
• Gabriel Albuquerque
• Hallan Cosmo
Roteiro
• Introdução
• Metodologia
• PSO
• O Problema
• Implementação
• Resultados
• Comparação
• Conclusão
Introdução
• Atributos não relevantes podem reduzir a precisão dos
algoritmos de aprendizado supervisionado
• Algoritmos de seleção de atributos buscam selecionar
atributos não redudantes e relevantes.
• O problema aqui é: qual caminho tomar para selecionar
os atributos?
– Busca exaustiva não é uma boa estratégia
Metodologia
• Seleção de atributos
• Algoritmo: Particle Swarm Optimization – PSO
• Algoritmo supervisionado no WEKA
– WrapperSubset Eval
• Comparação
PSO
• Foi inicialmente descrito em 1995 por James Kennedy e
Russell C. Eberhart mas evoluiu muito desde então
• É uma espécie de inteligência coletiva de um enxame
baseada em principios psico-sociológicos
• Pode ser utilizado para demonstrar comportamentos
sociais ou aplicações de engenharia
PSO
• O PSO é um algoritmo de otimização estocástico e
baseado em populações
• Os atributos são abstraídos para partículas no espaço
– Posição
• Taxa de mudança
– Velocidade
PSO
• Comunicação -> Melhor posição
– Local
– Global
• Ajuste buscando o ótimo
– Posição
– Velocidade
PSO - Exemplo
• Gaivotas telepáticas (trocam informações) em posições
aleatórias buscando a melhor fonte de comida
• Como sabem qual gaivota está mais próxima alteram
velocidade e posição
• Vão mantendo o registro das melhores posições e
velocidades
• Convergem para a fonte de comida (o ótimo)
O Problema
• Temos um problema de classificação, onde devemos
determinar se um animal é Peixe ou não.
• A partir de um conjunto de atributos, em que,
eventualmente, alguns são irrelevantes e reduzem a
precisão do algoritmo.
Implementação
• PSO - Algoritmo de busca
• Classificador Naive Bayes
• Comparação
– Naive Bayes do Weka
Resultados
• Experimentamos diferentes quantidades de partículas no
espaço
Comparação
• PSO x todos os atributos x weka
– Acerto calculado no weka
– Diferença muito pequena
• Quantidade de atributos
– Weka: 20
– PSO: 6 (10000 partículas)
Conclusão
• Muitos atributos não é necessariamente vantagem
– Redundância
– Irrelevância
• PSO tende a melhorar com o aumento de partículas
inicialmente geradas
– Até certo ponto
• O algoritmo implementado foi muito básico mas, ainda
assim consegue resultados próximos ao do weka com
menos atributos
Seleção de Atributos
Aprendizagem de Máquina
• Artur Aquino
• Gabriel Albuquerque
• Hallan Cosmo
Download

Aprendizagem