Clustering de Documentos Equipe Diogo Philippini Pontual Branco Flavio de Holanda Cavalcanti Junior José Paulo Henrique de Melo Fernandes Luana Martins dos Santos Roteiro Motivação Clustering x Classificação Métodos K-means Arquitetura de Mozer Adaptive Information Retrival (AIR) Adaptive Resonance Theory (ART) Aplicações Conclusão Motivação Motivação Agrupar documentos semelhantes em classes nãoconhecidas a priori. Motivação Motivação Loja Chocolate Morango A 12 6 B 20 16 C 18 17 D 10 8 E 8 7 F 9 6 G 12 9 H 20 18 Motivação Motivação Motivação O que é Clustering? Antropologia (Driver e Kroeber, 1932) "Encontrar grupos de objetos tais que objetos em um mesmo grupo sejam similares entre si e diferentes de objetos em outros grupos." Não é um algoritmo! Como pode me ajudar? Identificação de grupos Identificação de relacionamentos Simplificação de informação E na RI? Cluster Hypothesis(Van Rijsbergen - 1979): “Dois documentos similares têm maior probabilidade de serem relevantes para uma mesma pesquisa.” Relevância! Organização de resultados E na RI? Documentos similares são adicionados ao mesmo cluster Aumentar a cobertura Motivação Problema de natureza não-supervisionada Agrupar um conjunto de documentos em clusters Classificação X Clustering Relembrando Classificação "A classificação de textos é a tarefa de associar textos em linguagem natural a rótulos pré-definidos, a fim de agrupar documentos semanticamente relacionados" E as diferenças? Clustering Criar grupos de documentos Classes definidas pelo algoritmo Classificação Classes definidas previamente Determinar a qual classe pertence o documento Métodos de Clustering Métodos de Clustering Associatividade dos membros: Hard Clustering: Clusters isolados Soft Clustering (Fuzzy Clustering): Função de pertinência Modelos de clustering: Connectivity models: Definido pela distância. Centroid models: Definido por centróides. Density models: Definido por regiões densas. Modelos Incompatíveis Modelo Densidade (DBSCAN) Modelo Centróide (K-means) Modelo Hierárquico:: Connectivity Model Permite agrupamento hierárquico dos vetores de entrada, baseando-se em um cálculo de dissimilaridade específico. Abordagem aglomerativa (bottom-up), e divisiva (top-down). Escolha da Referência Formas diferentes de tomar a distância euclidiana como discriminante para formação de agrupamentos: Single linkage Complete linkage Average linkage dm = ( d(1,3) + d(1,4) + (d1,5) + d(2,3) + d(2,4) + d(2,5) ) / 6 Single Linkage vs. Complete Linkage Desvantagens Conjunto de clusters relevantes não definidos Não leva em conta outliers (ruído/discrepâncias) Chaining phenomenon “Data Mining” reconhece o método como um fundamento teórico inspirador, porém obsoleto. K-means:: Centroid Model Algoritmo simples com muitas variações. Define uma classe de algoritmos. Algoritmo: 1. Escolher os centros iniciais dos k clusters desejados randomicamente. 2. Repetir enquanto não houver alteração nos clusters: 1. 2. Associar cada vetor ao cluster de centro mais próximo. Calcular o novo centro de cada cluster como a média aritmética de seus vetores. Exemplo • Exemplo K = 3 c2 1. Escolher os centros iniciais. 2. Associar cada vetor ao cluster mais próximo. 3. Determinar os novos centros. 4. Associar cada vetor ao cluster mais próximo. 5. Determinar os novos centros. 6. Associar cada vetor ao cluster mais próximo. 7. Não houve alterações. c1 Intenção do K-means Minimiza Variância intra-grupos Maximiza Variância inter-grupos Desvantagens K especificado previamente Clusters de tamanho similar Roda diversas vezes, com inicializações aleatórias diferentes (Otimizações podem sugerir as melhores configurações iniciais a serem testadas. Ex: K-means++) K-means:: Otimização do K-Means 1. 2. 3. 4. 5. Escolha aleatoriamente um ponto do conjunto de dados como um centro de cluster. Para cada ponto x, compute a distância D(x) entre ele e o centro de cluster mais próximo. Escolha aleatoriamente um novo ponto como centro de cluster, tal que a probabilidade de um ponto x ser escolhido como centro é proporcional à distância D(x)2. Repita os passos 2 e 3, até que k centros tenham sido escolhidos. Agora execute o procedimento K-means para os centros escolhidos. DBSCAN:: Density Model Número mínimo de pontos vizinhos para formar um cluster Raio da vizinhança de um membro do cluster DBSCAN:: Density Model Arquitetura de Mozer Rede Neural Rede Neural Arquitetura de Mozer Conexões Excitatórias ligações entre termos de indexação e documentos; Conexões Inibitórias ligações entre pares de documentos. Arquitetura de Mozer Arquitetura de Mozer Consulta: "programação linguística" Arquitetura de Mozer Arquitetura de Mozer Arquitetura de Mozer “Bein e Smolensky (1988) implementaram e testaram esse modelo de rede neural proposta por Mozer utilizando 12.990 documentos e 6.832 termos de indexação. Eles avaliaram os resultados apresentados como satisfatórios e sugeriram novos testes utilizando bases de dados maiores e com características diversas.” Redes neurais e sua aplicação em sistemas de recuperação de informação – Edberto Ferneda (USP) Arquitetura de Mozer Vantagens Implementação simples Habilidade de produzir resultados não esperados Desvantagens Não aprende AIR Adaptive Information Retrieval Adaptive Information Retrival Criado por Belew em 1989 Aprendizado não-supervisionado Redes "flexíveis“ Feedback do usuário influencia a resposta da rede Implantável só em ambientes nos quais os usuários possuam interesses comuns Adaptive Information Retrival Fonte: [1] Adaptive Information Retrieval Vantagens É capaz de aprender, como toda RN A arquitetura da rede é flexível Desvantagens Só funciona em ambientes onde os usuários possuem interesses em comum ART Adaptive Ressonance Theory Adaptive Resonance Theory Proposto por Grossberg e Gail Carpenter Tenta agrupar os dados a partir deles próprios Dilema da Plasticidade-Estabilidade Sensível ao contexto Descrimina dados irrelevantes ou repetidos Rede é implementada em três versões ART1, ART2 e ART3 ART1 Características Aprendizado não-supervisionado Só aceita entradas binárias Deve-se definir a priori o limiar de vigilância O tamanho dos clusters ART1 Arquitetura Fonte: [2] ART1 Arquitetura Fonte: [2] ART1 Funcionamento Inicialização Reconhecimento Comparação Limiar de vigilância Busca ART1 Inicialização Fonte: [2] ART1 Reconhecimento Fonte: [2] ART1 Comparação Fonte: [2] ART1 Comparação Fonte: [2] ART1 Limiar de vigilância Fonte: [2] ART1 Busca Fonte: [2] ART1 Para visualizar melhor: ART1 Para visualizar melhor: ART1 Para visualizar melhor: ART2 Estende as capacidades do ART1 Permite o uso de entradas contínuas Possui todas as características da ART1 É preciso definir mais parâmetros Introduz o conceito de STM e LTM STM - Short-term memory LTM - Long-term memory ART2 - Arquitetura Fonte: [3] ART Na verdade, ART possui diversas variações: ART2-A ART3 Fuzzy ART ARTMAP Fuzzy ARTMAP Aplicações Nuvem de tags Resultados de busca agrupados Sistemas de Recomendação Análise de Redes Sociais Navegação Hierárquica Bioinformática Conclusões Conclusões Redução do espaço de busca As técnicas utilizadas são consolidadas na área de IA Computacionalmente mais caro Pode incluir documentos irrelevantes no resultado da busca Referências Referências 1. F. Edberto, Neural networks and its application in information retrival systems, jan./abr. 2006 2. R.Beale and T.Jackson, “Neural Computing: An Introduction”, Department of Computer Science, University of York. 1990 3. Gail A. Carpenter and Stephen Grossberg, “ART2: Selforganization of stable category recognition codes for analog input patterns”, Center for Adptive Systems, Boston University, 11/06/1987 4. “http://en.wikipedia.org/wiki/Adaptive_resonance_theory”, access on 13/07/2013 5. Apresentação do grupo de 2010 6. http://www.inf.ufsc.br/~patrec/agrupamentos.html Dúvidas