Uma Abordagem de RNA`s Híbridas baseada em Autômatos Celulares para Modelagem de Endemias Anderson Paulo da Silva – [email protected] 1 Sumário Introdução Motivação Descrição do Problema Objetivos Meta-Aprendizado Evolucionário em RNAs Meta-Aprendizado Evolucionário em RNAs com AC Ferramentas do Sistema Roteiro e Cronograma Referências 2 Introdução • Aplicação de RNAs. • O projeto de uma RNA, em geral, é um dos grande entraves em diversos problemas. •Vários métodos têm sido propostos para reduzir a complexidade da rede e os algoritmos evolucionários estão entre estes [14, 16]. 3 Introdução • Vantagens do uso de AE: • Os algoritmos evolucionários podem evoluir para a arquitetura ótima, sem interferências externas. • Eles eliminam o processo de trabalho tedioso e erro no trabalho manual de encontrar uma rede ótima [13] 4 Introdução • Desvantagem: • Embora, de forma geral, sejam bons em pesquisas globais, algoritmos evolucionários são ineficientes para uma boa busca local [12, 16]. 5 Introdução • Uma possível solução é incorporar uma abordagem híbrida de meta-aprendizado; • Além da busca evolutiva de conexão, pesos e arquiteturas (conectividade e funções de ativação), técnicas de busca local são utilizados para ajustar os pesos (metaaprendizagem) 6 Motivação • Sistemas inteligentes híbridos utilizam mais de uma técnica para suprir necessidades • Exemplo: clássica associação de redes neurais e algoritmos de otimização [12]. • Novas técnicas surgem. Entre elas, técnicas de aprendizado indireto. 7 Motivação • O estudo do hibridismo entre redes neurais, algoritmos de otimização e autômatos celulares podem trazer resultados atrativos. • O uso de tal tipo de hibridismo é diferente em relação a grande maioria, uma vez que é pouco encontrada na literatura. 8 Motivação • A. Salah e Y. Al-Salqan [1], tiveram bons resultados com uma proposta parecida. 9 Descrição do Problema • Alguns métodos de aprendizagem evolucionária são baseados em representações diretas dos parâmetros das redes neurais, no entanto, essas representações não permitem escalabilidade. • Métodos de otimização que utilizem representações indiretas deste parâmetros podem ser uma alternativa viável para solucionar tal problema. 10 Objetivos • Desenvolver uma alternativa diferente das representações diretas dos parâmetros das redes neurais. • Utilizar um método de otimização de arquitetura de redes neurais híbridas com esquemas de codificação indireta utilizando autômatos celulares [8, 9, 10]. 11 Objetivos • De acordo com a Gutierrez[8] usar um autômato celular no projeto da arquitetura de uma rede neural é melhor que usar métodos de codificação direta. • Mas como usar um autômato celular para otimizar a arquitetura de uma rede neural? 12 Meta-aprendizado Evolucionário em RNAs • A abordagem de Meta-aprendizado híbrido combina aprendizagem evolutiva com métodos de busca local. • De acordo com os trabalhos de A. Abraham [13] •A meta-aprendizagem gera melhores resultados e rápida convergência. 13 Meta-aprendizado Evolucionário em RNAs Wl1 e wl2 são os pesos iniciais localizados na pesquisa evolucionária. wA e wB correspondem aos pesos finais aperfeiçoados pela técnica de metaaprendizagem (através do algoritmo de busca local) 14 Meta-aprendizado Evolucionário em RNAs • Algoritmo básico de meta-aprendizado (utilizando algoritmos genéticos) [17]: 1 – Faça t = 0 e aleatóriamente gere a população inicial de redes neurais com arquiteturas, funções de transferências e pesos de conexões aleatórios. 2 – Em modo paralelo, avalie o fitness de cada RNA usando quatro algoritmos de aprendizado (BP, SCG, QNA e LM). 3 – Baseado no valor do fitness, selecione parentes para reprodução. 4 – Aplique a mutação para os parentes e produza nova população para a próxima geração. Reabasteça a população de acordo com o tamanho definido. 5 – Repita o passo 2 para calcular o fitness de cada RNA usando algoritmos de aprendizado em modo paralelo. 6 – Pare quando o solução desejada for encontrada ou o número máximo de iterações tenha sido atingido. 15 Meta-aprendizado Evolucionário em RNAs com AC Estágio da Otimização da Arquitetura das Redes Neurais População aleatória de arquiteturas de redes neurais MÓDULO DO PSO Configuração inicial do autômato Celular. MÓDULO DO AC Configuraçã o final do autômato Celular Estágio de meta-aprendizado Aplique o algoritmo de meta-aprendizado (treinamento em paralelo com 4 algoritmos de treinamento, ...) Módulo de treinamento da rede neural Use a RNA traduzida para criar uma população inicial com arquitetura, nodos, funções de transferência e pesos atribuídos aleatoriamente. Traduzir a configuração final do AC numa arquitetura de RNA 16 Ferramentas do Sistema • PSO • O PSO é uma técnica de base populacional autoadaptativa de pesquisa que foi proposta por Eberhart e Kennedy[3]. • Baseado em simulações de comportamentos sociais, tais como os dos peixes em um cardume ou de um enxame de pássaros [4]. 17 Ferramentas do Sistema • PSO – Funcionamento • O PSO utiliza dois vetores (um para velocidade e outro para posição) para otimizar o seu enxame. 18 Ferramentas do Sistema • Autômatos Celulares •Foram introduzidos por Von Neumann e Ulam como modelos para estudar processos de crescimento e autoreprodução [11]. • Qualquer sistema com muitos elementos idênticos que interagem local e deterministicamente podem ser modelados usando autômatos celulares [5,6]. 19 Ferramentas do Sistema • Autômatos Celulares Vizinhança de Neumann X Vizinhança de Moore 20 Ferramentas do Sistema • Autômatos Celulares - Grid • Será a ferramenta responsável por gerar a arquitetura da RNA. • Suas dimensões X e Y representam: • X = Número de nodos de entrada + nodos de saída; • Y = Número máximo de nodos escondidos. • 21 Ferramentas do Sistema • Autômatos Celulares – Estados das Células • Suas células podem estar em dois estados: ativo (ocupado por uma raiz) ou inativo • Há dois tipos de raízes: Raíz crescente e raíz decrescente. • Duas regras regem seus estados: growing e decreasing; 22 Ferramentas do Sistema • Autômatos Celulares – Regras • Growing: •Havendo 3 nodos crescendo, torna nodo inativo crescente (ativo). • Decreasing: •Havendo 3 nodos decrescendo, torna nodo ativo decrescente (inativo). 23 Roteiro e Cronograma • Esta sessão visa mostra as atividades que foram desempenhadas e aquelas que ainda serão, juntamente com o cronograma de atividades que determina o período em que cada atividade deve ser realizada. 24 Roteiro e Cronograma Atividades Descrição 1 Disciplinas do primeiro período 2 Disciplinas do segundo período 3 Coleta e estudos das referências bibliográficas; Estudos em artigos para construção de um modelo híbrido para classificação e/ou predição. 4 Disciplina: Tópicos Avançados em Inteligência Computacional II Desenvolvimento da técnica para a construção do sistema. 5 Coleta de base de dados e implementação do sistema. 6 Continuidade da Implementação do Sistema; Revisão das referências bibliográficas e trabalhos relacionados; Avaliação do sistema implementado. 7 Finalização do sistema e escrita de artigos. 8 Início da escrita da dissertação. 9 Término da escrita da dissertação 25 Roteiro e Cronograma Atividades/Meses 1-3 4-6 7-9 10-12 13-15 16-18 19-21 22-24 Atividade 1 Atividade 2 Atividade 3 Atividade 4 Atividade 5 Atividade 6 Atividade 7 Atividade 8 Atividade 9 Atividades concluídas Atividades em andamento Atividades ainda não realizadas 26 Referências [1] A. A. Salah e Y. Al-Salqan, “Meta-Learning Evolutionary Artificial Networks: by Means of Cellular Automata”, IEEE Computer Society, 2005, International Conference on Computational Intelligence for Modelling. [2]J.-C. Chen et al. “Pattern differentiation of glandular cancerous cells and normal cells with cellular automata and evolutionary learning” Expert Systems with Applications 34, 2006 [3] R. C. Eberhart e J. Kennedy, “A new optimizer using particle swarm theory,” in Proc. 6th Int. Symp. Micro Mach. Human Sci., Nagoya, Japan, 1995, pp. 39–43. [4] S.-T. Hsieh, T.-Y. Sun, C.-C. Liu e S.-J Tsai, “Efficient Population Utilization Strategy for Particle Swarm Optimizer” em Proc. IEEE Trans. Systems, Man and Cyberneetics, Vol 39, No 2, Abril de 2009. [5] S. Wolfram, em "A New Kind of Science”, 2002. Champaign, IL: Wolfram Media. [6] R. Rudy; em “The Lifebox, The Seashell and The Soul, 2005” Basic Books (Thunder’s Mouth Press): New York. [7] S.F.P. Sarmago, J. R. Prado “Otimização por Colônia de Partículas” [8] G.Gutierrez, P. Isasi, J.M. Molina, A. Sanchis, I.M Galvan, “Evolutionary cellular configurations for designing feedforward neural network architectures”, Computer Science, Vol. 2084, Springer, Germany, 2001 [9] Molina, J.M., Galvan. I, isasi. P, SAnchis. A. “Grammars and cellular automata for evolving neural networks architectures”. 2000 IEEE International Conference on Systems, Man, and Cybernetics. [10] S. Wolfram. “Theory and Applications of Cellular Automata”. World Scientific, Singapore, 1988. [11] J. V. Neumann and A. W. Burks. “Theory of Self-Reproducing Automata”. University of Illinois Press, Champaign, IL, 1966. 27 Referências [12] G. F. Miller, P. M. Todd and S. U. Hedge. “Designing Neural Networks Using Genetic Algorithms”. In Proc. Of the third Internaticonal conferente on genetic algorithms and their applications. San Mateo, CA, USA, 1989. [13] A. Abraham, “Optimization of Evolutionary Neural Networks Using Hybrid Learning Algorithms”, IEEE 2002 Joint International Conference on Neural Networks, Vol. 3, IEEE Press, New York, 2002. [14] X Yao, “A review of Evolutionary Artificial Neural Networks”, Inernational Journal of Intelligent Systems, 1993. [15] Haykin, Simon. Redes Neurais. Princípios e prática. Bookman, 2001. [16]. X Yao. “Evolving Artificial Neural Networks”. Proceedings of IEEE 87 (9 Suppl. 1) (1999) 423–1447. [17]. A. Abraham, “Meta-Learning Evolutionary Artificial Neural Networks”, Neurocomputing Journal, Elsevier Science, Netherlands, Vol. 56c, pp. 1-38, 2004 28