JDSS-LAC/INPE Aprendizagem Competitiva •Neurônios da camada de saída da RNA competem entre si para ser o neurônio ativado (um único neurônio é ativado) => Aprendizado competitivo é adequado para descobrir características estatísticas salientes, que podem ser usadas para classificar um conjunto de dados de entrada. •Elementos básicos para uma regra de aprendizado competitivo: •Um conjunto de neurônios do mesmo tipo exceto por alguns pesos sinápticos distribuídos aleatoriamente, respondem diferentemente a um dado conjunto de padrões de entrada. •Um limite imposto à robustez de cada neurônio. •Um mecanismo que permite os neurônios competirem pelo direito de responder à uma certa entrada (subconjunto). O neurônio ganhador é o neurônio que leva tudo (winner-takes-all). JDSS-LAC/INPE Aprendizagem Competitiva •Os neurônios individuais aprendem e se especializam nos conjuntos de padrões similares => tornam-se detetores de características. •Forma mais simples de aprendizagem competitiva consiste de uma RNA de uma camada única com todos os neurônios totalmente conectados às entradas. Camada de Saída Camada de entrada x1 w12 1 x3 y1 2 y2 3 w33 w41 y3 4 y4 w13 w21 w22 x2 1 w11 2 3 w32 w42 w43 w23 w31 •O neurônio j é o ganhador se possuir o maior nível de atividade interna vj, para um vetor de entrada. A saída yj do neurônio ganhador é feita igual a 1. As saídas dos outros neurônios são zero. JDSS-LAC/INPE Aprendizagem Competitiva wji > 0 - peso entre o neurônio j e a entrada i. •Pesos alocados em quantidades fixas para cada neurônio: ¦w ji 1 j i •Aprendizagem é o deslocamento dos pesos sinápticos dos nós inativos para os ativos. Se o neurônio ganha uma competição cada peso de cada entrada tem seu valor alterado de acordo com a regra de aprendizagem competitiva padrão: 'w ji K ( xi w ji ), se j ganha ® se j perde ¯ 0, •A regra tem o efeito de mover o vetor de pesos sinápticos w do neurônio j na direção do padrão de entrada . JDSS-LAC/INPE Aprendizagem Competitiva JDSS-LAC/INPE Tarefas de Aprendizagem •Aproximação de função - aprendizagem supervisionada •Associação •Autoassociação - aprendizagem não-supervisionada •Heteroassociação - aprendizagem supervisionada •Classificação de Padrões •Padrões conhecidos - aprendizagem supervisionada •Padrões desconhecidos - aprendizagem não-supervisionada (clusterização) •Predição (problema de processamento de sinais temporais) aprendizagem supervisionada •Controle - aprendizagem supervisionada JDSS-LAC/INPE Modelos de Redes - Perceptron x1 wk1 wk2 x2 N Neurônio K yk Entradas yk i 1 wkN xN Tk 1wk 0 o Tk W ª wk 0 º «w » « k1 » « ... » «w » « kN » ¼ ¬ F (¦ wki xi T k ) X ª1º «x » « 1» « ... » «x » « N» ¬ ¼ yk F ( wk1 x1 ... wkN x N (1) wk 0 ) N F (¦ wki xi ) i 0 F (W T X ) JDSS-LAC/INPE Modelos de Redes - Perceptron •Resolve problemas de classificação de duas classes (C1 e C2) linearmente separáveis. •Regra de classificação: Se W T X t 0, X C1 Se W T X 0, X C2 •Adaptação dos Pesos: °W (n 1) W (n) se W T (n) X (n) t 0 e X (n) C1 1)® °̄W (n 1) W (n) se W T (n) X (n) 0 e X (n) C2 °W (n 1) W (n) K(n) X (n) se W T (n) X (n) t 0 e X (n) C2 2)® °̄W (n 1) W (n) K(n) X (n) se W T (n) X (n) 0 e X (n) C1 Prova de convergência - Haykin, 1994, pp. 110 JDSS-LAC/INPE Algoritmo para aprendizagem - Perceptron: •Passo 1. Inicializa pesos: W (0) 0 •Passo 2. Ativa a rede - vetor de entrada e a resposta desejada: X (n) e d (n) F (W T (n) X (n)) - F(.) é a função sinal •Passo 3. Calcula-se a saída: y ( n) •Passo 4. Atualiza os pesos: W (n 1) W (n) K[d (n) y (n)] X (n) d (n) 1 se X (n) C1 ® ¯ 1 se X (n) C2 •Passo 5. Incrementa n e volta para o Passo 2. JDSS-LAC/INPE Modelos de Redes - Perceptron 1) P = [-0.5 -0.5 +0.3 +0.0; -0.5 +0.5 -0.5 +1.0]; T = [1 1 0 0]; Valores iniciais: W = [ 0.4258 -0.2140]; b = -0.0455 Valores Finais: W = [ -2.9742 -0.2140]; b = -0.0455 JDSS-LAC/INPE 2) P = [-1 +1 -1 +1 -1 +1 -1 +1; -1 -1 +1 +1 -1 -1 +1 +1; -1 -1 -1 -1 +1 +1 +1 +1]; W = [-0.9309 -0.8931 0.0594]; b = 0.3423; W = [2.0691 -1.8931 3.0594]; b = -0.6577 Cont. T = [0 1 0 0 1 1 0 1]; JDSS-LAC/INPE 3) P = [+0.1 +0.7 +0.8 +0.8 +1.0 +0.3 +0.0 -0.3 -0.5 -1.5; T = [1 1 1 0 0 1 1 1 0 0; +1.2 +1.8 +1.6 +0.6 +0.8 +0.5 +0.2 +0.8 -1.5 -1.3]; 0 0 0 0 0 1 1 1 1 1]; W = [-0.9339 -0.0030; 0.0689 0.9107]; W = [ -2.9339 4.0970; -5.0311 -4.3893]; b = [0.4966; 0.1092]; b =[-0.5034 4.1092]; Erro Cont. JDSS-LAC/INPE Problema: Considere um problema no qual duas características são observadas: a cor e a forma. Deseja-se construir um sistema automatizado utilizando um perceptron para classificar o tipo de fruta em duas classes: classe 1 – laranja; classe 2 – maça. Fazendo-se um levantamento de informação, extraiu-se o seguinte conhecimento para classificação: cor = amarela e forma = redonda fruta é uma laranja cor = amarela e forma = ovalada fruta é maçã cor = vermelha e forma = redonda fruta é maçã cor = vermelha e forma = ovalada fruta é maçã Monte um perceptron para resolver este problema considerando uma função de ativação como: sgn( x) 1 x d 0 ® ¯ 1 x ! 0 JDSS-LAC/INPE Bibliografia: •Hecht-Nielsen, R. Neurocomputing. Addison-Wesley Publishing Company, 1990. •Haykin, S. Neural Networks: A Comprehensive Foundation. MacMillan, 1994. •Tsoukalas, L.H.; Uhrig, R.E. Fuzzy and Neural Approaches in Engineering. John Wiley & Sons, 1997. •Fausett, L. Fundamentals of Neural Networks. Prentice Hall, 1994. •Lin, Chin-Tseng; Lee, C.S.G. Neural Fuzzy Systems: A NeuralFuzzy Synergism to Intelligent Systems. Prentice Hall, 1996. •Hagan, M.T.; Demuth, H.B.; Beale, M. Neural Network Design. PWS Publishing Company, 1996. JDSS-LAC/INPE Sugestão de Leitura: Fisiologia Humana e Mecanismos das Doenças Capítulo 9 Guyton e Hall, 1999 Guanabara-Koogan Fonte: Revista Galileu Maio 1999 pp. 56 JDSS-LAC/INPE JDSS-LAC/INPE JDSS-LAC/INPE JDSS-LAC/INPE Fonte: Braga et ali, 1999. pp. 7