INTRODUÇÃO AS REDES NEURAIS FÁBIO SILVA PIAZZI Orientadores: Marcelo Albuquerque Aline Gesualdi Novembro 2001 SUMÁRIO  Introdução & Histórico  Conceitos & Características  Exemplo & Implementação  Conclusão & Referências Bibliográficas 1) INTRODUÇÃO REDES NEURAIS OU REDES NEURONAIS ? • tentativa de reproduzir artificialmente redes neurais biológicas MOTIVAÇÃO Cérebro lida melhor com alguns problemas que o computador  reconhecimento de padrões  problemas de otimização combinatória Outras características desejáveis  capaz de aprender sem o conhecimento do algoritmo  capaz de generalizar  robustez APLICAÇÕES • reconhecimento de padrões • processamento de sinais e imagens 1 2) HISTÓRICO EVOLUÇÃO DO ESTUDO • 1940-1950: início das Redes neurais com McCulloch e Pitts. E as redes de auto-organização. • 1950-1960: Perceptron de aprendizado supervisionado. • 1960-1970: Pouco avanço • 1980-2000: Redes simétricas e o Backpropagation 2 3) NEURÔNIO BIOLÓGICO Estudo do comportamento do neurônio PARTES  dendritos  corpo celular  axônio  sinapse Idéia de entrada, processamento e saída 3 4) REDE BIOLÓGICA Tentativa de mapear o seu funcionamento APRESENTAÇÃO  formam malhas complexas  comunicação entre neurônios pelas sinapses Como reproduzir tal complexidade? 4 5) NEURÔNIO ARTIFICIAL - PERCEPTRON Começando pela unidade básica CARACTERÍSTICAS  variável interna - U  polarização - bias  função de ativação - F , tanh tanh bias Entradas X1 X2 . . . Xn W1 W2 Wb pesos sinapses Saída U FU Y P U  WK . X K K 0 Y  F U  Wn Semelhança entre os modelos 5 6) REDE ARTIFICIAL Construção de um modelo similar 6.1) APRESENTAÇÃO  Disposição em camadas (simplicidade)  Comunicação entre neurônios entre camadas adjacentes Atendendo aos desejos iniciais, simplificando o modelo real 6 6) REDE ARTIFICIAL 6.2) CARACTERÍSTICAS 2 MODOS DE FUNCIONAMENTO TREINAMENTO Algoritmo - Backpropagation  Supervisionado  Erro  Passo do aprendizado  Não supervisionado OPERAÇÃO Algoritmo - Feedforward 7 7) TREINAMENTO 7.1) SEM TREINAMENTO  conjunto de treinamento  pesos sinápticos aleatórios A B REDE NEURAL ? C 8 7) TREINAMENTO 7.2) TREINAMENTO SUPERVISIONADO  conjunto de treinamento A,B A,B A,B Professor erro, ok,erro erro ok, ok PADRÕES A B 1a ITERAÇÃO REDE NEURAL D X R X 2a ITERAÇÃO 3a ITERAÇÃO A P X A B 9 8) BACKPROPAGATION BACKPROPAGATION  propagação saída/entrada  erro associado Backpropagation 10 9) ERRO ASSOCIADO ERRO Y  Valor desejado Y '  Valor obtido na saída da rede  2 Y’ ERRO²  Erro 2  Y  Y ' Neurônio artificial ITERAÇÃO Como atingir o erro mínimo? 11 10) MINIMIZAÇÃO DO ERRO MÉTODO DO GRADIENTE DESCENDENTE  minimização do erro  mesma direção e sentido oposto ao gradiente 8 7 w2 y 5 6 VALOR INICIAL 5 ERRO y (n) ,  1 w(n)   w y (n) 2w w(n)   w 5 w(n  1)  w(n)  w(n) n w(n) w(n) 0 5 -2 1 3 -1,2 2 1,8 -0,72 3 1,08 -0,43 1 4 0,65 -0,26 0 -6 -5 -4 -3 -2 -1 0 1 2 3 VALOR DAS SINAPSES 4 3 2 1a ITERAÇÃO 2a ITERAÇÃO 3a ITERAÇÃO 4a ITERAÇÃO 4 5 6 12 11) FEEDFORWARD     serão utilizadas 3 camadas propagação entrada/saída conjunto de operação rede treinada A B C A REDE NEURAL Feedforward B C 13 12) EXEMPLO 11.1) FEEDFORWARD U ..X W b V XXX11.a.aW .W VV2X W bias  511a 3 .W53 .42W U15432 11..W W W15432bias V V W .W W .W bb.b52 1 bias 3b bias  a.W 4132a a 2X 2V b 3 .W43 ,74 U 020 ,1   63 ,,,0746 ,070  11..0 ,1000,,01,06 01,.06 ,.10..,.1000,1, 250 0.46 7,..9.00,0,032,,210 ,,,06 U51432  0,,1 3,1 ,0 000,05 63..1,10, 10,715 0,097 '  5  1 YYV tanhU bV V' a1  tanhU tanhU tanhU 32 0,06 0,1 1 0, 0,46 0,46 -0,1 0,2 0,3 0,9 0,63 -0 ,1 0, 2 0,097 5 0, 0,2 -0,1 2 0, -0,1 ,1 -0 0,3 0,1 0,06 43 2 0,614 0,63 1,1 14 12) EXEMPLO 11.2) BACKPROPAGATION - simplificado  retropropagação do erro  um neurônio wi   Erro wi w(n  1)  w(n)  w(n) Regra Delta bias Entradas X1 X2 . . . Xn W1 W2 Wb pesos sinapses Saída U FU Y Wn 15 12) EXEMPLO 11.3) BACKPROPAGATION  valores desejados: Ya=0,2 ; Yb=1  retropropagação do erro 0,13 0,03 0,103 E1  Ya  Ya  0,2  0,097  0,103 ' 0,24 E2  Yb  Yb  1  0,614  0,386 ' 0,152 16 13) IMPLEMENTAÇÃO PROGRAMA EM C  rede 35 x 4 x 10  entrada grid 5x7  saída 10 bits 1 2 3 . . . . 35 Rede Neural 0 1 2 3 4 5 6 7 8 9 17 14) GRAFICO DO ERRO 1 PADRÃO DE ENTRADA Erro associado 6 4 2 0 1 3 5 7 9 11 13 15 17 No. de Iterações 18 14) GRAFICO DO ERRO 2 PADRÕES DE ENTRADA Erro associado 8 6 4 2 0 1 6 11 16 21 26 31 36 41 46 51 56 61 No. de Iterações 19 15) CONCLUSÃO  Tentativa da modelagem do neurônio biológico para o artificial  movida pela perfeição das redes biológicas  Grande dificuldade no desenvolvimento e implementação das redes artificiais  complexidade e do enorme número de parâmetros  Já existem resultados animadores que revelam um grande avanço no estudo das Redes Neurais 20 16) REFERÊNCIAS BIBLIOGRÁFICAS 1) Calôba, Luiz P. - Introdução à Computação Neuronal (CBPF) 2) Reis, Caimi F., Albuquerque, Marcelo P., Castro, Sérgio B. Nota Técnica – CBPF-NT-002/01, março 2001 (CBPF) 3) Haykin, Simon – Neural Network: A Comprehensive Foundation (CBPF) 4) Internet http://equipe.nce.ufrj.br/thome/grad/nn/transp/sld001.htm http://artecno.ucs.br/textneurais.htm http://www.ielusc.br/inst/comsocial/jornalismo/ntc/990303/redeneur.htm http://www1.cptec.inpe.br/~anderson/apost/info/neura.htm http://www.cesec.ufpr.br/~zanardin/Contents/Disciplines/neural/neural_network.htm http://www.icmsc.sc.usp.br/~andre/ann_links.html 21 INTRODUÇÃO AS REDES NEURAIS FÁBIO SILVA PIAZZI Orientadores: Marcelo Albuquerque Aline Gesualdi Novembro 2001