UPE – Caruaru – Sistemas de Informação Disciplina: Redes Neurais Prof.: Paulemir G. Campos Aprendizado em Redes Neurais (Parte 2) 11/5/2015 RN - Prof. Paulemir Campos 1 Roteiro da Aula Algoritmos de Aprendizado; Referências. 11/5/2015 RN - Prof. Paulemir Campos 2 Algoritmos de Aprendizado em RNA 11/5/2015 RN - Prof. Paulemir Campos 3 Introdução Algoritmos de Aprendizado 11/5/2015 Aprendizado Aprendizado Aprendizado Aprendizado por Correção de Erro; Hebbiano; Competitivo; de Boltzmann. RN - Prof. Paulemir Campos 4 Aprendizado por Correção de Erro Regra Delta (Widrow e Hoff, 1960) Erro: ek(t) = dk(t) – yk(t) Minimizar função de custo baseada em ek(t) 11/5/2015 RN - Prof. Paulemir Campos 5 Aprendizado por Correção de Erro Função de custo 11/5/2015 C(t) = -1/2Σ(ek(t))2 Minimização de c(t) utiliza método de gradiente descendente; Aprendizado atinge solução estável quando os pesos não precisam mudar muito. RN - Prof. Paulemir Campos 6 Aprendizado por Correção de Erro Após seleção da função de custo, aprendizado torna-se um problema de otimização RNA é otimizada pela minimização de c(t) com respeito aos pesos da rede. Modelo matemático 11/5/2015 Δwik(t) = ηek(t)xi(t) RN - Prof. Paulemir Campos 7 Aprendizado por Correção de Erro Superfície de erro: superfície multidimensional representando gráfico da função de custo versus peso 11/5/2015 Unidades lineares: superfície é uma função quadrática dos pesos (mínimo global único) Unidades não-lineares: superfície tem mínimos locais e mínimo global RN - Prof. Paulemir Campos 8 Aprendizado por Correção de Erro Superfície de erro: superfície multidimensional representando gráfico da função de custo versus peso (Continuação) 11/5/2015 Iniciando de um ponto qualquer da superfície mover em direção a um mínimo global. RN - Prof. Paulemir Campos 9 Aprendizado por Correção de Erro Taxa de aprendizado (η) 0<η≤1 Taxas pequenas Média das entradas anteriores Estimativas estáveis de pesos Aprendizado lento Aprendizado rápido Taxas grandes Captação de mudanças no processo Instabilidade 11/5/2015 Taxas variáveis RN - Prof. Paulemir Campos 10 Aprendizado Hebbiano Regra mais antiga e famosa (Hebb, 1949) Dois neurônios estão simultaneamente ativos, a conexão entre eles deve ser fortalecida 11/5/2015 RN - Prof. Paulemir Campos 11 Aprendizado Hebbiano Regra modificada (Sinapse Hebbiana) 11/5/2015 Se dois neurônios em lados diferentes de uma sinapse são ativados sincronamente, então a força da sinapse entre eles deve ser aumentada; Se dois neurônios em lados diferentes de uma sinapse são ativados assincronamente, então a força da sinapse entre eles deve ser reduzida. RN - Prof. Paulemir Campos 12 Aprendizado Hebbiano Sinapse anti-Hebbiana Enfraquecimento de sinapses com atividades pré e pós-sinápticas correlacionadas e reforço em caso contrário. Sinapse não Hebbiana 11/5/2015 Não envolve mecanismos Hebbianos. RN - Prof. Paulemir Campos 13 Aprendizado Hebbiano Propriedades da sinapse Hebbiana Dependência do tempo: Localidade: 11/5/2015 Mudanças dependem do tempo de ocorrência dos sinais pré e pós-sinápticos; Informações localmente disponíveis são usadas para produzir modificações sinápticas; RN - Prof. Paulemir Campos 14 Aprendizado Hebbiano Propriedades da sinapse Hebbiana (Continuação) Interatividade: Correlação entre sinais pré e póssinápticos: 11/5/2015 Modificações sinápticas têm que considerar sinais dos dois lados da sinapse; A ocorrência simultânea entre tais sinais é suficiente para modificar a força sináptica. RN - Prof. Paulemir Campos 15 Aprendizado Hebbiano Depressão sináptica: enfraquecimento de uma sinapse com o passar do tempo 11/5/2015 Atividades nas membranas pré e póssinápticas não correlacionadas ou negativamente correlacionadas; Ausência de atividades coincidentes entre as membranas pré e pós-sinápticas. RN - Prof. Paulemir Campos 16 Aprendizado Hebbiano Modelos matemáticos Um peso sináptico wik(t) entre as unidades de processamento xi e yk é ajustado no tempo t usando a seguinte expressão Δwik(t) = f(xi(t),yk(t)) onde f(.,.) é a função dos sinais pré e póssinápticos. 11/5/2015 RN - Prof. Paulemir Campos 17 Aprendizado Hebbiano Modelos matemáticos (continuação) Hipótese de Hebb: Regra do produto de atividades Δwik(t) = η xi(t) yk(t) onde η é a taxa de aprendizado. 11/5/2015 RN - Prof. Paulemir Campos 18 Aprendizado Hebbiano Modelos matemáticos (continuação) Hipótese da Covariância: Regra que considera a diferença dos sinais pré e póssinápticos de suas médias (xiM e ykM) Δwik(t) = η (xi(t) – xiM) (yk(t) – ykM) onde η é a taxa de aprendizado. 11/5/2015 RN - Prof. Paulemir Campos 19 Aprendizado Competitivo A idéia é, dado um padrão de entrada, fazer com que as unidades de saída disputem entre si para serem ativadas. 11/5/2015 RN - Prof. Paulemir Campos 20 Aprendizado Competitivo Ou seja, neurônios competem entre si para serem ativados Apenas um neurônio ou grupo de neurônios vizinhos torna-se ativo. Adequado para descobrir características estatisticamente salientes 11/5/2015 Podem agrupar conjuntos de entradas RN - Prof. Paulemir Campos 21 Aprendizado Competitivo Elementos básicos 11/5/2015 Conjunto de neurônios iguais (exceto por alguns pesos randomicamente distribuídos) Limite imposto na força de cada neurônio RN - Prof. Paulemir Campos 22 Aprendizado Competitivo Elementos básicos (continuação) Mecanismo que permita neurônios competirem pelo direito de responder a um dado subconjunto de entradas (winnertakes-all) Neurônios individuais especializam-se em conjuntos de padrões semelhantes. 11/5/2015 RN - Prof. Paulemir Campos 23 Aprendizado Competitivo Algoritmo mais simples Uma camada de neurônios completamente ligada à entrada por conexões excitatórias; Conexões laterais inibitórias entre neurônios na camada de processamento Normalização dos pesos excitatórios de i: Σ(wik(t))2 = 1 11/5/2015 RN - Prof. Paulemir Campos 24 Aprendizado Competitivo Algoritmo mais simples (continuação) Ativação da vencedora 1, se yk vi yk 0, caso contrário onde vi é o campo local induzido para todo i diferente de k. O vencedor inibe as outras unidades. Modelo matemático (nodo vencedor) Δwik(t) = η (xi(t) + wik(t)) 11/5/2015 RN - Prof. Paulemir Campos 25 Aprendizado de Boltzmann Algoritmo de aprendizagem estocástico cuja concepção foi inspirada na mecânica estatística. 11/5/2015 RN - Prof. Paulemir Campos 26 Aprendizado de Boltzmann Deu origem ao modelo de rede neural máquina de Boltzmann 11/5/2015 Estrutura recorrente com dois estados de ativação: 1 ou -1; Função de energia: E=-1/2ΣΣwijxixj (i≠j) RN - Prof. Paulemir Campos 27 Aprendizado de Boltzmann Deu origem ao modelo de rede neural máquina de Boltzmann (continuação) Mudança de estado: 1 P( xj xj ) 1 exp(Ej / T ) onde P é a probabilidade de mudança de estado de um neurônio xj, ΔEj é a mudança de energia resultante e T é a pseudo temperatura. 11/5/2015 RN - Prof. Paulemir Campos 28 Aprendizado de Boltzmann Operação do Algoritmo de Boltzmann 11/5/2015 Escolhe-se um neurônio xj aleatoriamente; Muda-se seu estado de ativação de xj(t) para –xj(t) com probabilidade P a uma pseudo temperatura T até rede atingir o equilíbrio térmico. RN - Prof. Paulemir Campos 29 Aprendizado de Boltzmann Tipos de neurônios 11/5/2015 Visíveis; Escondidos. RN - Prof. Paulemir Campos 30 Aprendizado de Boltzmann Modos de operação Ativação mantida Ativação livre 11/5/2015 Estado de ativação das unidades visíveis são mantidos constantes nos valores determinados pelo ambiente Todas as unidades têm estado de ativação livre. RN - Prof. Paulemir Campos 31 Aprendizado de Boltzmann Modelo matemático 11/5/2015 Δwik(t) = η(ρmik - ρlik), com i ≠ k onde ρmik e ρlik são as correlações dos neurônios i e k na condição de ativação mantida e livre, respectivamente. As correlações consideram todos os estados possíveis para o equilíbrio térmico. RN - Prof. Paulemir Campos 32 Referências Braga, A. P.; Ludermir, T. B. e Carvalho, A. C. P. L. F. Redes Neurais Artificiais: Teoria e Aplicações. Editora LTC, 2000. Notas de aulas da Profa. Teresa B. Ludermir e do Prof. Aluízio Araújo, ambos do CIn/UFPE. 11/5/2015 RN - Prof. Paulemir Campos 33