UPE – Caruaru – Sistemas de Informação
Disciplina: Redes Neurais
Prof.: Paulemir G. Campos
Aprendizado em
Redes Neurais
(Parte 2)
11/5/2015
RN - Prof. Paulemir Campos
1
Roteiro da Aula

Algoritmos de Aprendizado;

Referências.
11/5/2015
RN - Prof. Paulemir Campos
2
Algoritmos de Aprendizado
em RNA
11/5/2015
RN - Prof. Paulemir Campos
3
Introdução

Algoritmos de Aprendizado




11/5/2015
Aprendizado
Aprendizado
Aprendizado
Aprendizado
por Correção de Erro;
Hebbiano;
Competitivo;
de Boltzmann.
RN - Prof. Paulemir Campos
4
Aprendizado por
Correção de Erro

Regra Delta (Widrow e Hoff, 1960)

Erro: ek(t) = dk(t) – yk(t)

Minimizar função de custo baseada
em ek(t)
11/5/2015
RN - Prof. Paulemir Campos
5
Aprendizado por
Correção de Erro

Função de custo



11/5/2015
C(t) = -1/2Σ(ek(t))2
Minimização de c(t) utiliza método de
gradiente descendente;
Aprendizado atinge solução estável quando
os pesos não precisam mudar muito.
RN - Prof. Paulemir Campos
6
Aprendizado por
Correção de Erro

Após seleção da função de custo,
aprendizado torna-se um problema de
otimização


RNA é otimizada pela minimização de c(t)
com respeito aos pesos da rede.
Modelo matemático

11/5/2015
Δwik(t) = ηek(t)xi(t)
RN - Prof. Paulemir Campos
7
Aprendizado por
Correção de Erro

Superfície de erro: superfície multidimensional representando gráfico da
função de custo versus peso


11/5/2015
Unidades lineares: superfície é uma função
quadrática dos pesos (mínimo global único)
Unidades não-lineares: superfície tem
mínimos locais e mínimo global
RN - Prof. Paulemir Campos
8
Aprendizado por
Correção de Erro

Superfície de erro: superfície multidimensional representando gráfico da
função de custo versus peso
(Continuação)

11/5/2015
Iniciando de um ponto qualquer da
superfície mover em direção a um mínimo
global.
RN - Prof. Paulemir Campos
9
Aprendizado por
Correção de Erro

Taxa de aprendizado (η)


0<η≤1
Taxas pequenas
Média das entradas anteriores
Estimativas estáveis de pesos
Aprendizado lento
Aprendizado rápido

Taxas grandes
Captação de mudanças no processo
Instabilidade

11/5/2015
Taxas variáveis
RN - Prof. Paulemir Campos
10
Aprendizado Hebbiano


Regra mais antiga e famosa (Hebb,
1949)
Dois neurônios estão simultaneamente
ativos, a conexão entre eles deve ser
fortalecida
11/5/2015
RN - Prof. Paulemir Campos
11
Aprendizado Hebbiano

Regra modificada (Sinapse Hebbiana)


11/5/2015
Se dois neurônios em lados diferentes de
uma sinapse são ativados sincronamente,
então a força da sinapse entre eles deve
ser aumentada;
Se dois neurônios em lados diferentes de
uma sinapse são ativados
assincronamente, então a força da sinapse
entre eles deve ser reduzida.
RN - Prof. Paulemir Campos
12
Aprendizado Hebbiano

Sinapse anti-Hebbiana


Enfraquecimento de sinapses com
atividades pré e pós-sinápticas
correlacionadas e reforço em caso
contrário.
Sinapse não Hebbiana

11/5/2015
Não envolve mecanismos Hebbianos.
RN - Prof. Paulemir Campos
13
Aprendizado Hebbiano

Propriedades da sinapse Hebbiana

Dependência do tempo:


Localidade:

11/5/2015
Mudanças dependem do tempo de ocorrência
dos sinais pré e pós-sinápticos;
Informações localmente disponíveis são usadas
para produzir modificações sinápticas;
RN - Prof. Paulemir Campos
14
Aprendizado Hebbiano

Propriedades da sinapse Hebbiana
(Continuação)

Interatividade:


Correlação entre sinais pré e póssinápticos:

11/5/2015
Modificações sinápticas têm que considerar
sinais dos dois lados da sinapse;
A ocorrência simultânea entre tais sinais é
suficiente para modificar a força sináptica.
RN - Prof. Paulemir Campos
15
Aprendizado Hebbiano

Depressão sináptica: enfraquecimento
de uma sinapse com o passar do tempo


11/5/2015
Atividades nas membranas pré e póssinápticas não correlacionadas ou
negativamente correlacionadas;
Ausência de atividades coincidentes entre
as membranas pré e pós-sinápticas.
RN - Prof. Paulemir Campos
16
Aprendizado Hebbiano

Modelos matemáticos

Um peso sináptico wik(t) entre as unidades
de processamento xi e yk é ajustado no
tempo t usando a seguinte expressão
Δwik(t) = f(xi(t),yk(t))
onde f(.,.) é a função dos sinais pré e póssinápticos.
11/5/2015
RN - Prof. Paulemir Campos
17
Aprendizado Hebbiano

Modelos matemáticos (continuação)

Hipótese de Hebb: Regra do produto de
atividades
Δwik(t) = η xi(t) yk(t)
onde η é a taxa de aprendizado.
11/5/2015
RN - Prof. Paulemir Campos
18
Aprendizado Hebbiano

Modelos matemáticos (continuação)

Hipótese da Covariância: Regra que
considera a diferença dos sinais pré e póssinápticos de suas médias (xiM e ykM)
Δwik(t) = η (xi(t) – xiM) (yk(t) – ykM)
onde η é a taxa de aprendizado.
11/5/2015
RN - Prof. Paulemir Campos
19
Aprendizado Competitivo

A idéia é, dado um padrão de entrada,
fazer com que as unidades de saída
disputem entre si para serem ativadas.
11/5/2015
RN - Prof. Paulemir Campos
20
Aprendizado Competitivo

Ou seja, neurônios competem entre si
para serem ativados


Apenas um neurônio ou grupo de
neurônios vizinhos torna-se ativo.
Adequado para descobrir características
estatisticamente salientes

11/5/2015
Podem agrupar conjuntos de entradas
RN - Prof. Paulemir Campos
21
Aprendizado Competitivo

Elementos básicos


11/5/2015
Conjunto de neurônios iguais (exceto por
alguns pesos randomicamente distribuídos)
Limite imposto na força de cada neurônio
RN - Prof. Paulemir Campos
22
Aprendizado Competitivo

Elementos básicos (continuação)


Mecanismo que permita neurônios
competirem pelo direito de responder a um
dado subconjunto de entradas (winnertakes-all)
Neurônios individuais especializam-se
em conjuntos de padrões semelhantes.
11/5/2015
RN - Prof. Paulemir Campos
23
Aprendizado Competitivo

Algoritmo mais simples



Uma camada de neurônios completamente
ligada à entrada por conexões excitatórias;
Conexões laterais inibitórias entre
neurônios na camada de processamento
Normalização dos pesos excitatórios de i:
Σ(wik(t))2 = 1
11/5/2015
RN - Prof. Paulemir Campos
24
Aprendizado Competitivo

Algoritmo mais simples (continuação)

Ativação da vencedora
1, se yk  vi
yk  
0, caso contrário
onde vi é o campo local induzido para todo i
diferente de k. O vencedor inibe as outras
unidades.

Modelo matemático (nodo vencedor)
Δwik(t) = η (xi(t) + wik(t))
11/5/2015
RN - Prof. Paulemir Campos
25
Aprendizado de Boltzmann

Algoritmo de aprendizagem estocástico
cuja concepção foi inspirada na
mecânica estatística.
11/5/2015
RN - Prof. Paulemir Campos
26
Aprendizado de Boltzmann

Deu origem ao modelo de rede neural
máquina de Boltzmann


11/5/2015
Estrutura recorrente com dois estados de
ativação: 1 ou -1;
Função de energia: E=-1/2ΣΣwijxixj (i≠j)
RN - Prof. Paulemir Campos
27
Aprendizado de Boltzmann

Deu origem ao modelo de rede neural
máquina de Boltzmann (continuação)

Mudança de estado:
1
P( xj   xj ) 
1  exp(Ej / T )
onde P é a probabilidade de mudança de
estado de um neurônio xj, ΔEj é a mudança de
energia resultante e T é a pseudo temperatura.
11/5/2015
RN - Prof. Paulemir Campos
28
Aprendizado de Boltzmann

Operação do Algoritmo de Boltzmann


11/5/2015
Escolhe-se um neurônio xj aleatoriamente;
Muda-se seu estado de ativação de xj(t)
para –xj(t) com probabilidade P a uma
pseudo temperatura T até rede atingir o
equilíbrio térmico.
RN - Prof. Paulemir Campos
29
Aprendizado de Boltzmann

Tipos de neurônios


11/5/2015
Visíveis;
Escondidos.
RN - Prof. Paulemir Campos
30
Aprendizado de Boltzmann

Modos de operação

Ativação mantida


Ativação livre

11/5/2015
Estado de ativação das unidades visíveis são
mantidos constantes nos valores determinados
pelo ambiente
Todas as unidades têm estado de ativação
livre.
RN - Prof. Paulemir Campos
31
Aprendizado de Boltzmann

Modelo matemático


11/5/2015
Δwik(t) = η(ρmik - ρlik), com i ≠ k
onde ρmik e ρlik são as correlações dos
neurônios i e k na condição de ativação
mantida e livre, respectivamente.
As correlações consideram todos os
estados possíveis para o equilíbrio térmico.
RN - Prof. Paulemir Campos
32
Referências


Braga, A. P.; Ludermir, T. B. e
Carvalho, A. C. P. L. F. Redes Neurais
Artificiais: Teoria e Aplicações.
Editora LTC, 2000.
Notas de aulas da Profa. Teresa B.
Ludermir e do Prof. Aluízio Araújo,
ambos do CIn/UFPE.
11/5/2015
RN - Prof. Paulemir Campos
33
Download

RN_aprendizado2 - pgc-upe