Inteligência Artificial
Computação Neural
- Perceptron Multicamada
Perceptron Multicamada (PMC)
• Características:
— Função de ativação: não-linear, como sigmóide ou
hiperbólica.
— Topologia: a rede é feedforward, com várias camadas
tipicamente completamente conectadas.
— Algoritmo de aprendizagem: supervisionado, através
da retropropagação do erro.
— Aplicações: classificação de padrões em geral, como
reconhecimento de objetos ou letras em imagens, de
fonemas ou palavras em sons, síntese de voz,
previsões baseadas em dados históricos, entre outros.
PMC - Topologia
PMC – Fase de Classificação
• Similar ao processo do Perceptron
• Inicia-se pelo cálculo da saída de todos os
neurônios da primeira camada oculta, utilizando
as entradas (cada neurônio de uma dada camada
pode ser calculado em paralelo).
• Em seguida, com as saídas da primeira camada,
calcula-se as saídas da segunda, e assim
sucessivamente, até a última camada que fornece
as saídas da rede.
PMC – Aprendizado
• O algoritmo de aprendizado do PMC, conhecido
como backpropagation, é um dos grandes
responsáveis pelo ressurgimento da área de
computação neural.
• Lembrando as definições do erro e atualização de
peso do Perceptron:
PMC – Aprendizado
• Primeiramente, para o delta usado para
atualização de pesos, substitui-se o erro por um
parâmetro sigma:
• Sendo que sigma é calculado de forma diferente
para neurônios de camadas diferentes. Ele
representa o gradiente do erro (direção em que o
erro decresce mais rapidamente).
PMC – Aprendizado
• O cálculo do sigma para a camada saída é o
seguinte:
• Se o neurônio estiver na camada oculta, o sigma
da camada posterior é usado para calcular seu
sigma:
PMC – Aprendizado
• Para o caso da função sigmóide, a derivada é:
• Portanto, os parâmetros sigma são calculados da
seguinte maneira:
Download

Aula5 – RNA2 - caversan.eng.br