N.6 Ano 2
ISSN 1809-0648
Ed. Paralogike - Santos - SP Brasil
ATC2 06/ 2007
Treinamento de uma Célula Neural
Artificial Paraconsistente de Aprendizagem
Mauricio Conceição Mário, Luís Fernando P. Ferrara e João Inácio da Silva Filho
Mário, M.C.
Email: [email protected]
Ferrara, L.F.P.
.
Email: [email protected]
Da Silva Filho, J.I.
Email: [email protected]
GLPA - Grupo de Lógica Paraconsistente Aplicada
UNISANTA - NPE –Núcleo de Pesquisa em Eletrônica
Rua Oswaldo Cruz, 288 - Boqueirão - Santos-SP CEP- 11045-000
Resumo  As Redes Neurais Artificiais têm se constituído em um vasto campo de pesquisa na teoria conexionista dos
processos funcionais do cérebro. No entanto, as aplicações diretas das teorias das Redes Neurais Artificiais apresentam
algumas dificuldades, o que se deve a vários motivos, entre eles a necessidade da modelagem de processos obrigar o
tratamento de extensas massas de dados que trazem informações incertas. Quando as análises são feitas baseadas apenas em
evidências, ou em conhecimento incerto, os Sistemas que utilizam a Lógica Clássica ou binária se mostram ineficazes ou
impossibilitados de serem aplicados diretamente, por isso procura-se novas formas de tratamento de sinais utilizando as lógicas
não-Clássicas. A Lógica Paraconsistente Anotada LPA pertence à classe das lógicas não-clássicas e, conforme demonstrado
em relevantes trabalhos na área de Inteligência Artificial, é uma boa solução para fazer tratamento destas situações incertas de
modo não-trivial. Neste trabalho, originado do método de interpretação da Lógica Paraconsistente Anotada, é apresentada uma
Célula Neural Artificial Paraconsistente de Aprendizagem CNAPap capaz de aprender um padrão depois que o mesmo for
aplicado determinado número de vezes em sua entrada. A CNAPap apresentada pertence a uma família de Células Neurais
Artificiais Paraconsistentes (CNAP) que traz inovação nas aplicações de Redes Neurais Artificiais.
Palavras chave  lógica não clássica, lógica paraconsistente, lógicas anotadas, sistemas de controle.
Abstract: The Artificial Neural Networks have constituted in a vast research field in the conexionist theory of the functional
processes of the brain. The direct applications of the theories of the Artificial Neural Networks bring some difficulties. These
difficulties are due to several reasons, among them the need of the modelling of processes to force the treatment of extensive
masses of data that bring uncertain information. When the analyses are made based just in evidences, or in uncertain
knowledge, the Systems that use the Logic Classic or binary, are ineffective or unable of be applied directly. For that it is
sought new forms of treatment of signals using the non-classic logics. The Annotated Paraconsistent APL belongs to the class
of the non-classic logics and, as demonstrated in relevant works in the area of Artificial Intelligence, it is a good solution to do
treatment of these uncertain situations in a non-trivial way. In this work, originated of the interpretation method of the
Annotated Paraconsistent Logic, is presented a Paraconsistent Artificial Neural Cell of learning PANCle that is capable to
learn a pattern after the same is applied a certain number of times in her inputs. The PANCle belongs at the family of
Paraconsistent Neural Artificial Cells (PNC) and brings innovation in the applications of Neural Artificial Networks area.
Keywords: non-classic logics, paraconsistent logic, Annotated paraconsistent logic, intelligent systems
baseados na lógica clássica ou binária, mas sabe-se que as
contradições ou inconsistências são comuns quando
descrevemos partes do mundo real. A lógica binária
trabalhando com apenas dois estados, Falso ou Verdadeiro
não tem condições para apresentar resultados satisfatórios.
Neste trabalho apresentamos um estudo de uma Célula
Neural Artificial Paraconsistente CNAP que traz uma nova
forma de tratamento para as modelagens dos neurônios
baseado na Lógica Paraconsistente Anotada.
I. INTRODUÇÃO
Os estudos das Redes Neurais Artificiais, baseados em
comportamento de Neurônios biológicos, resultaram em
classes de modelos matemáticos para classificação e
reconhecimento de padrões, no entanto as aplicações
concretas destas teorias em Inteligência Artificial são poucas,
ficando o conhecimento restrito à área acadêmica.
Os primeiros estudos como princípio de modelagem de
neurônio para aplicação em redes neurais artificiais [4] foram
ISSN 1809-0648
11
Abril/Maio/Junho 2007
N.6 Ano 2
ISSN 1809-0648
‘crença total’, (0, 1) indica ‘descrença total’, (1, 1) indica
crenças totalmente inconsistentes e (0, 0) indica ausência
total de crença. Considerando valores nos sinais que
compõem as anotações pode-se, através de uma análise,
chegar ao valor do estado lógico resultante que vai
corresponder a saída do sistema. Pode-se relacionar os
estados lógicos extremos com os valores dos graus de crença
e de descrença da seguinte forma:
pT = p (1, 1) ⇒ A anotação composta pelos grau de
crença e grau de descrença atribui à proposição p uma leitura
intuitiva que p é inconsistente.
A Lógica Paraconsistente Anotada é uma classe de Lógica
não-clássica que consegue tratar adequadamente sinais
contraditórios. Muitos estudos, entre eles [3] [5],
apresentaram resultados que possibilitam a Lógica
Paraconsistente Anotada considerar as inconsistências em sua
estrutura de um modo não trivial, e, por isso, é mais propícia
no enquadramento de problemas ocasionados por situações
de contradições que aparecem quando lidamos com o mundo
real. Em [7] foi apresentado um método que permite
aplicações da Lógica Paraconsistente Anotada através de um
algoritmo denominado de “Para-Analisador”.
Este algoritmo é originado da descrição e de
equacionamento do reticulado de quatro vértices associado à
Lógica Paraconsistente Anotada LPA. Neste trabalho a
estrutura básica do algoritmo “Para-Analisador” é utilizada
para criar uma Célula Neural Artificial Paraconsistente de
aprendizagem CNAPap que traz maior simplicidade e
eficiência aos projetos de redes neurais artificiais que
modelam o cérebro humano [8].
pV = p (1, 0) ⇒ A anotação composta pelos grau de
crença e grau de descrença atribui à proposição p uma leitura
intuitiva que p é verdadeira.
pF = p (0, 1) ⇒ atribui à proposição p uma leitura
intuitiva que p é falsa.
pB= p (0, 0) ⇒ atribui à proposição p uma leitura intuitiva
que p é paracompleta ou Indeterminada.
II. A LÓGICA PARACONSISTENTE COM ANOTAÇÃO DE DOIS
VALORES LPA2V
p (0.5, 0.5) ⇒ atribui à proposição p uma leitura intuitiva
que p é indefinida.
A Lógica Paraconsistente Anotada com anotação de dois
valores - LPA2v pode ser representada através de um
reticulado de quatro vértices [2] onde podemos estabelecer
algumas terminologias e convenções, do seguinte modo:
Seja τ = < |τ|, ≤ > um reticulado finito fixo, onde:
1. τ = [0, 1] × [0, 1]
2. ≤ = {((µ1, ρ1), (µ2, ρ2)) ∈ ([0, 1] × [0, 1])2µ1 ≤ µ2 e ρ1 ≤
ρ2} (onde ≤ indica a ordem usual dos números reais). Tal
reticulado denomina-se reticulado de valores-verdade.
Obtém-se assim, originado do reticulado da LPA2v,
exposto na figura 1(a), a sua representação no plano
cartesiano que é o diagrama da figura 1(b) a seguir:
III. AS CÉLULAS NEURAIS ARTIFICIAIS
PARACONSISTENTES
Na análise paraconsistente o objetivo principal é saber com
que medida ou grau de certeza podemos afirmar que uma
proposição é Falsa ou Verdadeira. Portanto, é considerado
como resultado da análise apenas o valor do grau de certeza
Gc. O valor do grau de contradição Gct é um indicativo que
informa a medida da inconsistência. Se houver um baixo
valor de certeza ou muita inconsistência o resultado é uma
indefinição [7].
Os valores de controle ajustados externamente são limites
que vão servir como referência na análise. Podemos
descrever a análise paraconsistente utilizando apenas as
equações originadas no Quadrado Unitário do Plano
Cartesiano: Sendo as variáveis de entrada: µ1, tal que:
T
F = (0,1)
F
V
⊥
(a)
T= (1,1)
0 ≤ µ1 ≤ 1 e µ2, tal que: 0 ≤ µ2 ≤ 1
Os valores limites:
Vicc, tal que: -1 ≤ Vicc ≤ 0
Vscc, tal que: 0 ≤ Vscc ≤ 1
Vicct, tal que: -1 ≤ Vicct ≤ 0
Vscct, tal que: 0 ≤ Vscct ≤ 1
O grau de certeza calculado: Gci = µ1 - µ2
O grau de contradição: Gct = µ1 + µ2 - 1
µ2
⊥= (0,0)
µ1
V= (1,0)
(b
Fig 1- (a) Reticulado associado à LPA
Reticulado no QUPC
(b) Estudo
do
O grau de certeza Gc resultante da análise é obtido
através das comparações feitas a seguir:
Se: Vicc ≤ Gci ≤ Vscc
ou Vscct ≤ Gct ≤ Vicct ⇒ Gc = Indefinição
A idéia epistemológica intuitiva da associação de uma
anotação (µ1, µ2) a uma proposição p significa que o grau de
crença em p é µ1, enquanto que o grau de descrença é µ2. Por
exemplo, intuitivamente, em tal reticulado, (1, 0) indica
ISSN 1809-0648
Ed. Paralogike - Santos - SP Brasil
ATC2 06/ 2007
Para: Vicct ≤ Gct ≤ Vscct.
12
Abril/Maio/Junho 2007
N.6 Ano 2
ISSN 1809-0648
Ed. Paralogike - Santos - SP Brasil
ATC2 06/ 2007
Se: Gci ≤ Vicc ⇒ Gc = Falso com grau Gci
Vscc ≤ Gci ⇒ Gc = Verdadeiro com grau Gci
Uma descrição do reticulado utilizando os valores
obtidos pelas equações origina o Algoritmo “ParaAnalisador”. Este algoritmo é elaborado com base na
descrição do reticulado e pode ser escrito na sua forma
reduzida viabilizando sua implantação em redes.
O algoritmo que expressa uma Célula Neural Artificial
Paraconsistente básica CNAPb é:
*/Definições do valores ajustáveis*/
Vscc=C1 */Valor superior de controle de certeza*/
Vicc=C2 */ Valor inferior de controle de certeza*/
Vscct=C3 */Valor superior de controle contradição*/
Vicct=C4 */Valor inferior de controle contradição*/
*/Variáveis de entrada*/
µ1, µ2
*/Variáveis de saída*
Saída Digital = S1
Saída analógica = S2a
Saída analógica = S2b
Fig.2 A Célula Neural Artificial Paraconsistente Básica
CNAPb.
Os resultados obtidos com algoritmo Para-Analisador no
tratamento de sinais contraditórios mostram certa semelhança
com o macro funcionamento do cérebro humano. Com base
nesta analogia consideramos o algoritmo Para-Analisador
como uma Célula Neural Artificial Paraconsistente básica
(CNAPb) que vai dar origem a família de Células Neurais
Artificiais Paraconsistentes. Neste trabalho apenas
estudaremos a Célula Neural Artificial Paraconsistente de
Aprendizagem.
Na Célula Neural Artificial Paraconsistente básica
CNAPb, representada pelo algoritmo “Para-Analisador”,
foram considerados todos os valores envolvidos nas
equações. Sendo assim, se os graus de certeza e de
contradição estiverem fora dos valores impostos pelos limites
ajustáveis, a saída será um estado denominado de nãoextremo, e a este é atribuído um valor indefinido I.
*/Expressões matemáticas */
sendo :
Gct = µ1 + µ2 - 1
e Gc = µ1 - µ2
*/determinação dos estados lógicos extremos */
Se Gc ≥ C1 então
S1 = V
Se Gc ≤ C2 então
S1 = F
Se Gct ≥ C3 então
S1 = T
S1 = ⊥
Se Gct ≤ C4 então
Senão
S1 = I -Indefinição
Gct = S2a
Gc = S2b
*/ FIM*/
Denomina-se Célula Artificial Paraconsistente básica
(CAPb) o elemento capaz de, quando apresentado um par
(u1a, u2a) de crença e descrença na sua entrada, fornecer um
resultado na sua saída composto de uma tripla, dada por:
Gct = grau de contradição resultante,
Gc = grau de crença resultante e
X = constante de anotação resultante Indefinido. Os
Graus serão obtidos através das formulas:
Gc = u1 - u2 e Gct = u1+ u2 -1.
Este algoritmo pode ser representado em forma de um
bloco que denominamos de Célula Neural Artificial
Paraconsistente Básica CNAPb.
As Células Neurais Artificiais Paraconsistentes
(CNAP’s) constituem os elementos básicos das Redes
Neurais Artificiais Paraconsistentes (RNAP’s) [8]. Para
compô-las usa-se a Célula Artificial Paraconsistente básica
(CAPb).
ISSN 1809-0648
IV. CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE
APRENDIZAGEM CNAPAP
Uma Célula Neural Artificial Paraconsistente de
aprendizagem - CNAPap é criada a partir da Célula Neural
Artificial Paraconsistente básica [8].
Neste tipo de Célula de aprendizagem pode vir a ocorrer
a ação do Operador NOT no processo de treinamento.
Conforme visto em [7], a função do Operador NOT na
Lógica Paraconsistente é fazer a negação lógica no sinal
resultante de saída da Célula.
Para um processo de treinamento, inicialmente considerase uma Célula Neural Artificial Paraconsistente de conexão
analítica que não sofreu nenhum processo de aprendizagem.
Conforme a análise paraconsistente, uma célula nestas
condições tem as duas entradas com um valor Indefinido
13
Abril/Maio/Junho 2007
N.6 Ano 2
ISSN 1809-0648
Ed. Paralogike - Santos - SP Brasil
ATC2 06/ 2007
dizemos que a Célula aprendeu o padrão de verdade.
Portanto uma Célula Neural Artificial Paraconsistente pode
aprender dois tipos de padrões: o padrão de Verdade ou o
padrão de Falsidade. Ainda neste processo de aprendizagem
da CNAPap é introduzido um fator de aprendizado (FA) que
é ajustado externamente. Dependendo do valor de FA será
proporcionado uma aprendizagem mais rápida ou mais lenta
à CNAPap.
No processo de aprendizagem considera-se uma equação
para cálculos de valores de graus de crença resultantes
sucessivos µr (k) até chegar ao valor 1. Portanto para um valor
de grau de crença µr (k) inicial, são obtidos valores µr (k+1) até
que µr (k+1) =1
Considerando um processo de aprendizagem do padrão
de verdade a equação EEB - Equação Estrutural Básica de
aprendizagem é obtida através de:
igual a 1/2, portanto a equação da análise paraconsistente
chamada Equação estrutural Básica EEB [8] determina que a
saída também é uma indefinição com valor 1/2.
A figura 3 mostra os valores de entrada e saída com os
fatores de tolerância ajustados para não influírem no
resultado final de uma CNAP virgem, que está pronta para
aprender padrões.
µr (k+1) = [µ1 - (µr (k)C) FA ] + 1
2
onde: µr (k)C = 1- µr (k) sendo
0 ≤ FA ≤ 1
E para um processo de aprendizagem do padrão de
Falsidade a EEB fica:
µr (k+1) = [µ1c - (µr (k)C) FA ] + 1
2
Fig 3 - Célula Neural Artificial Paraconsistente pronta para
receber padrões.
onde: µ1c = 1- µ1 sendo
V. APRENDIZAGEM DE UMA CÉLULA NEURAL ARTIFICIAL
PARACONSISTENTE DE APRENDIZAGEM
Considera-se a Célula completamente treinada quando:
µr (k+1) = 1.
As células de aprendizagem podem ser utilizadas em
Redes Neurais Paraconsistentes como unidades de memórias
e sensores de padrões em camadas primárias. Por exemplo,
uma CNAPa pode ser treinada para aprender um padrão
utilizando o método de análise paraconsistente aplicado
através de um algoritmo. Para o treinamento de uma célula
Neural Paraconsistente podem ser utilizados como padrões
valores reais entre 0 e 1. As células também podem ser
treinadas para reconhecer valores 0 ou 1 e, por analogia
considerar estas células primárias com neurônios fotoreceptores da visão humana denominados de cones e
bastonetes.
Neste trabalho vamos demonstrar a aprendizagem das
células com valores extremos 0 ou 1 compondo assim as
células sensoriais primárias. Fica definido, portanto, que em
uma Rede Neural Paraconsistente, as células sensoriais
primárias consideram como padrão, um dígito binário onde, o
valor 1 é equivalente ao estado lógico “Verdadeiro” e o valor
0 é equivalente ao estado lógico “Falso”. Aparecendo na
entrada o valor 0 repetidas vezes, o grau de crença resultante
da análise vai aumentando gradativamente na saída até
chegar ao valor 1. Nestas condições dizemos que a Célula
aprendeu o padrão de falsidade.
O mesmo procedimento é adotado se for aplicado repetida
vezes na entrada da Célula o valor 1. Quando o grau de
crença resultante na saída da Célula chegar ao valor 1
ISSN 1809-0648
0 ≤ FA ≤ 1
O fator de aprendizagem FA é um valor real, igual ou maior
que 0, atribuído arbitrariamente por ajustes externos onde,
quanto maior o seu valor maior é a rapidez de aprendizado da
Célula. Se FA=1 dizemos que a célula tem uma capacidade
natural de aprendizagem [8]. Esta capacidade natural vai
diminuindo a medida que o ajuste de FA se aproxima de 0.
Quando FA= 0 a célula perde a capacidade de aprender e o
grau de crença resultante sempre terá o valor da Indefinição
½ [8].
Conforme [8] a aprendizagem de uma CNAPap é feita
através de um treinamento que consiste em aplicar um padrão
na entrada do sinal de grau de crença sucessivamente até que
as contradições diminuam e seja obtido na saída um grau de
crença resultante igual a 1.
O algoritmo de aprendizagem consiste em fazer a Célula
Neural Artificial Paraconsistente ser condicionada para que
ao final do treinamento reconheça o padrão apresentado
como grau de crença na entrada.
O algoritmo que elabora a aprendizagem do padrão de
verdade é mostrado a seguir:
VI. ALGORITMO DE APRENDIZAGEM DA CÉLULA NEURAL
ARTIFICIAL PARACONSISTENTE CNAPAP
1- Início: µr = 1/2 */Célula virgem */
14
Abril/Maio/Junho 2007
N.6 Ano 2
ISSN 1809-0648
2- Defina: FA= C1 onde 0 ≤ C1 ≤ 1 */ Entra com o valor do
Fator de aprendizagem */
3- Faça : µ2 = µr */ Conecta a saída da célula na entrada do
grau de descrença */
4- Faça: µ2c =1 - µ2 */ Aplica o Operador Complemento no
valor aplicado na entrada do grau de descrença */
5- Faça: µ1 = 1 */Aplica o padrão de Verdade */
6- Faça: Gc= µ1 -µ2c */ Calcula o Grau de crença*/
7- Faça: µr = {(Gc × C1 ) +1} ÷ 2 */ Encontra o grau de
crença resultante da saída pela equação da análise
paraconsistente */
8- Se µr ≠ 1 retorne ao passo 3
9- Pare
VIII. CONCLUSÃO
Neste trabalho foram estudadas algumas características
de um algoritmo originado do método de interpretação da
Lógica Paraconsistente Anotada de anotação com dois
valores - LPA2v. O algoritmo extraído da Lógica
Paraconsistente representa o que denominamos de Célula
Neural Artificial Paraconsistente de Aprendizagem CNAPap.
Verificou-se que uma CNAPap ao passar por um
treinamento é capaz de aprender um padrão depois que o
mesmo for aplicado determinada número de vezes em sua
entrada. Os resultados e as características de processamento
da CNAPap nos leva a comparar o seu funcionamento com
os já conhecidos de um neurônio biológico. Com os
resultados obtidos nos treinamentos de uma CNAPap,
acreditamos que se abre um amplo campo de pesquisa para
aplicação desta técnica em áreas de IA que tratam de
simulações do comportamento do cérebro humano.
VII. RESULTADOS PRÁTICOS
Os gráficos abaixo apresentam o resultado do
aprendizado de uma Célula Neural Artificial Paraconsistente
utilizando o algoritmo de aprendizagem exposto neste
trabalho quando na aplicação de um padrão na forma de uma
função aplicado na entrada, do tipo senoidal :
IX. BIBLIOGRAFIA
[1] J.M. Abe and J.I. Da Silva Filho, Inconsistency and
Electronic Circuits, Proceedings of The International
ICSC Symposium on Engineering of Intelligent Systems
(EIS’98), Volume 3, Artificial Intelligence, Editor: E.
Alpaydin, ICSC Academic Press International Computer
Science Conventions Canada/Switzerland, ISBN 3906454-12-6, 191-197, 1998.
[2] C.M. Bishop Neural Networks for Pattern Recognition.
1.ed. Oxford University Press, 1995.
[3] CIGRE, Pratical use of expert systems in planning and
operation of power systems, TF 38.06.03, Électra, n.146,
pp30-67, fevereiro 1993
[4] N.C.A. Da Costa and J.M. Abe, Aspectos Sobre
Aplicações dos Sistemas Paraconsistentes, Atas do I
Congresso de Lógica Aplicada à Tecnologia –
LAPTEC’2000, Editôra Plêiade, São Paulo, SP – Brasil,
Editor: J.M. Abe, ISBN 85-85795-29-8, 559-571, 2000.
[5] N.C.A. Da Costa,., J.M. Abe and V.S. Subrahmanian,
Remarks on annotated logic, Zeitschrift f. math. Logik
und Grundlagen d. Math. 37, Vol.37, pp 561-570, 1991.
[6] J.I. Da Silva Filho Implementação de circuitos lógicos
fundamentados
em uma
classe
de
Lógicas
Paraconsistentes Anotadas, in Portuguese, Master thesis,
University of São Paulo, FFLCH/USP - São Paulo, 1997.
[7] J.I. Da Silva Filho Métodos de interpretação da Lógica
Paraconsistente Anotada com anotação com dois valores
LPA2v com construção de Algoritmo e implementação
de Circuitos Eletrônicos, in portuguese Ph D thesis,
University of São Paulo, POLI/USP - São Paulo, 1999.
[8] J.I. Da Silva Filho and J.M. ABE, Fundamentos das
Redes Neurais Artificiais - destacando aplicações em
Neurocomputação. 1.ed. São Paulo, Editora Villipress,
Brazil 2001.
sinal[ 30 ] = (Sen ( (i x Pi) / 180 )
Aplicando a equação de aprendizagem da CNAP-Ap sendo a
entrada uma função fica:
sinal[ i ] = (Sen ( (i x Pi) / 180 ) + 1) / 2
O gráfico mostrado na figura 4 apresenta o padrão versus
o número de passos para aprendizagem de uma Célula Neural
Artificial Paraconsistente.
É visto que a célula aprendeu a função aplicada como
padrão de entrada depois de 30 passos.
Fig 4- Curva do padrão de aprendizagem e números de
aplicações.
ISSN 1809-0648
Ed. Paralogike - Santos - SP Brasil
ATC2 06/ 2007
15
Abril/Maio/Junho 2007
N.6 Ano 2
ISSN 1809-0648
Ed. Paralogike - Santos - SP Brasil
ATC2 06/ 2007
[11] H.G.Martins, A Lógica Paraconsistente Anotada de
Quatro Valores-LPA4v Aplicada em um Sistema de
Raciocínio Baseado em Casos para o Restabelecimento
de Subestações Elétricas – UNIFEI – Ph.D Thesis
Itajubá,MG, 2003.
[9] L.F.P. Ferrara, Redes Neurais Artificiais Aplicada em um
Reconhecedor de Caracteres Dissertação de MestradoUFU, Uberlândia-MG, 2003.
[10] M.C.Mario, Proposta de Aplicação das Redes Neurais
Artificiais Paraconsistentes como Classificador de Sinais
utilizando Aproximação Funcional - Dissertação de
Mestrado-UFU, Uberlândia-MG, 2003.
Maurício Conceição Mário
Graduado em Engenharia Elétrica pela FEI - Faculdade de Engenharia Elétrica de São Bernardo do
Campo - SP obteve o título de Mestre em processamento da Informação pela Universidade Federal de
Uberlândia – UFU em Minas Gerais e doutorou-se em Ciências pela Faculdade de Medicina da
Universidade de São Paulo - FMUSP. Atualmente é professor da Universidade Santa Cecília
UNISANTA - em Santos SP e também pesquisador em Inteligência Artificial onde integra o Grupo de
Pesquisa GLPA - Grupo de Lógica Paraconsistente Aplicada.
Luís Fernando Pompeo Ferrara
Graduado em Engenharia Civil e Processamento de Dados pela Universidade Presbiteriana
Mackenzie. Obteve o título de Mestre em Engenharia Elétrica com ênfase em Processamento da
Informação pela Universidade Federal de Uberlândia - UFU em Minas Gerais. Atualmente é
Professor da Universidade Santa Cecília UNISANTA – em Santos-SP e integrante do GLPA –
Grupo de Lógica Paraconsistente Aplicada onde faz pesquisas de aplicações das Lógicas NãoClássicas em Sistemas de automação e Controle.
João Inácio da Silva Filho
É Coordenador do GLPA- Grupo de Lógica Paraconsistente Aplicada e membro do Grupo de
Lógica e Teoria da Ciência do IEA- Instituto de Estudos Avançados da USP.
O Professor Da Silva Filho, J. I doutorou-se em Engenharia Elétrica pela POLI/USP na área de
Sistemas Digitais, e fez mestrado em Microeletrônica pela mesma Instituição. Criador do primeiro
Robô a funcionar com Controlador lógico Paraconsistente (Robô Emmy), atualmente se dedica as
pesquisas sobre aplicações das Redes Neurais Artificiais Paraconsistentes em Sistemas Especialistas
e Robótica.
ISSN 1809-0648
16
Abril/Maio/Junho 2007
Download

Treinamento de uma Célula Neural Artificial Paraconsistente de