N.6 Ano 2 ISSN 1809-0648 Ed. Paralogike - Santos - SP Brasil ATC2 06/ 2007 Treinamento de uma Célula Neural Artificial Paraconsistente de Aprendizagem Mauricio Conceição Mário, Luís Fernando P. Ferrara e João Inácio da Silva Filho Mário, M.C. Email: [email protected] Ferrara, L.F.P. . Email: [email protected] Da Silva Filho, J.I. Email: [email protected] GLPA - Grupo de Lógica Paraconsistente Aplicada UNISANTA - NPE –Núcleo de Pesquisa em Eletrônica Rua Oswaldo Cruz, 288 - Boqueirão - Santos-SP CEP- 11045-000 Resumo As Redes Neurais Artificiais têm se constituído em um vasto campo de pesquisa na teoria conexionista dos processos funcionais do cérebro. No entanto, as aplicações diretas das teorias das Redes Neurais Artificiais apresentam algumas dificuldades, o que se deve a vários motivos, entre eles a necessidade da modelagem de processos obrigar o tratamento de extensas massas de dados que trazem informações incertas. Quando as análises são feitas baseadas apenas em evidências, ou em conhecimento incerto, os Sistemas que utilizam a Lógica Clássica ou binária se mostram ineficazes ou impossibilitados de serem aplicados diretamente, por isso procura-se novas formas de tratamento de sinais utilizando as lógicas não-Clássicas. A Lógica Paraconsistente Anotada LPA pertence à classe das lógicas não-clássicas e, conforme demonstrado em relevantes trabalhos na área de Inteligência Artificial, é uma boa solução para fazer tratamento destas situações incertas de modo não-trivial. Neste trabalho, originado do método de interpretação da Lógica Paraconsistente Anotada, é apresentada uma Célula Neural Artificial Paraconsistente de Aprendizagem CNAPap capaz de aprender um padrão depois que o mesmo for aplicado determinado número de vezes em sua entrada. A CNAPap apresentada pertence a uma família de Células Neurais Artificiais Paraconsistentes (CNAP) que traz inovação nas aplicações de Redes Neurais Artificiais. Palavras chave lógica não clássica, lógica paraconsistente, lógicas anotadas, sistemas de controle. Abstract: The Artificial Neural Networks have constituted in a vast research field in the conexionist theory of the functional processes of the brain. The direct applications of the theories of the Artificial Neural Networks bring some difficulties. These difficulties are due to several reasons, among them the need of the modelling of processes to force the treatment of extensive masses of data that bring uncertain information. When the analyses are made based just in evidences, or in uncertain knowledge, the Systems that use the Logic Classic or binary, are ineffective or unable of be applied directly. For that it is sought new forms of treatment of signals using the non-classic logics. The Annotated Paraconsistent APL belongs to the class of the non-classic logics and, as demonstrated in relevant works in the area of Artificial Intelligence, it is a good solution to do treatment of these uncertain situations in a non-trivial way. In this work, originated of the interpretation method of the Annotated Paraconsistent Logic, is presented a Paraconsistent Artificial Neural Cell of learning PANCle that is capable to learn a pattern after the same is applied a certain number of times in her inputs. The PANCle belongs at the family of Paraconsistent Neural Artificial Cells (PNC) and brings innovation in the applications of Neural Artificial Networks area. Keywords: non-classic logics, paraconsistent logic, Annotated paraconsistent logic, intelligent systems baseados na lógica clássica ou binária, mas sabe-se que as contradições ou inconsistências são comuns quando descrevemos partes do mundo real. A lógica binária trabalhando com apenas dois estados, Falso ou Verdadeiro não tem condições para apresentar resultados satisfatórios. Neste trabalho apresentamos um estudo de uma Célula Neural Artificial Paraconsistente CNAP que traz uma nova forma de tratamento para as modelagens dos neurônios baseado na Lógica Paraconsistente Anotada. I. INTRODUÇÃO Os estudos das Redes Neurais Artificiais, baseados em comportamento de Neurônios biológicos, resultaram em classes de modelos matemáticos para classificação e reconhecimento de padrões, no entanto as aplicações concretas destas teorias em Inteligência Artificial são poucas, ficando o conhecimento restrito à área acadêmica. Os primeiros estudos como princípio de modelagem de neurônio para aplicação em redes neurais artificiais [4] foram ISSN 1809-0648 11 Abril/Maio/Junho 2007 N.6 Ano 2 ISSN 1809-0648 ‘crença total’, (0, 1) indica ‘descrença total’, (1, 1) indica crenças totalmente inconsistentes e (0, 0) indica ausência total de crença. Considerando valores nos sinais que compõem as anotações pode-se, através de uma análise, chegar ao valor do estado lógico resultante que vai corresponder a saída do sistema. Pode-se relacionar os estados lógicos extremos com os valores dos graus de crença e de descrença da seguinte forma: pT = p (1, 1) ⇒ A anotação composta pelos grau de crença e grau de descrença atribui à proposição p uma leitura intuitiva que p é inconsistente. A Lógica Paraconsistente Anotada é uma classe de Lógica não-clássica que consegue tratar adequadamente sinais contraditórios. Muitos estudos, entre eles [3] [5], apresentaram resultados que possibilitam a Lógica Paraconsistente Anotada considerar as inconsistências em sua estrutura de um modo não trivial, e, por isso, é mais propícia no enquadramento de problemas ocasionados por situações de contradições que aparecem quando lidamos com o mundo real. Em [7] foi apresentado um método que permite aplicações da Lógica Paraconsistente Anotada através de um algoritmo denominado de “Para-Analisador”. Este algoritmo é originado da descrição e de equacionamento do reticulado de quatro vértices associado à Lógica Paraconsistente Anotada LPA. Neste trabalho a estrutura básica do algoritmo “Para-Analisador” é utilizada para criar uma Célula Neural Artificial Paraconsistente de aprendizagem CNAPap que traz maior simplicidade e eficiência aos projetos de redes neurais artificiais que modelam o cérebro humano [8]. pV = p (1, 0) ⇒ A anotação composta pelos grau de crença e grau de descrença atribui à proposição p uma leitura intuitiva que p é verdadeira. pF = p (0, 1) ⇒ atribui à proposição p uma leitura intuitiva que p é falsa. pB= p (0, 0) ⇒ atribui à proposição p uma leitura intuitiva que p é paracompleta ou Indeterminada. II. A LÓGICA PARACONSISTENTE COM ANOTAÇÃO DE DOIS VALORES LPA2V p (0.5, 0.5) ⇒ atribui à proposição p uma leitura intuitiva que p é indefinida. A Lógica Paraconsistente Anotada com anotação de dois valores - LPA2v pode ser representada através de um reticulado de quatro vértices [2] onde podemos estabelecer algumas terminologias e convenções, do seguinte modo: Seja τ = < |τ|, ≤ > um reticulado finito fixo, onde: 1. τ = [0, 1] × [0, 1] 2. ≤ = {((µ1, ρ1), (µ2, ρ2)) ∈ ([0, 1] × [0, 1])2µ1 ≤ µ2 e ρ1 ≤ ρ2} (onde ≤ indica a ordem usual dos números reais). Tal reticulado denomina-se reticulado de valores-verdade. Obtém-se assim, originado do reticulado da LPA2v, exposto na figura 1(a), a sua representação no plano cartesiano que é o diagrama da figura 1(b) a seguir: III. AS CÉLULAS NEURAIS ARTIFICIAIS PARACONSISTENTES Na análise paraconsistente o objetivo principal é saber com que medida ou grau de certeza podemos afirmar que uma proposição é Falsa ou Verdadeira. Portanto, é considerado como resultado da análise apenas o valor do grau de certeza Gc. O valor do grau de contradição Gct é um indicativo que informa a medida da inconsistência. Se houver um baixo valor de certeza ou muita inconsistência o resultado é uma indefinição [7]. Os valores de controle ajustados externamente são limites que vão servir como referência na análise. Podemos descrever a análise paraconsistente utilizando apenas as equações originadas no Quadrado Unitário do Plano Cartesiano: Sendo as variáveis de entrada: µ1, tal que: T F = (0,1) F V ⊥ (a) T= (1,1) 0 ≤ µ1 ≤ 1 e µ2, tal que: 0 ≤ µ2 ≤ 1 Os valores limites: Vicc, tal que: -1 ≤ Vicc ≤ 0 Vscc, tal que: 0 ≤ Vscc ≤ 1 Vicct, tal que: -1 ≤ Vicct ≤ 0 Vscct, tal que: 0 ≤ Vscct ≤ 1 O grau de certeza calculado: Gci = µ1 - µ2 O grau de contradição: Gct = µ1 + µ2 - 1 µ2 ⊥= (0,0) µ1 V= (1,0) (b Fig 1- (a) Reticulado associado à LPA Reticulado no QUPC (b) Estudo do O grau de certeza Gc resultante da análise é obtido através das comparações feitas a seguir: Se: Vicc ≤ Gci ≤ Vscc ou Vscct ≤ Gct ≤ Vicct ⇒ Gc = Indefinição A idéia epistemológica intuitiva da associação de uma anotação (µ1, µ2) a uma proposição p significa que o grau de crença em p é µ1, enquanto que o grau de descrença é µ2. Por exemplo, intuitivamente, em tal reticulado, (1, 0) indica ISSN 1809-0648 Ed. Paralogike - Santos - SP Brasil ATC2 06/ 2007 Para: Vicct ≤ Gct ≤ Vscct. 12 Abril/Maio/Junho 2007 N.6 Ano 2 ISSN 1809-0648 Ed. Paralogike - Santos - SP Brasil ATC2 06/ 2007 Se: Gci ≤ Vicc ⇒ Gc = Falso com grau Gci Vscc ≤ Gci ⇒ Gc = Verdadeiro com grau Gci Uma descrição do reticulado utilizando os valores obtidos pelas equações origina o Algoritmo “ParaAnalisador”. Este algoritmo é elaborado com base na descrição do reticulado e pode ser escrito na sua forma reduzida viabilizando sua implantação em redes. O algoritmo que expressa uma Célula Neural Artificial Paraconsistente básica CNAPb é: */Definições do valores ajustáveis*/ Vscc=C1 */Valor superior de controle de certeza*/ Vicc=C2 */ Valor inferior de controle de certeza*/ Vscct=C3 */Valor superior de controle contradição*/ Vicct=C4 */Valor inferior de controle contradição*/ */Variáveis de entrada*/ µ1, µ2 */Variáveis de saída* Saída Digital = S1 Saída analógica = S2a Saída analógica = S2b Fig.2 A Célula Neural Artificial Paraconsistente Básica CNAPb. Os resultados obtidos com algoritmo Para-Analisador no tratamento de sinais contraditórios mostram certa semelhança com o macro funcionamento do cérebro humano. Com base nesta analogia consideramos o algoritmo Para-Analisador como uma Célula Neural Artificial Paraconsistente básica (CNAPb) que vai dar origem a família de Células Neurais Artificiais Paraconsistentes. Neste trabalho apenas estudaremos a Célula Neural Artificial Paraconsistente de Aprendizagem. Na Célula Neural Artificial Paraconsistente básica CNAPb, representada pelo algoritmo “Para-Analisador”, foram considerados todos os valores envolvidos nas equações. Sendo assim, se os graus de certeza e de contradição estiverem fora dos valores impostos pelos limites ajustáveis, a saída será um estado denominado de nãoextremo, e a este é atribuído um valor indefinido I. */Expressões matemáticas */ sendo : Gct = µ1 + µ2 - 1 e Gc = µ1 - µ2 */determinação dos estados lógicos extremos */ Se Gc ≥ C1 então S1 = V Se Gc ≤ C2 então S1 = F Se Gct ≥ C3 então S1 = T S1 = ⊥ Se Gct ≤ C4 então Senão S1 = I -Indefinição Gct = S2a Gc = S2b */ FIM*/ Denomina-se Célula Artificial Paraconsistente básica (CAPb) o elemento capaz de, quando apresentado um par (u1a, u2a) de crença e descrença na sua entrada, fornecer um resultado na sua saída composto de uma tripla, dada por: Gct = grau de contradição resultante, Gc = grau de crença resultante e X = constante de anotação resultante Indefinido. Os Graus serão obtidos através das formulas: Gc = u1 - u2 e Gct = u1+ u2 -1. Este algoritmo pode ser representado em forma de um bloco que denominamos de Célula Neural Artificial Paraconsistente Básica CNAPb. As Células Neurais Artificiais Paraconsistentes (CNAP’s) constituem os elementos básicos das Redes Neurais Artificiais Paraconsistentes (RNAP’s) [8]. Para compô-las usa-se a Célula Artificial Paraconsistente básica (CAPb). ISSN 1809-0648 IV. CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE APRENDIZAGEM CNAPAP Uma Célula Neural Artificial Paraconsistente de aprendizagem - CNAPap é criada a partir da Célula Neural Artificial Paraconsistente básica [8]. Neste tipo de Célula de aprendizagem pode vir a ocorrer a ação do Operador NOT no processo de treinamento. Conforme visto em [7], a função do Operador NOT na Lógica Paraconsistente é fazer a negação lógica no sinal resultante de saída da Célula. Para um processo de treinamento, inicialmente considerase uma Célula Neural Artificial Paraconsistente de conexão analítica que não sofreu nenhum processo de aprendizagem. Conforme a análise paraconsistente, uma célula nestas condições tem as duas entradas com um valor Indefinido 13 Abril/Maio/Junho 2007 N.6 Ano 2 ISSN 1809-0648 Ed. Paralogike - Santos - SP Brasil ATC2 06/ 2007 dizemos que a Célula aprendeu o padrão de verdade. Portanto uma Célula Neural Artificial Paraconsistente pode aprender dois tipos de padrões: o padrão de Verdade ou o padrão de Falsidade. Ainda neste processo de aprendizagem da CNAPap é introduzido um fator de aprendizado (FA) que é ajustado externamente. Dependendo do valor de FA será proporcionado uma aprendizagem mais rápida ou mais lenta à CNAPap. No processo de aprendizagem considera-se uma equação para cálculos de valores de graus de crença resultantes sucessivos µr (k) até chegar ao valor 1. Portanto para um valor de grau de crença µr (k) inicial, são obtidos valores µr (k+1) até que µr (k+1) =1 Considerando um processo de aprendizagem do padrão de verdade a equação EEB - Equação Estrutural Básica de aprendizagem é obtida através de: igual a 1/2, portanto a equação da análise paraconsistente chamada Equação estrutural Básica EEB [8] determina que a saída também é uma indefinição com valor 1/2. A figura 3 mostra os valores de entrada e saída com os fatores de tolerância ajustados para não influírem no resultado final de uma CNAP virgem, que está pronta para aprender padrões. µr (k+1) = [µ1 - (µr (k)C) FA ] + 1 2 onde: µr (k)C = 1- µr (k) sendo 0 ≤ FA ≤ 1 E para um processo de aprendizagem do padrão de Falsidade a EEB fica: µr (k+1) = [µ1c - (µr (k)C) FA ] + 1 2 Fig 3 - Célula Neural Artificial Paraconsistente pronta para receber padrões. onde: µ1c = 1- µ1 sendo V. APRENDIZAGEM DE UMA CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE APRENDIZAGEM Considera-se a Célula completamente treinada quando: µr (k+1) = 1. As células de aprendizagem podem ser utilizadas em Redes Neurais Paraconsistentes como unidades de memórias e sensores de padrões em camadas primárias. Por exemplo, uma CNAPa pode ser treinada para aprender um padrão utilizando o método de análise paraconsistente aplicado através de um algoritmo. Para o treinamento de uma célula Neural Paraconsistente podem ser utilizados como padrões valores reais entre 0 e 1. As células também podem ser treinadas para reconhecer valores 0 ou 1 e, por analogia considerar estas células primárias com neurônios fotoreceptores da visão humana denominados de cones e bastonetes. Neste trabalho vamos demonstrar a aprendizagem das células com valores extremos 0 ou 1 compondo assim as células sensoriais primárias. Fica definido, portanto, que em uma Rede Neural Paraconsistente, as células sensoriais primárias consideram como padrão, um dígito binário onde, o valor 1 é equivalente ao estado lógico “Verdadeiro” e o valor 0 é equivalente ao estado lógico “Falso”. Aparecendo na entrada o valor 0 repetidas vezes, o grau de crença resultante da análise vai aumentando gradativamente na saída até chegar ao valor 1. Nestas condições dizemos que a Célula aprendeu o padrão de falsidade. O mesmo procedimento é adotado se for aplicado repetida vezes na entrada da Célula o valor 1. Quando o grau de crença resultante na saída da Célula chegar ao valor 1 ISSN 1809-0648 0 ≤ FA ≤ 1 O fator de aprendizagem FA é um valor real, igual ou maior que 0, atribuído arbitrariamente por ajustes externos onde, quanto maior o seu valor maior é a rapidez de aprendizado da Célula. Se FA=1 dizemos que a célula tem uma capacidade natural de aprendizagem [8]. Esta capacidade natural vai diminuindo a medida que o ajuste de FA se aproxima de 0. Quando FA= 0 a célula perde a capacidade de aprender e o grau de crença resultante sempre terá o valor da Indefinição ½ [8]. Conforme [8] a aprendizagem de uma CNAPap é feita através de um treinamento que consiste em aplicar um padrão na entrada do sinal de grau de crença sucessivamente até que as contradições diminuam e seja obtido na saída um grau de crença resultante igual a 1. O algoritmo de aprendizagem consiste em fazer a Célula Neural Artificial Paraconsistente ser condicionada para que ao final do treinamento reconheça o padrão apresentado como grau de crença na entrada. O algoritmo que elabora a aprendizagem do padrão de verdade é mostrado a seguir: VI. ALGORITMO DE APRENDIZAGEM DA CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE CNAPAP 1- Início: µr = 1/2 */Célula virgem */ 14 Abril/Maio/Junho 2007 N.6 Ano 2 ISSN 1809-0648 2- Defina: FA= C1 onde 0 ≤ C1 ≤ 1 */ Entra com o valor do Fator de aprendizagem */ 3- Faça : µ2 = µr */ Conecta a saída da célula na entrada do grau de descrença */ 4- Faça: µ2c =1 - µ2 */ Aplica o Operador Complemento no valor aplicado na entrada do grau de descrença */ 5- Faça: µ1 = 1 */Aplica o padrão de Verdade */ 6- Faça: Gc= µ1 -µ2c */ Calcula o Grau de crença*/ 7- Faça: µr = {(Gc × C1 ) +1} ÷ 2 */ Encontra o grau de crença resultante da saída pela equação da análise paraconsistente */ 8- Se µr ≠ 1 retorne ao passo 3 9- Pare VIII. CONCLUSÃO Neste trabalho foram estudadas algumas características de um algoritmo originado do método de interpretação da Lógica Paraconsistente Anotada de anotação com dois valores - LPA2v. O algoritmo extraído da Lógica Paraconsistente representa o que denominamos de Célula Neural Artificial Paraconsistente de Aprendizagem CNAPap. Verificou-se que uma CNAPap ao passar por um treinamento é capaz de aprender um padrão depois que o mesmo for aplicado determinada número de vezes em sua entrada. Os resultados e as características de processamento da CNAPap nos leva a comparar o seu funcionamento com os já conhecidos de um neurônio biológico. Com os resultados obtidos nos treinamentos de uma CNAPap, acreditamos que se abre um amplo campo de pesquisa para aplicação desta técnica em áreas de IA que tratam de simulações do comportamento do cérebro humano. VII. RESULTADOS PRÁTICOS Os gráficos abaixo apresentam o resultado do aprendizado de uma Célula Neural Artificial Paraconsistente utilizando o algoritmo de aprendizagem exposto neste trabalho quando na aplicação de um padrão na forma de uma função aplicado na entrada, do tipo senoidal : IX. BIBLIOGRAFIA [1] J.M. Abe and J.I. Da Silva Filho, Inconsistency and Electronic Circuits, Proceedings of The International ICSC Symposium on Engineering of Intelligent Systems (EIS’98), Volume 3, Artificial Intelligence, Editor: E. Alpaydin, ICSC Academic Press International Computer Science Conventions Canada/Switzerland, ISBN 3906454-12-6, 191-197, 1998. [2] C.M. Bishop Neural Networks for Pattern Recognition. 1.ed. Oxford University Press, 1995. [3] CIGRE, Pratical use of expert systems in planning and operation of power systems, TF 38.06.03, Électra, n.146, pp30-67, fevereiro 1993 [4] N.C.A. Da Costa and J.M. Abe, Aspectos Sobre Aplicações dos Sistemas Paraconsistentes, Atas do I Congresso de Lógica Aplicada à Tecnologia – LAPTEC’2000, Editôra Plêiade, São Paulo, SP – Brasil, Editor: J.M. Abe, ISBN 85-85795-29-8, 559-571, 2000. [5] N.C.A. Da Costa,., J.M. Abe and V.S. Subrahmanian, Remarks on annotated logic, Zeitschrift f. math. Logik und Grundlagen d. Math. 37, Vol.37, pp 561-570, 1991. [6] J.I. Da Silva Filho Implementação de circuitos lógicos fundamentados em uma classe de Lógicas Paraconsistentes Anotadas, in Portuguese, Master thesis, University of São Paulo, FFLCH/USP - São Paulo, 1997. [7] J.I. Da Silva Filho Métodos de interpretação da Lógica Paraconsistente Anotada com anotação com dois valores LPA2v com construção de Algoritmo e implementação de Circuitos Eletrônicos, in portuguese Ph D thesis, University of São Paulo, POLI/USP - São Paulo, 1999. [8] J.I. Da Silva Filho and J.M. ABE, Fundamentos das Redes Neurais Artificiais - destacando aplicações em Neurocomputação. 1.ed. São Paulo, Editora Villipress, Brazil 2001. sinal[ 30 ] = (Sen ( (i x Pi) / 180 ) Aplicando a equação de aprendizagem da CNAP-Ap sendo a entrada uma função fica: sinal[ i ] = (Sen ( (i x Pi) / 180 ) + 1) / 2 O gráfico mostrado na figura 4 apresenta o padrão versus o número de passos para aprendizagem de uma Célula Neural Artificial Paraconsistente. É visto que a célula aprendeu a função aplicada como padrão de entrada depois de 30 passos. Fig 4- Curva do padrão de aprendizagem e números de aplicações. ISSN 1809-0648 Ed. Paralogike - Santos - SP Brasil ATC2 06/ 2007 15 Abril/Maio/Junho 2007 N.6 Ano 2 ISSN 1809-0648 Ed. Paralogike - Santos - SP Brasil ATC2 06/ 2007 [11] H.G.Martins, A Lógica Paraconsistente Anotada de Quatro Valores-LPA4v Aplicada em um Sistema de Raciocínio Baseado em Casos para o Restabelecimento de Subestações Elétricas – UNIFEI – Ph.D Thesis Itajubá,MG, 2003. [9] L.F.P. Ferrara, Redes Neurais Artificiais Aplicada em um Reconhecedor de Caracteres Dissertação de MestradoUFU, Uberlândia-MG, 2003. [10] M.C.Mario, Proposta de Aplicação das Redes Neurais Artificiais Paraconsistentes como Classificador de Sinais utilizando Aproximação Funcional - Dissertação de Mestrado-UFU, Uberlândia-MG, 2003. Maurício Conceição Mário Graduado em Engenharia Elétrica pela FEI - Faculdade de Engenharia Elétrica de São Bernardo do Campo - SP obteve o título de Mestre em processamento da Informação pela Universidade Federal de Uberlândia – UFU em Minas Gerais e doutorou-se em Ciências pela Faculdade de Medicina da Universidade de São Paulo - FMUSP. Atualmente é professor da Universidade Santa Cecília UNISANTA - em Santos SP e também pesquisador em Inteligência Artificial onde integra o Grupo de Pesquisa GLPA - Grupo de Lógica Paraconsistente Aplicada. Luís Fernando Pompeo Ferrara Graduado em Engenharia Civil e Processamento de Dados pela Universidade Presbiteriana Mackenzie. Obteve o título de Mestre em Engenharia Elétrica com ênfase em Processamento da Informação pela Universidade Federal de Uberlândia - UFU em Minas Gerais. Atualmente é Professor da Universidade Santa Cecília UNISANTA – em Santos-SP e integrante do GLPA – Grupo de Lógica Paraconsistente Aplicada onde faz pesquisas de aplicações das Lógicas NãoClássicas em Sistemas de automação e Controle. João Inácio da Silva Filho É Coordenador do GLPA- Grupo de Lógica Paraconsistente Aplicada e membro do Grupo de Lógica e Teoria da Ciência do IEA- Instituto de Estudos Avançados da USP. O Professor Da Silva Filho, J. I doutorou-se em Engenharia Elétrica pela POLI/USP na área de Sistemas Digitais, e fez mestrado em Microeletrônica pela mesma Instituição. Criador do primeiro Robô a funcionar com Controlador lógico Paraconsistente (Robô Emmy), atualmente se dedica as pesquisas sobre aplicações das Redes Neurais Artificiais Paraconsistentes em Sistemas Especialistas e Robótica. ISSN 1809-0648 16 Abril/Maio/Junho 2007