UNIVERSIDADE DO ESTADO DO RIO DE JANEIRO INSTITUTO DE MEDICINA SOCIAL COMPUTADORES NÃO TÊM CORPO Os problemas iniciais da Inteligência Artificial e a noção fenomenológica de corporeidade Paulo Afonso da Rosa Santos Filho Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Saúde Coletiva, Curso de Pós-graduação em Saúde Coletiva – área de concentração em Ciências Humanas e Saúde do Instituto de Medicina Social da Universidade do Estado do Rio de Janeiro Orientador: Francisco Javier Guerrero Ortega Rio de Janeiro Fevereiro de 2005 Agradecimentos Aos meus pais, que tornaram isto tudo possível; À Luciana, minha futura esposa, pelo amor e pelas minuciosas revisões; Ao meu irmão Luciano, por me manter a par sobre o que os computadores podem de fato fazer; Ao meu orientador Francisco Ortega, por ter prontamente aceitado orientar-me, e por todo o auxílio durante a confecção deste trabalho; A Eduardo Passos, por ter gentilmente ajudado durante a pesquisa, fornecendo-me material de importância substancial para esta dissertação; A Benilton, com quem muito aprendi em suas claras e elucidativas aulas; A João Rezende, que, muito mais que um professor, sempre foi um grande amigo, ensinando-me, sem perceber, quase tudo o que sei sobre filosofia; A Roberto Novaes, quem me iniciou no caminho da fenomenologia, e foi sempre um amigável ouvinte às minhas dúvidas e inquietações; Aos meus colegas de curso, por trazerem leveza ao processo de desenvolvimento deste trabalho. Sumário Resumo..........................................................................................................................4 Introdução......................................................................................................................6 1. O nascimento das máquinas inteligentes........................................................8 1.1 Cibernética................................................................................................................13 1.2 Inteligência Artificial................................................................................................19 2. O que os computadores não podem fazer.....................................................29 2.1 Ciências Cognitivas...................................................................................................29 2.2 Críticas à razão artificial............................................................................................33 2.3 A breve história do solucionador de problemas gerais..............................................39 2.4 O desempenho dos computadores em jogos de xadrez.............................................42 2.5 O teste de Turing.......................................................................................................46 2.6 O quarto chinês de John Searle.................................................................................48 2.7 Processamento de informação semântica..................................................................49 3. Duas formas de conhecer o homem e o mundo: a ciência e seus modelos, a fenomenologia e o ser-no-mundo..................................................................54 3.1 Os modelos na ciência...............................................................................................55 3.2 Os quatro pressupostos fundamentais da inteligência artificial.................................61 3.2.1 O pressuposto biológico......................................................................................61 3.2.2 O pressuposto psicológico ..................................................................................63 3.2.3 O pressuposto epistemológico.............................................................................66 3.2.4 O pressuposto ontológico ...................................................................................68 3.3 Heidegger e o ser-no-mundo-com-os-outros.............................................................68 3.4 Merleau-Ponty e a reflexão sobre o irrefletido..........................................................70 3.4.1 A corporeidade....................................................................................................73 4. O corpo.....................................................................................................................77 4.1 O resgate de uma noção problemática de corpo........................................................81 4.2 O ser-no-mundo como agente incorporado...............................................................83 4.2.1 Percepção como ação no mundo.........................................................................84 4.3 A abordagem atuacionista.........................................................................................88 4.4 Os andróides..............................................................................................................91 Considerações Finais................................................................................................94 Referências Bibliográficas.......................................................................................98 Resumo SANTOS Fº, Paulo Afonso. ORTEGA, Francisco Javier. Computadores não têm corpo - os problemas iniciais da Inteligência Artificial e a noção fenomenológica de corporeidade. Rio de Janeiro, 2005. 100p. Dissertação de Mestrado – Instituto de Medicina Social, Universidade do Estado do Rio de Janeiro. A partir de uma análise sobre alguns dos projetos desenvolvidos na área da Inteligência Artificial até a década de 1980, verificamos uma grande distância entre o que os computadores eram realmente capazes de fazer e o ideal de construir autômatos aptos a apresentar um comportamento inteligente semelhante ao dos humanos. Uma avaliação dos pressupostos que embasavam as pesquisas na área das ciências cognitivas demonstra que as hipóteses de que a inteligência se constitui de uma computação de símbolos, e de que o homem nada mais é que uma máquina complexa, foram tomadas por axiomas e acabaram por pavimentar o solo teórico dos primeiros projetos na área da inteligência artificial. Com a fenomenologia temos uma compreensão e uma concepção diferente sobre o homem, o mundo e o conhecimento. Para Merleau-Ponty, devemos partir de nossa condição inicial, a de estar no mundo em um corpo, para compreender o conhecimento como algo que é inventado pelos homens na tentativa de conhecer a si, aos outros e ao universo. Além disto, somos seres dotados de uma corporeidade, que nos impõe um modo de estar no mundo do qual não temos consciência plena, e que insiste em escapar do conhecimento modular científico. Parece haver, portanto, uma certa dose de humanidade que resiste à explicação formal que, conseqüentemente, não pode ser estruturada em um algoritmo. Seria preciso simular não apenas a mente, mas a corporeidade humana em sua relação pré-consciente com o mundo, e muito mais, para dotar máquinas de uma inteligência geral semelhante à nossa. Palavras-chave Inteligência Artificial; corporeidade; fenomenologia; Abstract SANTOS Fº, Paulo Afonso. ORTEGA, Francisco Javier. Computers are not embodied – the early Artificial Intelligence problems and the phenomenological embodiment notion. Rio de Janeiro, 2005. 100p. Masters Degree Dissertation – Instituto de Medicina Social, Universidade do Estado do Rio de Janeiro. Reviewing the early Artificial Intelligence problems until 1980, one can see a big distance between what computers really could do and what men dreamt about building robots able to perform intelligent behavior as a human can do. Through the analysis of the theoretical concepts beneath research in cognitive science becomes clear that the hypothesis of the intelligence as a symbolic computation, and that of man is a complex machine where made axioms that are the basis of investigations in artificial intelligence. From a phenomenological point of view it is possible to have a different understanding about man, world and knowledge. Merleau-Ponty says we must start from our first condition, that of being embodied, to understand knowledge as a tool made by men aiming to know themselves, the others and the universe. We are embodied beings, and this means a way to be in the world, of which we are not completely aware of, and which insists to escape from a scientific modulation. So it seems to be some kind of human attribute that resists to a formal explanation, and can’t be expressed in an algorithm. It would be necessary to simulate not only mind, but human embodiment in its pre-conscious coping, and much more, to make machines able to become as intelligent as human beings. Keywords Artificial Intelligence; embodiment; phenomenology. Introdução Na década de 1950 nascia a inteligência artificial (IA), concretizando uma pequena parte do sonho de se ter, entre os homens, máquinas capazes de apresentar um comportamento inteligente. Para que fosse possível construir computadores e sistemas inteligentes, fazia-se necessário um conhecimento profundo da inteligência humana – já que esta servia de modelo para as pesquisas na área da IA. Logo de início ficou claro que esta era uma tarefa nada simples, devido à complexidade da “máquina humana”. Hubert Dreyfus encarregou-se de avaliar o desempenho dos primeiros softwares, construídos pelos pesquisadores da inteligência artificial até o final da década de 1970; entre outras tarefas, Dreyfus propôs-se a discutir os pressupostos que embasavam as pesquisas na área, e ressaltar o papel do corpo nos fenômenos mentais. Aproveitaremos a ponte feita por Dreyfus, entre a inteligência artificial e a fenomenologia, para debater sobre os pressupostos teóricos que fundamentavam o estudo científico dos fenômenos mentais, em contraponto com a concepção de corporeidade trabalhada por Merleau-Ponty e outros autores que escrevem a partir da abordagem fenomenológica. O objetivo principal do presente trabalho se constitui, então, de uma análise dos impasses encontrados nos primeiros projetos de pesquisa na área da inteligência artificial, apontando à contribuição que a noção fenomenológica de corporeidade pode fornecer para a compreensão do homem como um ser-no-mundo. É justamente a ausência desta noção no campo das ciências cognitivas, em especial nos projetos em IA, que fornecemos como uma possível justificativa para os primeiros problemas encontrados nas tentativas de se simular artificialmente a inteligência humana. Iniciaremos nossa pesquisa com um breve histórico das máquinas de calcular. Elas nos levarão até às discussões cibernéticas, onde a possibilidade de se compreender matematicamente o psiquismo gerou um tumulto teórico e abriu caminho para diversas possibilidades de compreensão do cérebro e da mente. Chegaremos nos primeiros softwares inteligentes, capazes de solucionar, em alguns segundos, alguns problemas lógico-matemáticos que adultos levariam minutos para resolver. No segundo capítulo traremos inicialmente uma visão resumida do campo das ciências cognitivas, apresentando as concepções acerca da cognição humana que embasavam as pesquisas na área da inteligência artificial. Passaremos às considerações de Hubert Dreyfus, filósofo que se encarregou de avaliar estas pesquisas e apresentar seus pontos falhos. Discutiremos sobre os solucionadores de problemas gerais, a participação de computadores em jogos de xadrez, e sobre a possibilidade das máquinas pensarem e compreenderem. Começamos o terceiro capítulo com uma retomada da discussão, a partir da análise de Dreyfus sobre os pressupostos fundamentais da inteligência artificial. Após versar um pouco sobre o papel dos modelos nos estudos científicos, utilizaremos a fenomenologia de Heidegger e Merleau-Ponty para fazer um contraponto e apresentar um outro modo de compreender o homem, o mundo e o conhecimento. Veremos que o modelo computacional é apenas uma maneira de compreender o pensamento, que resulta do esforço dos homens da ciência de explicar o funcionamento de sua própria natureza. Toda forma de conhecimento se constituirá sempre como um ponto de vista, um paradigma, que nunca esgotará as possibilidades de sentido de qualquer objeto que seja. A inteligência, a percepção e o pensamento são anteriores a qualquer explicação, e por isto sempre terão algo a esconder de qualquer método de investigação. E uma vez que não há homem sem um corpo, Merleau-Ponty nos mostra que não podemos descartar este que é o ancoradouro do homem no mundo, seu veículo no espaço, para a compreensão de qualquer fenômeno subjetivo. Finalizaremos nossa discussão apresentando, no quarto e último capítulo, uma noção de corpo diferente da que é predominante no ramo científico. Traremos algumas afirmações que situam o homem como um agente incorporado, que atua perceptivamente no mundo, constituindo-o de sentido. Apresentaremos também a abordagem atuacionista, que expressa um avanço no campo das ciências cognitivas com relação à compreensão da percepção humana. Finalmente, concluiremos esta dissertação com algumas considerações sobre o sonho de se ter um dia andróides inteligentes convivendo conosco. 1 O nascimento das máquinas inteligentes Por muito tempo utilizou-se um aparato, inventado pelos orientais, chamado ábaco1, que se constituía de um quadro dotado de contas que deslizavam sobre eixos, através do qual se realizavam cálculos matemáticos. Bastante simples e arcaico, o ábaco já era uma “máquina” de calcular. Mas somente ao final do século XVII é que teríamos, com o filósofo e matemático Blaise Pascal, a invenção da primeira “calculadora mecânica” capaz de efetuar as 4 operações básicas. A máquina de Pascal era, de acordo com Eduardo Passos2 composta de rodas dentadas cuja articulação permitia a totalização de quantidades, e através de suas engrenagens era possível verificar cálculos aritméticos3. Na segunda metade do século XIX Charles Babbage, matemático de Cambridge, dedicaria muito tempo e dinheiro à empresa de criar uma calculadora automática de mesa capaz de realizar complicadas operações aritméticas necessárias para a navegação e para a balística. Segundo Howard Gardner4, a máquina de Babbage tinha custos elevadíssimos, uma vez que era composta por um grande número de pequenas peças de precisão. Inicialmente financiado pelo governo britânico, e depois por uma condessa chamada Lady Lovelace, Babbage chegou ao projeto de sua “máquina analítica”, capaz de abordar qualquer problema aritmético através do uso de cartões perfurados que informavam à máquina qual tarefa realizar5. 1 Informações obtidas no curso de “Introdução à Informática”, em 1995, da Faculdade de Informática da PUC-RS. Não possuímos referências precisas sobre o ábaco, mas temos certeza, entretanto, de sua existência e função. 2 Passos, 1992, p.209. 3 Alguns autores se propuseram a organizar uma história das ciências cognitivas e dos computadores, dos quais Howard Gardner (1987) é um exemplo. Estamos atentos, e de acordo com Passos (1992, p.208), de que a história do desenvolvimento das máquinas de computação não se deu através de evolução linear, e que não há um ponto preciso para sua emergência. Buscando introduzir o tema ao leitor, e conduzí-los às questões de nosso interesse, selecionaremos algumas construções teóricas e técnicas que contribuíram para o nascimento dos computadores. 4 Gardner, 1987, p.162. 5 É interessante notar que este mesmo método, criado há mais de um século – e que parece bastante arcaico se comparado com os disquetes, HD’s, CD’s e DVD’s que utilizamos hoje para inserir e armazenar dados –, foi largamente utilizado, ainda na década de 1980, para inserir dados nos computadores. Contemporâneo a Babbage, o matemático inglês George Boole se empenhava em uma tarefa bastante pretensiosa: discernir as leis básicas do pensamento, embasando-as na lógica. Gardner explica que: a fim de eliminar as ambigüidades próprias da linguagem natural que haviam dominado a lógica desde a época em que Aristóteles estudou o silogismo, Boole empregou um conjunto de símbolos arbitrários (a, b, x, y, etc.) para representar os elementos que compõem o pensamento. (...) Estes elementos podiam combinar-se ou dissociar-se mediante operações de adição, subtração ou multiplicação, para formar novas expressões, ou concepções que incluiriam os mesmos elementos. E procedimentos deste tipo equivaleriam a um tipo de "álgebra mental", por meio da qual era possível raciocinar em termos abstratos não contaminados por alguma associação com conteúdos específicos. Boole chamou estas operações de "leis do pensamento" e observou algo de enorme importância para o futuro: esta lógica constituía um sistema de dois valores, verdadeirofalso. Qualquer enunciação lógica, seja qual for seu grau de complexidade, podia ser expressa mediante um 1 (que representava “todo” ou “verdadeiro”) ou um 0 (que representava “nada” ou “falso”). 6 Boole buscava eliminar a ambigüidade da lógica, fundamentando-a, para isso, na matemática – e assim ele fundava o que viria ser chamado posteriormente de “álgebra booleana”. Conseguindo reduzir qualquer enunciação lógica a combinações de 1 e 0 (“Sim” e “Não”, ou “Verdadeiro” e “Falso”), mais do que encontrar as “leis do pensamento” – seu pretensioso projeto – Boole chegou à lei que rege até hoje a representação e a análise dos circuitos digitais. A álgebra booleana é usada atualmente para representar matematicamente circuitos eletrônicos, permitindo analisar o comportamento destes circuitos e simplificá-los para que se possa construí-los da forma mais barata possível7. O bit, que é a menor unidade de informação dos computadores digitais, pode assumir apenas dois valores: 0 ou 1. Assim, de natureza binária, os bits são regidos pela álgebra booleana, e constituem o nível mais fundamental da informação que é processada por nossos computadores. Teremos oportunidade de falar mais sobre o bit posteriormente. Boole buscava, no início do século XIX, uma comprovação para sua hipótese de que raciocinar era o mesmo que calcular – o que o levou a, segundo Dreyfus, “investigar as leis fundamentais daquelas operações da mente pelas quais se processa o raciocínio, para dar-lhes expressão na linguagem simbólica de um Cálculo”8. E o resultado foi o 6 Ibidem, p.163 . Tradução minha. De acordo com anotações feitas por mim no curso de “Organização de Computadores”, na Faculdade de Informática da PUCRS, em 7 de março de 1996. 8 Boole apud Dreyfus, 1999, p.70. 7 estabelecimento de uma álgebra de tipo binário para a representação de funções elementares lógicas. Consideremos “a” como uma variável que pode assumir apenas dois valores: 0 ou 1 (representando “falso” e “verdadeiro” respectivamente); “e” representa “.” (multiplicação), e “ou” representa “+“. Temos, então, o seguinte: a+a=a a+0=a a+1=1 a.a =a a.0=0 a.1=a Estavam esboçados, para Boole, os princípios lógicos do pensamento. Falaremos ainda neste capítulo sobre o programa Teórico Lógico, desenvolvido em 1956 pela equipe de Newell e Simon, capaz de demonstrar um bom número de teoremas do Principia Mathematica de Alfred North Whitehead e Bertrand Russell. O objetivo destes dois estudiosos com os Principia era de demonstrar efetivamente que a matemática tem suas raízes na lógica. Para tal empresa, de acordo com Gardner, apoiaram-se em grande medida no formalismo booleano, chegando a declarar que “a matemática pura foi descoberta por Boole em uma obra a que denominou “as leis do pensamento”.9 Os cartões perfurados de Babbage representavam de forma prática a teoria que nascia àquela época. Para que fique mais clara a relação, imaginemos o seguinte: se pudermos construir uma máquina capaz de considerar um cartão como uma matriz de dados, ou seja, ler e representar cada centímetro quadrado como um dado que pode estar ligado ou desligado, cada pedaço que estivesse furado equivaleria a “1”, e se não estivesse furado, seria igual a “0”. Por exemplo, se o cartão tivesse 8 centímetros de largura por 8 centímetros de altura, então ele seria representado como uma matriz de 8 x 8, tendo 64 unidades (dígitos). Cada unidade estaria furada ou intacta, equivalendo a 1 ou a 0 respectivamente. E com a álgebra de Boole temos a fórmula para o tratamento destes dígitos, podendo instruir a máquina a realizar determinadas operações e registrá-las em um outro cartão, furando-o nos pedaços correspondentes – ou então marcando o resultado através do movimento de suas engrenagens mecânicas10. A máquina analítica de Babbage nunca passou de um projeto, pois não chegou a ser de fato construída. Dreyfus coloca que suas idéias eram muito avançadas para a tecnologia de sua época que ainda não fornecia um modo rápido e eficiente de representar e manipular os dígitos binários. Somente mais tarde é que teríamos computadores compostos por tubos de vácuo, onde as conexões mecânicas envolveriam o menor número de elementos 9 Russell apud Gardner, 1987, p.163. Tradução minha. O exemplo que fornecemos tem caráter apenas ilustrativo. Apesar de sabermos que na década de 1980 os cartões eram lidos e perfurados a partir deste modelo, não podemos afirmar que já no século XIX Babbage fazia deles o mesmo uso. 10 materiais possível. Entretanto, um grande passo fora dado por Babbage, e seu dispendioso trabalho traria interessantes frutos em um futuro próximo. O conjunto das idéias sobre as máquinas de calcular de Babbage, das leis do pensamento de Boole e das contundentes demonstrações de Whitehead e Russell, como avalia Gardner, foram uma riquíssima fonte para os estudiosos das décadas de 1930 e 1940 – responsáveis pelo desenho dos primeiros computadores e dos primeiros programas que apresentavam o que poderia ser chamado de inteligência. Vimos que Boole instituíra regras lógicas para a regência do pensamento, e que Babbage projetara um aparato mecânico capaz de efetuar cálculos a partir de instruções dadas pelo homem; mas foi Alan Turing, um matemático Inglês, quem deu vida a uma máquina capaz de calcular e de simular o pensamento lógico. Turing estava na década de 1930, mais precisamente no período de 1936 e 1937, em busca de um algoritmo geral para a resolução dos problemas matemáticos. Um algoritmo é, de acordo com Passos, uma descrição completa e estruturada dos procedimentos necessários para se chegar à resposta de um problema a partir de um número finito de passos. Das inúmeras alternativas de descrição deste conceito, a mais direta e persuasiva foi a que ficou conhecida como a Máquina de Turing – um procedimento mecânico capaz de, em princípio, resolver todos os problemas matemáticos. “Essa noção de calculabilidade que se procurava cercar, na qual só entra a execução cega e “automática”, é manifestamente o funcionamento de uma máquina que lhe dá a imagem mais clara”11. Para Turing, qualquer função calculável que pudesse ser enunciada explicitamente era realizável por uma máquina, uma vez que esta possuísse um algoritmo – um conjunto finito e apropriado de instruções. A máquina de Turing era composta por uma fita ilimitada nos dois sentidos, dividida em casas, e cada uma comportando ou não uma marca (cada casa representava, portanto, um dígito binário); possuía um estado interno, que estava a qualquer momento suscetível de alteração; e uma cabeça capaz de ler a fita, escrever e apagar marcas, deslocar-se para a direita ou para a esquerda. O comportamento da máquina era regido pelas instruções contidas no algoritmo, e funcionava da seguinte forma: na entrada (input) estava o estado interno da máquina e o conteúdo da casa lida – que continha ou não uma marca. A partir desta configuração a saída (output) era efetuada: o estado interno poderia mudar, a marca da casa lida iria mudar ou permanecer a mesma, e a cabeça iria deslocar-se uma casa para um dos lados ou então permanecer imóvel. Certas configurações de entrada 11 Dupuy, 1996, p.30. forneciam à máquina a instrução de parar. O estado inicial da fita – a configuração de suas marcas – fornecia, segundo Dupuy, o argumento inteiro da função, e o estado da fita ao final do processamento representava o valor da função para o argumento inicial. Assim, a máquina de Turing era um exemplo concreto de uma calculadora aritmética. Até aqui vimos algumas tentativas de estabelecimento de dispositivos mecânicos para a realização de cálculos matemáticos e resolução de problemas da lógica. Mas um grande salto foi dado por Claude Shannon que, em 1938, no MIT, desenvolveu um esquema em que as idéias de Boole poderiam ser pensadas a partir de circuitos elétricos. Em um texto intitulado “Análise simbólica dos circuitos de relé e comutação” Shannon coloca que a lógica booleana poderia ser aplicada para a descrição dos estados de um sistema eletromecânico. Uma vez que os circuitos possuem apenas dois estados, estando “abertos” ou “fechados”, eles poderiam ser pensados como as duas possíveis atribuições de valor de verdade a uma proposição lógica – verdadeiro ou falso12. Ficava claro a partir de seu trabalho que a programação (ou a construção do algoritmo) de um computador (aparato que realiza cômputos – ou seja, cálculos) deveria ser concebida como um problema de lógica formal, e não como um problema aritmético – idéia proveniente dos trabalhos de Boole. Shannon lançava as bases para a construção de máquinas lógicas, inaugurando, também, a Teoria da Informação. Gardner coloca que Shannon estabeleceu a noção chave de que se pode conceber a informação de forma independente do conteúdo ou da matéria que a instancia: a parte lógica da unidade básica de informação, o bit13, é separável da instância física onde está situada. Recapitulando o que foi escrito até aqui, podemos verificar que a construção de máquinas capazes de calcular foi foco de diversos estudos e empreendimentos, e fruto de novas concepções acerca do funcionamento da mente humana. Muitos obstáculos para o aprimoramento destas máquinas foram decorrentes de limitações mecânicas e materiais; assim, com o advento das máquinas eletrônicas – os computadores – seria possível avançar a passos largos no desenvolvimento de uma razão artificial. A partir do momento em que uma máquina (de Turing) foi capaz de realizar cálculos lógicos, apresentando um comportamento “inteligente”, muitos começaram a refletir sobre a relação entre inteligência, homens e máquinas, para fundar, na década de 1940, um movimento chamado “cibernética”. 12 De acordo com Passos, 1992, p.213. Acrônimo de binary digit (dígito binário), e também representa “pedaço” na língua inglesa – podendo ser considerado, neste contexto, como um “pedaço de informação”. 13 1.1 Cibernética Além de aplicações teóricas, a matemática e a física fornecem fundamento para a composição e desenvolvimento de artifícios materiais, como dispositivos bélicos, por exemplo. Durante a segunda guerra mundial o brilhante matemático Norbert Wiener trabalhava no Instituto de Tecnologia de Massachusetts (MIT) no aprimoramento do sistema de defesa antiaérea dos Estados Unidos. Para acertar com um míssil um avião inimigo no ar, por exemplo, é preciso lançá-lo em direção ao ponto em que o avião estará em determinado instante futuro; ou seja, é preciso calcular e prever a posição futura do alvo para que o míssil possa atingí-lo. O objetivo de Wiener era o de aumentar o nível de precisão do sistema, preparando-o para ser eficiente nos casos em que o alvo alterasse sua velocidade ou direção – corrigindo, assim, sua posição com relação à meta. O que ocorreu a Wiener é que a performance dos mísseis melhoraria caso fossem dotados de um sistema de autoregulação, sendo assim capazes de ajustar sua direção com base em seu deslocamento prévio e o afastamento com relação ao alvo. É sabido, de acordo com Dupuy, que Wiener participava desde 1933 de um seminário da Faculdade de Medicina de Harvard, onde travava conhecimento sobre fisiologia com Arturo Rosenblueth. Suas discussões – acompanhadas por Julian Bigelow – os levaram a comparações entre o sistema de defesa antiaérea e os processos de ação no movimento voluntário de um humano. O resultado deste trabalho foi a publicação do artigo Behavior, Purpose and Teleology 14, que marcou, de acordo com Passos15, o advento de uma ciência chamada cibernética – que tinha como objetivo sistemas intencionais, de natureza orgânica ou mecânica. O sistema nervoso central não nos parece ser apenas um órgão autônomo que recebe dados de entrada (inputs) dos sentidos e os descarrega nos músculos. Pelo contrário, algumas de suas atividades mais características são somente explicáveis como processos circulares, que emanam do sistema nervoso em direção aos músculos e a ele reingressam através dos órgãos dos sentidos (quer se trate de proprioceptores ou de órgãos dos sentidos especiais). Isto nos parece marcar uma nova etapa no estudo daquela parte da neurofisiologia que se encarrega não só dos processos 14 Publicado, de acordo com Dupuy (1996, p.45), na revista Phylosophy of Science, número 1, volume 10. Wiener se interessava bastante por psicologia e fisiologia; Bigelow era um engenheiro e um grande colaborador das pesquisas de Wiener, e Rosenblueth era neurofisiólogo. 15 1992, p.200. elementares dos nervos e das sinapses mas do funcionamento do sistema nervoso como totalidade integrada.16 No lugar de uma concepção linear, onde há a entrada do estímulo, seu processamento pelo sistema nervoso central (SNC) e a saída motora, eles sugeriram uma concepção circular, onde o SNC envia comandos motores, recebe informações dos sentidos proprioceptores, e novamente envia comandos para os músculos. Quando este mecanismo circular de retroalimentação (feedback) está desregulado, o movimento se apresenta também desregulado – como no caso de uma pessoa que bebe cerveja demais e volta para casa cambaleando (sabemos que o álcool ingerido intoxica o cerebelo, interferindo em seu controle da motricidade). Para o aprimoramento da defesa antiaérea, os mísseis deveriam ter um mecanismo de feedback – concluíra Wiener. Os sistemas dotados de feedback, sejam eles mecânicos ou orgânicos, são classificados como sistemas intencionais – pois podem alterar sua conduta de acordo com informações que recebem do meio. Aqui temos um grande salto: diferente dos primeiros autômatos que desempenhavam comportamentos “cegos”, os sistemas intencionais são sensíveis à realidade externa e capazes de se orientar no meio a partir dessas informações, corrigindo sua conduta e sua direção à meta.17 Esta noção de comportamento difere da interpretação do behaviorismo radical, onde o comportamento (output) é resultado direto, como uma “ação cega”, de determinado estímulo (input). Para Skinner18 não importava o que se passava entre o estímulo e a resposta – na famosa “caixa preta” –, uma vez era possível construir uma psicologia baseada no par input-output19. Os estudos de Wiener e seus companheiros são exemplo do crescente interesse pelo conhecimento científico da caixa preta – neste lugar que está na interface entre o organismo e o meio. Passos coloca que, quando a caixa preta foi aberta 16 Wiener, 1961, p. 8, apud Gardner, 1987, p.36. Passos, 1992, p.200. 18 Para uma compreensão mais ampla sobre o behaviorismo de Skinner, cf. duas de suas obras: Sobre o Behaviorismo, São Paulo, Cultrix, 1974; e Ciência e Comportamento Humano, São Paulo, Martins Fontes, 1967. 19 Segundo Dupuy (1996, p.51) esta diferença, contudo, deve ser relativizada. Rosenblueth, ao discutir acerca da comunicação com Herbert Birch, acusa-o de apelar a noções mentalistas e carentes de sentido, tais como inteligência, consciência, memória, aprendizagem, antecipação e intencionalidade. Para Rosenblueth estas noções se remetem ao que passa na mente humana e não podem ser objeto de medição; o único contato possível entre duas pessoas passa pelo comportamento, que é a única coisa possível de se ver e de julgar. Assim, aponta Dupuy, a cibernética de Wiener e Rosenblueth tem caráter não-mentalista, e neste ponto é semelhante ao behaviorismo de Skinner. Porém, mesmo com esta ressalva de Dupuy, é fato que Wiener abrira definitivamente a caixa-preta, surpreendendo a assepsia teórica behaviorista inaugurada por Watson e sistematizada por Skinner. 17 para que fosse revelado o processo mental, o que se encontrou lá foram justamente os símbolos: entidades físicas dispostas em série e submetidas a um princípio de organização. A noção de símbolo terá importância fundamental para os cibernéticos em sua compreensão do psiquismo, e para a construção das máquinas da Inteligência Artificial. Para Turing, raciocinar era o mesmo que calcular, computar; e para completar a metáfora, dirão os cibernéticos que o pensamento é uma computação de símbolos. Dotados de um triplo modo de existência, como escreve Dupuy, os símbolos são (1) materiais e sujeitos às leis da física (encarnados na neurofisiologia, mas, de acordo com as hipóteses correntes, a neurologia podia ser reduzida à física); (2) têm uma forma, e são regidos por regras sintáticas; e (3) são dotados de sentido, tendo um valor semântico. Portanto o que se passava entre a periferia sensória e a resposta motora era justamente o processamento de símbolos físicos semânticos. E assim era possível encontrar uma equivalência entre o funcionamento e a organização da mente e de um sistema artificial, como o que rege a trajetória de um míssil. O comportamento intencional, que parecia pertencer apenas aos vivos, teve seu fundamento desvendado e poderia ser programado em uma máquina. Compartilhando das aspirações teóricas de seus contemporâneos, o neuropsiquiatra Warren McCulloch e o matemático e especialista em lógica Walter Pitts esboçaram em 1943 (mesmo ano da publicação do artigo de Wiener ao qual nos referimos) um modelo para este processamento de símbolos na mente humana. Buscando, de acordo com a análise de Dupuy, conhecer através de um processo legitimamente científico os mecanismos materiais e lógicos que encarnavam a mente, os dois chegaram à seguinte hipótese: os neurônios transformam inputs em outputs através de operadores lógicos. As células nervosas, que formam redes, estão ligadas umas as outras através dos dentritos. O impulso elétrico é transmitido via sinapse, que ocorre caso o limiar de excitação do neurônio tenha sido atingido. Em outras palavras, a descarga sináptica irá ocorrer nos casos em que o limiar de excitação tenha sido atingido; caso contrário, a sinapse não ocorre (princípio do “tudo” ou “nada”). Atribuindo o valor 1 (ou verdadeiro) para quando ocorre a sinapse e 0 (ou falso) para quando não ocorre, temos o que é preciso para o uso da álgebra booleana na interpretação da rede neural e para representá-la como uma expressão lógica. Assim, uma máquina composta por circuitos eletrônicos e a mente humana são semelhantes com relação ao seu funcionamento. Aliás, McCulloch vai mais longe nesta comparação, chegando a afirmar que não há diferença: “quanto mais aprendemos sobre os organismos, mais somos levados a concluir que eles não são simplesmente análogos às máquinas, mas são máquinas”20. McCulloch concebia uma máquina como qualquer ser lógico-matemático encarnado na matéria do organismo, e por isto a mente, sendo de natureza lógico-matemática, era também uma máquina. A assimilação da mente humana a uma máquina lógica já havia sido anunciada por Turing, quando este falava de sua máquina e a comparava às faculdades mentais. McCulloch e Pitts avançam com as comparações e afirmam que não só o cérebro em sua função (mente), mas também o cérebro em sua estrutura – o cérebro material, biológico e natural – é assimilável a um mecanismo, a uma máquina de Turing. Portanto, nos termos de McCulloch, cérebro e mente são uma só coisa: uma máquina. E é assim que o autor julga resolver o velho problema do corpo e da mente, ou, nos seus próprios termos, do “embodiment of mind” 21. E já que McCulloch lançou mão desta expressão, aproveitamos a oportunidade para adiantar que ela será bastante discutida nos dois últimos capítulos do presente trabalho, onde traremos outras concepções para os termos embodiment e mind. O objetivo maior de McCulloch era de fazer a psicologia escapar de seu caráter especulativo, transformando-a numa “epistemologia experimental”. Abstraindo um modelo lógico de funcionamento do sistema nervoso central, pensava McCulloch, seria possível reconstruí-lo em outro meio material. Neste mesmo fecundo ano de 1943, é iniciada a construção da primeira calculadora eletrônica ultra-rápida, capaz de realizar as quatro operações básicas: o ENIAC. De tamanho gigantesco, se compararmos com nossos PC’s de hoje em dia, o ENIAC foi concebido sem que fosse feita uma distinção entre o equipamento (hardware) e o programa (software). De acordo com Dupuy, foi John von Neumann quem formulou a idéia de que a concepção lógica da máquina de calcular é distinguível da concepção de seus circuitos: apesar de estar sempre instanciada em um mecanismo material, a parte lógica pode ser trabalhada sem que se altere a estrutura física da máquina. Dupuy sugere também que von Neumann obteve esta idéia a partir da leitura do artigo de McCulloch e Pitts – ao qual já fizemos referência. Von Neumann observa o ENIAC e abstrai dele, assim como McCulloch e Pitts fizeram com o cérebro biológico, uma máquina lógica. A máquina concebida por von Neumann viria a se chamar EDVAC, e funcionaria de maneira seqüencial, diferente da ENIAC e da máquina “cerebral” de McCulloch. Uma vez que os neurônios são extremamente numerosos e que funcionam lentamente, um processamento paralelo se faz necessário para que o processo de informação possa ser 20 21 McCulloch apud Dupuy, 1996, p.53. Grifos no original. Dupuy, 1996, p.59. otimizado. Mas, ainda de acordo com Dupuy, o caso dos autômatos artificiais é diferente: os componentes de uma calculadora artificial são pouco numerosos e alcançam grandes velocidades, e por isto são montados em série. Von Neumann criara, assim, a arquitetura básica dos computadores atuais: a máquina em que escrevo agora este texto, por exemplo, funciona exatamente de acordo com o que este matemático projetara na década de 1940. Com o desenvolvimento das válvulas eletrônicas – tubos de vácuo que amplificavam baixos níveis de energia –, as conexões mecânicas consistiam no menor número possível de elementos, diminuindo a fricção nos dispositivos empregados e fornecendo um processamento o menos “material” possível. Essa mecânica, que tende à “desmaterialização”, oferece ao instrumento de cálculo um caráter cada vez mais parecido com a operação simbólica que ele simula22. As limitações que impediam a concretização dos projetos de Babbage e de Pascal estavam, a partir do surgimento das válvulas eletrônicas, com os dias contados. E uma vez que o software era diferente do hardware em sua natureza, as máquinas de calcular passavam a ser compostas de duas instâncias (uma lógica e uma física) e, mais do que isto, permitiam que determinadas alterações em uma não exigissem mudanças na outra. Em 1942 McCulloch sugerira a Frank Fremont-Smith, diretor médico da fundação médica filantrópica chamada Josiah Macy Jr, que organizasse um ciclo de conferências para abordar temas médico-sociais de caráter variado, onde suas hipóteses poderiam ser discutidas. Esta sugestão ocorreu depois de uma conferência, agenciada pela fundação, onde McCulloch encontrou-se com seu amigo Rosenblueth – que, lembremos, trabalhava com Wiener nos sistemas de autoregulação. O ciclo de conferências viria a se realizar apenas depois da guerra; mas neste intervalo de tempo intensificaram-se, de acordo com Dupuy, os encontros e intercâmbios entre McCulloch, Pitts, Wiener, Bigelow e Rosenblueth. Wiener, paralelamente, mantinha freqüentes contatos com von Neumann, que trabalhava em Princeton. Foi em 1946 que ocorreu a primeira das Conferências Macy, sob o nome “Feedback Mechanisms and Circular Causal Systems in Biological and Social Systems” – que expressa uma referência aos trabalhos de Wiener e McCulloch. O objetivo das conferências era o de reunir, em intervalos regulares, um pequeno grupo de pesquisadores que visavam um intercâmbio entre seus trabalhos. A terceira conferência foi realizada em 22 Passos, 1992, pp. 209-210. 1947, ano em que Wiener, segundo Dupuy, forjou a palavra “cibernética”23, para dar uma unidade ao movimento de idéias. Ao todo foram realizadas dez Conferências Macy, onde se abordou uma grande variedade de temas. Seus participantes nunca eram os mesmos, tal o fluxo dos membros dos encontros “cibernéticos”. Dupuy propõe-nos alguns grupamentos de temas e participantes, separando os últimos em quatro grupos, e deixando claro o risco que está assumindo ao fazê-lo24. O primeiro grupo era composto pelos “cibernéticos”: McCulloch, Wiener, Pitts, Bigelow, Rosenblueth, von Neumann e Claude Shannon, somados a outros estudiosos que tinham certa relação com a ciência que privilegia a modelização matemática. Anatomistas, fisiologistas, médicos e naturalistas formavam o segundo grupo, que, por ter menos afinidade à abstração que os outros, contribuíam ao desempenhar um papel crítico com relação aos “entusiasmos modeladores” de seus colegas. Havia o grupo dos psicólogos que, mais numeroso que o dos matemáticos, contava de 15 elementos; e, por último, um pequeno grupo de representantes da filosofia e das ciências sociais. O tema central, ou o interlocutor primeiro da cibernética era, segundo Dupuy, as ciências da mente. No início de cada conferência, o doutor Fremont-Smith fazia questão de reforçar o caráter interdisciplinar dos encontros, dizendo que “a natureza não conhece fronteiras”. O objetivo era o de entrelaçar conhecimentos diversos e fundar uma nova ciência da mente, derrubando as divisórias artificiais entre as disciplinas. Porém, com tantas disciplinas em discussão, e com um grande número de embates teóricos, a cibernética não poderia se constituir como uma ciência unificada e monolítica. Foi neste contexto que, em 1951, Wiener e von Neumann encerraram suas participações, e no ano seguinte Wiener acabaria por romper definitivamente suas relações com o grupo25. Foi também em 1952 que McCulloch foi juntar-se a Pitts no MIT. A última das Conferências Macy foi realizada em 1953. 23 No ano seguinte, de acordo com Gardner (1987, p.37), Wiener publicara um livro com o mesmo nome (Cybernetics), onde explicava que o termo se referia a todo o campo da teoria do controle e da comunicação, quer se trate da máquina ou do animal. Nesta obra Wiener reunia alguns avanços na compreensão do sistema nervoso humano, dos computadores e do funcionamento de outras máquinas, sublinhando sua crença (conforme o que escrevemos no início deste tópico) de que havia paralelismos decisivos entre o funcionamento do organismo vivo e das novas máquinas de comunicação. 24 “As conferências Macy tiveram um tal fluxo de participantes e uma tal diversidade de temas de discussão que toda tentativa de nelas balizar grandes massas fica amplamente fadada à arbitrariedade. Assumimos, porém, o risco de propor as seguintes repartições, para o conjunto das dez conferências (o que aumenta as chances de erro, dada a insuficiência de informação quanto às cinco primeiras).” (Dupuy, 1996, p. 92) 25 Dupuy diz que este rompimento se deu por razões mal elucidadas, mas que envolviam rivalidades pessoais e um escândalo familiar (1996, p.89). Muito teríamos a discutir sobre os diversos assuntos abordados nas conferências cibernéticas; entretanto, neste capítulo temos como objetivo traçar uma linha que nos leve até o nascimento dos primeiros computadores, e uma abordagem detalhada sobre a cibernética nos afastaria de nosso caminho26. Marvin Minsky (de quem viremos a falar logo adiante), conforme nos relata Dreyfus,27 escreve que no início da década de 50 a cibernética se dividiu em três avenidas principais. Uma rumava em busca dos princípios básicos simples daquilo que era chamado de Sistemas Auto-Organizantes mínimos, investigando como sistemas dispostos em determinados ambientes apresentavam comportamentos adaptativos28. A segunda avenida direcionava-se à simulação dos processos cognitivos, rumando em busca da construção de modelos operantes que dotassem máquinas de comportamentos semelhantes aos de indivíduos humanos. A terceira avenida é a Inteligência Artificial (IA) propriamente dita, representada pela tentativa de construir máquinas inteligentes. 1.2 Inteligência Artificial No ano de 1956, nos Estados Unidos, um grupo de 10 jovens especialistas em matemática se reúne no Dartmouth College em Hanover para debater a possibilidade de produzir programas de computadores capazes de "comportar-se" ou "pensar" inteligentemente29. Eles se baseavam na hipótese de que é possível descrever precisamente qualquer aspecto da aprendizagem ou de qualquer outra ação inteligente. Assim, o que o grupo buscava era estabelecer os meios adequados para simulá-los em uma máquina. Dentre os participantes deste seminário, quatro em particular desempenharam importantes papéis no desenvolvimento de um novo campo, que viria a se chamar “Inteligência Artificial”. John McCarthy, professor de matemática em Dartmouth e fundador, em 1957, do laboratório de IA do MIT, foi quem cunhou, neste seminário, a expressão “Inteligência Artificial”. Com ele estavam Marvin Minsky, um jovem membro do departamento de matemática e neurologia de Harvard (e que mais tarde seria diretor do Laboratório de 26 Teremos, nos próximos capítulos, oportunidade para falar um pouco mais sobre a cibernética. Para um estudo mais aprofundado sobre o assunto, cf. Dupuy, 1996. 27 1975, p.92. 28 Dupuy afirma que, para Minsky, a teoria dos sitemas auto-organizantes representava um “ramo morto” – a segunda cibernética. Para maiores detalhes, cf. Dupuy, 1996, p.73. 29 Para um histórico mais detalhado, cf. Gardner, 1987, cap. 6. Inteligência Artificial do MIT), o matemático Allen Newell e o economista Herbert Simon. Muitos outros nomes estão vinculados às construções e descobertas científicas no campo da IA; contudo, enfocaremos, neste momento, o trabalho de Newell, Simon e Minsky, onde encontramos material interessante para a discussão a que nos propomos. Em 1955, Allen Newell e Herbert Simon se encontraram em um evento realizado pela RAND Corporation (centro de pesquisa financiado pelo exército americano), e este fato marcou o início de um trabalho de sistematização da idéia de que “a inteligência é uma capacidade de manipulação de símbolos e todo sistema cognitivo se define por um processo de tratamento de informação passível de simulação mecânica”30. Ao final deste ano, associados com Cliff Shaw, um programador da RAND Corporation, desenvolveram a linguagem IPL (Information Processing Language) – primeira linguagem de programação de “alto nível”, que permitia a manipulação de expressões simbólicas não numéricas. Com esta ferramenta, mais próxima da linguagem natural31 que as até então desenvolvidas (sendo dotada de recursos que automaticamente traduziam as operações simbólicas em linguagem de máquina – “baixo nível”), ficaria mais fácil levar a diante o projeto de simulação do pensamento humano e, conseqüentemente, permitir ao computador lidar com situações cotidianas como, por exemplo, jogar xadrez. Para Simon, um artefato – como um computador, por exemplo – pode ser considerado como a interface entre um ambiente “interno” (a substância e a organização do próprio artefato) e um ambiente “externo” (condições em que o artefato funciona). A artificialidade, segundo ele, inclui “similitude perceptual mas diferença essencial”, ou seja, a semelhança é mais evidente a partir do exterior que do interior. Portanto, a semelhança no comportamento de sistemas cujos interiores não são idênticos é particularmente realizável se os aspectos que nos interessam derivam da organização dos compontentes, independentemente da maior parte das propriedades dos componentes em si.32 Baseado neste pensamento é que Simon irá com seu grupo desenvolver artifícios de organização semelhante à da mente humana, conseguindo, portanto, reproduzir artificialmente o comportamento inteligente. 30 Passos, 1992, p.224. Ao falarmos em “linguagem natural”, estamos nos referindo à linguagem propriamente humana, em oposição à “linguagem de máquina”, própria dos computadores e fundamentada na álgebra booleana. 32 Simon, 1981, p.46. 31 Em 1956, o grupo desenvolveu um programa chamado Teórico Lógico (Logical Theorist – LT), capaz de demonstrar efetivamente, em um computador batizado como “JOHNNIAC"33, um bom número de teoremas tomados do Principia Mathematica (1910) de Alfred North Whitehead e Bertrand Russell34. De acordo com o próprio Simon35, o Teórico Lógico havia incorporado muitos processos de aprendizagem, descobria provas para teoremas em lógica, podendo lembrá-las para usos posteriores, e era capaz de examinar seus métodos com base na sua experiência com os mesmos e modificá-los de diversas maneiras. A demonstração com o LT foi realmente notável, impressionando inclusive a Bertrand Russell, quando este foi informado do feito de Newell e Simon. Entusiasmados com seu resultado, eles se encarregaram de enfatizar que o LT não apenas efetuava demonstrações de lógica, mas que resolvia problemas de forma análoga aos humanos. Dreyfus aponta que no artigo de Newell, Shaw e Simon, intitulado “Empirical Explorations with the Logic Theory Machine: A Case Study in Heuristics”, fica evidente que é grande o entusiasmo do grupo com relação à programação de computadores capazes de demonstrar o comportamento geral na solução de problemas. Neste artigo o LT é apresentado como “um programa que foi montado para aprender como é possível solucionar problemas difíceis, tais como provar teoremas matemáticos, descobrir leis científicas com base em dados, jogar xadrez ou compreender o significado da prosa inglesa”36. De acordo com Gardner, ao inventar e pôr em execução o LT, Newell, Simon e seus colaboradores demonstraram que a confecção de artifícios inteligentes era não apenas uma possibilidade, mas uma realidade concreta. Duas afirmações, que antes não passavam de indicações, ganharam força extraordinária: 1) os computadores podiam levar a cabo condutas que, em caso de ser efetuadas por seres humanos, inequivocamente seriam consideradas inteligentes; 2) os passos percorridos pelo programa no curso da demonstração de um teorema guardavam uma semelhança nada trivial com os que seguiam os seres humanos para resolver problemas em geral. No ano seguinte, em 1957, Newell, Simon e Shaw desenvolvem um programa mais aprimorado e mais ambicioso do que o LT: o Solucionador de Problemas Gerais (General 33 O nome foi dado em homenagem a John von Neumann. Já falamos brevemente sobre Whitehead e Russell que, segundo Gardner (1987), eram lógicos matemáticos britânicos que procuraram reduzir as leis básicas da aritmética às proposições da lógica elementar. 35 1965, p. 88. 36 Newell, Shaw e Simon, apud Dreyfus, 1975. 34 Problem Solver – GPS). O GPS era um sistema que tinha a tarefa de estar preparado para lidar com determinados problemas gerais, captando informações relevantes para a obtenção de um caminho à solução. Este programa era capaz de “raciocinar”, avaliando seu estado atual em relação a uma determinada meta, detectando a diferença entre a situação atual e a meta definida, e buscando na memória meios de reduzir esta diferença. Ele podia efetuar tarefas de aparências tão diversas como a demonstração de teoremas, a compilação de programas de computador, jogar xadrez e solucionar jogos como o dos “missionários e canibais”37. Segundo Simon, O GPS é um programa – inicialmente inferido a partir dos protocolos de sujeitos humanos resolvendo problemas no laboratório, e subseqüentemente codificados para a simulação computacional – para raciocinar em termos de recursos e fins, em termos de metas e submetas, acerca de uma situação problemática (...) Com base nessa simulação, podemos dizer que o GPS é uma teoria substancialmente correta do processo de solução de problema tal como ele ocorre sob essas condições particulares do laboratório. O quão geral ele é resta a ser determinado38. O propósito do GPS, entretanto, não era simplesmente achar a solução mais eficaz destes problemas, mas sim simular os processos que os seres humanos empregam para resolvê-los. Nesse sentido, segundo Gardner, o GPS obteve um certo êxito, sendo inclusive considerado o primeiro programa a simular toda uma gama de comportamentos simbólicos humanos. A abordagem da qual o GPS é fruto intitulava-se Simulação Cognitiva (SC), pois a técnica geralmente utilizada era a coleta de protocolos realizados por seres humanos, redigidos de forma a apresentar passo a passo as manipulações simbólicas mentais do indivíduo em seu caminho em direção à meta estipulada. E, uma vez que para Newell e Simon a inteligência era sinônimo de manipulação e uso de diversos sistemas simbólicos, o GPS dava um grande passo rumo ao estabelecimento da IA – já que se constituía de uma máquina eletrônica dotada de sistema simbólico material, semelhante ao cérebro humano, e que exibia muitas das propriedades do ser humano cujo comportamento se pretendia simular: uma memória, um conjunto de operações, dados de entrada e saída, etc. Apesar de abandonado, porque não possuía o grau de abrangência que seus criadores desejavam ao desenvolvê-lo, com o GPS Newell e Simon ofereceram uma 37 O jogo consiste em levar três missionários e três canibais de uma margem à outra de um rio, através de uma canoa que comporta apenas duas pessoas. A dificuldade do jogo está no fato de que nunca pode haver mais canibais do que missionários em nenhum dos lados, pois assim os missionários seriam devorados pelos canibais. 38 Simon, 1965, apud Passos, 1992, p.225. concepção de inteligência artificial, uma teoria sobre o pensamento e todo um programa de ação para os futuros pesquisadores. Reservaremos para o próximo capítulo uma discussão detalhada sobre os motivos que levaram ao abandono do GPS; no momento nosso interesse está voltado àquilo que pôde ser efetivamente realizado pelos estudiosos desta área, e portanto deixaremos a análise dos obstáculos da IA para depois. Marvin Minsky e John McCarthy foram orientados em suas pesquisas no MIT por Claude Shannon, engenheiro eletricista sobre o qual já tivemos oportunidade de falar. Minsky não publicava seu trabalho tão ativamente quanto Newell e Simon, e também não há no campo da IA um grande número de resultados relacionado a seu nome. Entretanto, ele foi mentor de um conjunto de talentosos discípulos, guiando-os, por um caminho independente, a algumas das idéias sustentadas por Newell e Simon. Em 1968 Daniel Bobrow, um dos discípulos de Minsky que trabalhava em seu laboratório, adaptou os trabalhos sobre resolução de problemas ao âmbito lingüístico. O resultado foi um programa chamado Student, que destinava-se a resolver um certo tipo de problemas algébricos. Gardner nos apresenta um exemplo bastante ilustrativo, por isto o traremos na íntegra: O consumo de meu automóvel é tal que percorre 6 quilômetros por litro de gasolina. A distância entre Boston e New York é de 370 quilômetros. Quantos litros de gasolina foram gastos para viajar de New York a Boston?39 Minsky explica que o programa se baseava em que cada uma destas orações equivalia a uma equação, e determinadas palavras representavam certas operações entre estas equações. No Student a palavra “é” foi codificada para representar igualdade, ou seja, determinava quantidades iguais para ambos os membros da equação. A palavra “por” significava divisão. Continuemos com o exemplo trazido por Gardner: A partir da palavra matemática “por” que está na frase “quilômetros por litro” da primeira oração, o programa pode estabelecer que o número 6 se obtém dividindo um certo número de quilômetros x por outro certo número de litros y. Entretanto, o programa não tem nem a mais remota idéia do que são os quilômetros e os litros, nem sequer do que são automóveis. A segunda oração parece dizer que há outra coisa equivalente a 370 quilômetros; em conseqüência, a frase “a distância entre” é uma boa candidata a ser x. Na terceira oração, pergunta-se algo acerca de uma quantidade de litros; a frase “quantos litros de gasolina foram usados para viajar” é candidata a ser y. Nestas orações se propõe 39 Gardner, 1987, p.172. Tradução minha. uma equação, x = 370, e outra x / y = 6. A partir daí a parte matemática do programa pode descobrir facilmente que y = 370 / 6. 40 O Student exemplificava com clareza as virtudes e as limitações dos programas da década de 60. Uma vez que o problema era apresentado de forma que o programa o pudesse decodificar, a solução dada pelo computador era sem dúvida considerada inteligente, resolvendo, em poucos segundos, o que um adulto levaria minutos para realizar. Entretanto, os procedimentos empregados para se chegar à resolução do problema não se assemelhavam aos que um indivíduo comum utilizava. No exemplo que Gardner nos forneceu, o indivíduo submetido ao problema pensaria, por exemplo, em uma viagem de automóvel, na localização geográfica de New York e Boston, nas condições da estrada e do tráfego, etc. E ainda poderia basear-se em sua experiência, em uma viagem já realizada entre as duas cidades mencionadas. Já a máquina não teria a mínima noção do que uma cidade ou uma viagem seriam, e seguiria o mesmo procedimento para o cálculo “dos centavos que custam os caramelos e dos milhões de dólares que custam os projéteis balísticos”41. Isto porque a “compreensão” de um computador é puramente sintática. E a barreira a ser ultrapassada é, portanto, a ambigüidade semântica. Se o Student fizesse a decomposição das orações do problema em variáveis e operadores que não levassem a uma equação de solução possível, então as orações eram decompostas novamente através de novas regras. Todo o esquema funcionava porque a solução do problema vinha acompanhada de uma coerência nas equações; assim, o programa do discípulo de Minsky era capaz de dissolver algumas ambigüidades sintáticas e semânticas com base na coerência algébrica. Acontece que, com esta forte coerção, a ambigüidade, aspecto indissociável da linguagem natural, acaba por ser eliminada; conseqüentemente, de acordo com Dreyfus, torna-se impossível o processamento da linguagem natural. Um programa assim acha-se tão longe da compreensão semântica que, como Bobrow admite, a frase ‘o número de vezes que fui ao cinema’, que deveria ser interpretada como uma série variável, será interpretada incorretamente como o produto das duas variáveis ‘número de’ e ‘fui ao cinema’ porque ‘vezes’ é sempre considerada como sendo operador.42 40 Bernstein, 1981, p. 113 apud Gardner, 1987, p. 173. Tradução minha. Gardner, 1987, p.173. 42 Dreyfus, 1975, p. 96. 41 A incapacidade ou dificuldade de processar informações ambíguas será fortemente explorada por Dreyfus; teremos, no próximo capítulo, oportunidade para uma análise detalhada desta discussão. Continuemos, então, nosso relato sobre os artefatos processadores de linguagem. Em 1970, Terry Winograd, que realizava sua tese de doutorado no MIT, criou um programa chamado SHRDLU. De acordo com Gardner, este sistema continha um mecanismo de resposta ativado por certas palavras chaves, assemelhando-se a um expert em compreensão, operando dentro de um domínio bastante limitado. O programador determinava uma pequena e clara classificação de objetos e propriedades relevantes, e um conjunto de regras responsável pela relação entre estes objetos e propriedades. Winograd inventou no SHRDLU um mundo imaginário composto por blocos geométricos simples, e o programa possuía um conhecimento lingüístico suficiente para “entender” comandos e a partir destes manipular os blocos, empilhando-os, deslocando-os, etc. O SHRDLU emitia mensagens que indicavam que os comandos haviam sido entendidos, ou solicitava esclarecimento quando os mesmos se mostravam ambíguos. Sua estrutura é bastante diferente da de seus antecessores, justamente por substituir um processamento central geral por módulos separados e dotados de informações específicas. Vejamos, nas palavras de Gardner, como funcionava o SHRDLU: O programa de Winograd era mais aperfeiçoado que todos seus antecessores por empregar uma série de “experts ou especialistas em análises”: um especialista sintático, que fragmentava a oração em sintagmas significativos; um especialista oracional, que determinava de que forma se vinculava um sintagma nominal com a ação descrita por um sintagma verbal; e um especialista em estruturação, que compreende de que maneira as estruturas individuais se vinculam entre si e com toda a seqüência do relato que em seu conjunto devem transmitir. Por exemplo, na situação do “mundo de blocos”, o especialista em estruturação deve manejar todas as referências pronominais (tarefa nada trivial) assim como a seqüência temporal da totalidade de ações executadas. Alem destes “experts”que podem interagir flexivelmente e compartilhar informação, o programa possui também sistemas de crenças, conhecimentos acerca da resolução de problemas e “especialistas” que verificam se determinada emissão é uma pergunta, uma ordem ou uma enunciação.43 Minsky, de acordo com Dreyfus, dirigia a Newell e Simon a crítica de que os métodos que funcionavam bem em problemas específicos e simples não ofereceriam o mesmo desempenho frente a problemas difíceis. Sua crítica fundamentava-se na intuição 43 Gardner, 1987, p.180, tradução minha. de que o melhor método para a solução de problemas é aquele que enfoca questões específicas, e não em problemas de caráter geral. Minsky começa a intuir, devido às limitações do GPS e o relativo sucesso do Student e do SHRDLU, que havia a necessidade de “inverter o papel do especialista pelo da criança na escala das performances”44. O GPS buscava a resolução de questões mais genéricas, pois as tentativas de modelar a inteligência de um especialista altamente treinado eram vistas como lidando com questões de fato difíceis e relevantes. Mas na medida em que se tornaram aparentes as limitações impostas por este método, ficou igualmente aparente que a forma mais profunda e fundamental da inteligência é a de um bebê, que aprende a falar a língua de seus pais, reconhece padrões e forma objetos mentais a partir de um imenso bombardeio de estímulos luminosos45. Assim, apesar de ainda apresentar limitações na compreensão lingüística, o SHRDLU demonstrou grandes avanços nesta tarefa, apontando para a necessidade dos sistemas de possuírem um grau considerável de conhecimentos específicos. A década de 70 marca a passagem dos sistemas generalistas aos especialistas; o enfoque dos pesquisadores passa do geral para o particular, quando começam, de acordo com Passos, a se dedicar ao desenvolvimento de programas que concebiam o comportamento inteligente segundo o esquema que passou a ser identificado como topdown46. Em 1975, Minsky publica suas idéias acerca da noção de frame – uma estrutura de conhecimentos específicos acerca de um domínio do saber. Esta estrutura é formada de um núcleo e de uma série de compartimentos, que correspondem cada um a algum aspecto do domínio que o frame pretende modelar. Gardner traz-nos outro exemplo ilustrativo: Se um robô ingressa em um quarto passando por uma porta, ele ativa um “frame de quarto”, que chega à memória operativa e suscita uma série de expectativas sobre o que se pode encontrar em um quarto típico. Se o robô percebe logo uma forma retangular, esta forma, dentro do contexto do frame do quarto, poderá sugerir-lhe a existência de uma janela. Os compartimentos podem ser de alto nível – parâmetros fixos que representam as coisas sempre verdadeiras acerca de uma situação proposta (por exemplo, um quarto tem sempre quatro paredes) – ou de 44 Varela, Thompson e Rosch, 2003, p.100. Esta concepção será marcante na vertente conexionista, e bastante explorada por Minsky em seu livro The Society of Mind (1986). 46 Passos, 1992, p. 226. Passos coloca que, segundo a abordagem top-down, para entender uma situação problemática e agir corretamente sobre ela o sistema cognitivo (seja ele orgânico ou computacional) tem de ser capaz de selecionar a estrutura apropriada com a qual é possível decodificar os termos do problema em sua organização específica. Os conceitos de top-down e botton-up serão bastante discutidos no campo das ciências cognitivas. Para uma breve introdução ao assunto, cf. EYSENCK, Michael, KEANE, Mark. Psicologia Cognitiva: Um Manual Introdutório. Porto Alegre: Artes Médicas, 1994. 45 outros níveis menores, com muitos terminais – compartimentos que precisam ser preenchidos com casos concretos referentes aos dados (por exemplo, os objetos que são mais prováveis de se encontrar em um quarto, como janelas). Presume-se que o indivíduo possui muitas centenas de frames organizadores e interpretativos, e que em cada situação bastante complexa recorre a combinações destes frames.47 Os frames poderiam ser pensados como uma rede de nós e relações, dotados de informações que são verdade para qualquer situação (situadas nos top levels), e de níveis inferiores (slots) que precisam ser preenchidos por exemplos específicos ou dados48. Com o desenvolvimento da idéia de frames Minsky caminhava rumo a uma nova concepção de funcionamento da mente e, conseqüentemente, fornecia substrato para novas propostas de programação. Conforme Gardner, Minsky propõe o abandono da imagem de um programa composto por um processador central e simples, através do qual deveriam passar todas as informações, e de uma mente organizada e unificada que centraliza e supervisiona toda a atividade, para que se adote uma concepção de atividade psíquica composta por diversos agentes, cada qual especialista em algo. Minsky irá então propor a idéia da “mente como uma sociedade”, composta por diversos “agentes” capazes de manejar simultaneamente diferentes tipos de conhecimento, atuando em conjunto com os outros agentes. Teremos, no próximo capítulo, oportunidade de falar sobre a abordagem conexionista, que apresenta bastante sintonia com a idéia de Minsky acerca dos frames. Apresentamos neste capítulo um breve histórico das máquinas de calcular, que culminaram em softwares capazes de desempenhar tarefas complexas e bastante sofisticadas. Desde a década de 1980 até os dias de hoje muito avançou a inteligência artificial e a tecnologia da informação; porém, todos os computadores ainda são compostos de circuitos eletrônicos, a informação continua sendo codificada em dígitos binários e os softwares sempre correspondem a algoritmos estruturados por programadores. Além disto, a concepção de que o homem se assemelha a uma máquina altamente desenvolvida ainda perpassa os estudos no campo da IA que buscam simular artificialmente a cognição humana. Assim, apesar dos avanços das últimas décadas, os princípios ainda permanecem os mesmos – fato que constitui os projetos iniciais na área da inteligência artificial de material suficiente para o objetivo deste trabalho. Passemos então ao próximo capítulo, onde traremos algumas considerações sobre as ciências cognitivas – campo do qual a IA 47 48 Gardner, 1987, p. 187. Tradução minha. Para uma explicação mais detalhada, cf. Minsky, Frame-system theory, 1975, p. 355. fazia parte e cujo enfoque principal é um estudo científico da cognição humana –, e discutiremos as avaliações de Hubert Dreyfus sobre os softwares inteligentes desenvolvidos até a década de 1980. 2 O que os computadores não podem fazer Bastante tempo foi necessário para que o homem chegasse às maquinas capazes de apresentar um comportamento inteligente. A demora se deu, em grande parte, por falta de mecanismos tecnológicos suficientes para o processamento de um grande número de informações. Mas depois de encontrado o modelo apropriado para a construção dos computadores, a tecnologia avança a passos largos, oferecendo um processamento cada vez mais veloz para um volume de informações cada vez maior. Logo ficou evidente, entretanto, que não bastava um equipamento potente para que fosse possível criar artificialmente comportamentos semelhantes ao do humano. Outro problema, de outra ordem e natureza, ainda permanecia: era necessário desvendar os mecanismos mentais e psicológicos do homem para que fosse possível implementá-los49 em máquinas. O emaranhado teórico que formavam as discussões cibernéticas (que, por questões práticas, apresentamos superficialmente) expressava a dificuldade de traduzir o sujeito da experiência em termos científicos. Questões que perpassam a filosofia desde tempos antigos, tais como “o que é o pensamento?”, ou “como o homem conhece?”, ainda permaneciam sem uma resposta final, atrasando assim o progresso das máquinas capazes de aprender e se comportar como humanos. Os cibernéticos convocaram os construtos de diversas áreas de conhecimento, de modo a estabelecer um modelo adequado para a representação dos processos mentais. Vimos, porém, que o movimento se dispersou, deixando em aberto uma série de ricas possibilidades de crescimento e desenvolvimento50. 2.1 Ciências Cognitivas O final da década de 1940 marcaria o momento propício para o surgimento de um novo campo de discussões acerca dos processos cognitivos, fundamentalmente 49 “Implementação” é um termo utilizado no âmbito da informática para designar o ato de programar, de construir um software. 50 Varela et al., 2003, p. 53. caracterizado pela transdisciplinaridade. Aproximando várias ciências, como a psicologia cognitiva, a lingüística, as ciências sociais, as neurociências, a epistemologia e a inteligência artificial, estabeleciam-se as ciências cognitivas.51 E oferecendo-se como uma ferramenta capaz de simular determinados processos cognitivos, ao mesmo tempo propiciando material para um modelo teórico sobre estes mesmos processos, os computadores passam a ocupar posição central no campo das ciências cognitivas. Em 1956 nascia, segundo Varela, o cognitivismo – vertente fundamentada na intuição central de que a inteligência (humana ou artificial) assemelha-se à computação de informações, e a cognição a computações de representações simbólicas52. Em outras palavras, para os representantes deste movimento a inteligência consistia na habilidade de operar símbolos que representavam o mundo externo, formando internamente uma imagem adequada do mundo – o que se chamava de representação interna ou mental. A cognição, por sua vez, passara a ser concebida como o estabelecimento destas representações mentais do ambiente, manipuladas a partir de determinadas regras e resultando em comportamentos específicos. Poderíamos resumir o programa de pesquisa cognitivista da seguinte forma: • Cognição é o processamento de informações: manipulação de símbolos com base em regras. • A cognição funciona através de qualquer artefato que possa dar suporte e manipular elementos separáveis: símbolos. O sistema interage somente com as formas dos símbolos, e não com seus significados. • O sistema cognitivo funciona adequadamente quando os símbolos representam algum aspecto do mundo real, e o processamento de informações conduz à solução efetiva do problema apresentado ao sistema.53 Em 1956 também nascia, como vimos no capítulo anterior, a inteligência artificial – lugar onde as manifestações do cognitivismo eram mais visíveis, a ponto de representar, para Varela e seus colaboradores, a implementação literal da hipótese cognitivista. Encarnando fisicamente as construções teóricas do cognitivismo, o computador devolve 51 Passos, 1992, p. 190. Varela et al., 2003, p. 55. 53 Ibidem, p. 58. 52 material teórico aos vários setores a partir dos quais fora pensado, levando a uma nova modelagem da visão sobre o cérebro. Temos uma ilustração deste fato na área da neurobiologia, em que a noção de que o cérebro processa informações perpassou boa parte dos estudos e um grande número de evidências empíricas. Para citar um exemplo, estudos sobre o córtex visual relataram ser possível classificar os neurônios corticais como “detentores de aspectos”, que respondem a apenas certos atributos do objeto apresentado aos olhos – como sua textura, cor, contraste, etc. –, que são coletados na retina, processados e encaminhados a outras áreas cerebrais também para processamento – categorização conceitual, memória associativa, etc.54 Em suma, os neurônios corticais processariam informações, desencadeando a formação de representações mentais dos objetos apresentados aos olhos. A perspectiva cognitivista apresenta, porém, importantes limitações em sua compreensão da cognição. Destacaremos duas: (1) a informação simbólica é predominantemente baseada em processamento seqüencial, onde as regras são aplicadas uma a uma, o que representa uma grande limitação quando a tarefa em questão requer um elevado número de operações seqüenciais. (2) O processamento simbólico é localizado: caso haja a perda ou danificação de informações de qualquer parte do sistema cognitivo, há um colapso total do sistema. Já nas Conferências Macy os cibernéticos discutiam sobre a questão de que o cérebro não parecia seguir regras, nem ter processadores lógicos centrais, nem locais específicos para o armazenamento de informações. Ao contrário, o que parecia mais plausível era que o cérebro operava com base em massivas conexões, onde os grupos de neurônios tinham suas conexões modificadas a partir da experiência do sujeito no mundo. Dentre as várias críticas dirigidas ao modelo proposto por McCulloch em 1943, uma fazia referência ao fato de que o cérebro tem um número extremamente grande de funções e que os genes não teriam capacidade suficiente para especificar plano de conexão entre todos os neurônios do sistema cerebral. Uma alternativa seria considerar que as operações são distribuídas pelo cérebro – conferindo certa equipotencialidade ao sistema e imunidade relativa a perdas de informação. As redes neuronais também teriam de ser aleatórias – nas quais as conexões são obtidas ao acaso –, pois assim haveria espaço para a intervenção da cultura, da experiência e da aprendizagem na modelização do próprio sistema. 54 De acordo com Varela et al., 2003, p. 59. Como conseqüência das limitações do cognitivismo, que não fornecia explicação para determinadas funções cognitivas dos sistemas biológicos, surgiu a abordagem da auto-organização. Nela o sistema cognitivo se compõe como uma rede, existindo uma cooperação global que emerge espontaneamente quando o estado de todos os neurônios (ou elementos) participantes se torna mutuamente satisfatório, sem a necessidade de uma unidade central de processamento para guiar determinada operação. Esta abordagem, também chamada de conexionista, descarta a descrição do cérebro como processador serial de informações, para privilegiar a visão dos neurônios como membros de grandes coleções que continuamente fazem surgir e desaparecer suas interações cooperativas. Ao invés de descrições simbólicas abstratas, o ponto de partida é um exército de componentes simples que, conectados adequadamente, apresentam propriedades globais interessantes. Estas conexões são obtidas a partir de algumas regras como a de Hebb, proposta por ele em 1949, que sugere que se dois neurônios tendem a se ativar juntos, a conectividade entre eles é reforçada e, caso contrário, ela diminui. Assim, a conectividade do sistema se torna inseparável de sua história de transformações e fica relacionada ao tipo de tarefa realizada pelo sistema. 55 Resumindo brevemente o programa conexionista, seguindo o esquema de Varela et al., teríamos: • Cognição é a emergência de estados globais em uma rede de componentes simples. • A cognição funciona através de regras locais de operação individual e regras de mudança na conectividade entre os elementos. • O sistema cognitivo funciona adequadamente quando as propriedades emergentes (e a estrutura resultante) podem ser vistas como correspondendo a uma capacidade cognitiva específica – uma solução bem-sucedida para uma determinada tarefa.56 A abordagem conexionista fornece um método mais eficiente para sistemas com propriedades cognitivas complexas, como o reconhecimento de imagens, por exemplo. Foi 55 Varela et al., 2003, cap. 5, e Dupuy, 1996, pp.197-199. É importante ressaltar que, de acordo com Dupuy, tanto o cognitivismo top-down (que concebe a cognição como um movimento descendente, que vai das propriedades do sistema como um todo às dos elementos e de suas conexões) quanto o conexionismo bottomup (que parte, em um movimento ascendente, dos elementos e conexões, constituindo as propriedades da totalidade do sistema) já trazem de antemão em seu modelo regras (como a de Hebb, por exemplo) para as conexões entre os elementos do sistema. Esta proposta do estabelecimento aleatório das conexões somente seria de fato explorada pelos neoconexionistas – onde o sentido da totalidade particular gerada pelas conexões seria dado a posteriori. Para maiores detalhes, cf. Dupuy, 1996. 56 Varela et al., 2003, p. 111. inspirado nesta concepção que Frank Rosenblath construiu em 1958 o Perceptron: um aparelho composto por uma rede baseada no modelo de McCulloch e Pitts arrumada em camadas superpostas de neurônios e capaz de aprendizagem – pois tinha a propriedade de mudar a conectividade entre seus componentes a partir do contato com o meio externo. Porém, logo se tornou evidente para muitos pesquisadores da IA que mesmo as ações cognitivas mais simples exigem uma quantidade extremamente grande de conhecimento. No homem este conhecimento já está estabelecido mas, nos computadores, deveria ser inserido pedacinho por pedacinho pelo programador. Este fato os levaria a desistir de solucionadores de problemas em geral – como veremos logo adiante –, e focalizar problemas específicos e bem delimitados. Mas, mesmo assim, outro problema permaneceria: nos seres humanos, o conhecimento está sempre relacionado a determinado contexto, e sua ação é sempre situada, relacionada a cada momento de sua existência. Esta concepção de conhecimento como algo diferente de um espelho da natureza traria a necessidade adicional de inserir nos computadores informações acerca dos contextos onde determinados conhecimentos são empregados. Existem várias nuances, críticas e detalhes com relação aos programas cognitivista e conexionista, mas não teremos tempo para uma discussão mais detalhada57. O que nos importa ressaltar no momento é que, tanto para o cognitivismo quanto para o conexionismo, a cognição é tida como a propriedade de um sistema, seja ele humano ou artificial, dotado de regras que determinam seus elementos e conexões. Esta concepção expressa o forte caráter científico do campo dos estudos da cognição, e de seu estreito vínculo com os computadores – cujos softwares, invariavelmente, são resultado de uma série estruturada de regras (algorítmos). Portanto, o sucesso dos programas da inteligência artificial, uma vez que tinham como referência a inteligência humana, dependia necessariamente de avanços no campo do qual participava – o das ciências cognitivas. 2.2 Críticas à razão artificial A maioria dos programas iniciais na área da inteligência artificial – especialmente os softwares capazes de solucionar problemas e participar de jogos – foi desenvolvida ou 57 Para maiores detalhes, cf. Varela et al., 2003. inspirada no trabalho de Newell, Shaw e Simon, na RAND Corporation e no Carnegie Institute of Technology. Por conceberem a inteligência como o processamento de símbolos baseado em regras, as pesquisas na área da IA utilizavam prioritariamente a técnica da Simulação Cognitiva (SC) como modo de mapear estas regras, partindo de protocolos gerados por humanos – relatórios verbais de um sujeito em processo de solução de um problema.58 Hubert Dreyfus, atento a todas as aspirações da inteligência artificial, desde o início tinha a intuição de que o projeto fatalmente fracassaria. Baseado nos estudos de Edmund Husserl, Martin Heidegger, Merleau-Ponty e Ludwig Wittgenstein, Dreyfus sabia que grande parte de nossos comportamentos, como o de andar de bicicleta ou o de dirigir um automóvel – e até mesmo jogar xadrez –, não se baseiam puramente em regras conscientes e precisas. Conseqüentemente, a técnica dos protocolos não seria suficiente para a compreensão destes comportamentos, pois nenhum sujeito teria a capacidade de verbalizar todos os processos mentais (e corporais) envolvidos em suas ações. Além disso, para a solução de problemas simples do cotidiano, como entender o significado de uma pequena frase, os humanos precisam de um grande número de conhecimentos de senso-comum – que teriam de ser alimentados “de colherinha” em um computador de modo a habilitá-lo a desempenhar satisfatoriamente estas funções. Isto justifica e esclarece, para o autor, o motivo pelo qual os projetos iniciais da IA, como o desenvolvimento de tradutores mecânicos e de solucionadores gerais, logo de início chegaram à estagnação. De fato podemos dizer que, até hoje, não existe nenhum software que opere satisfatoriamente na compreensão da linguagem natural e na tradução de textos. Os cibernéticos muito discutiam sobre a comparação entre o funcionamento de relés eletrônicos e dos processos sinápticos, estipulando a hipótese de que os neurônios funcionariam através de operadores lógicos e do princípio do “tudo ou nada”. Jerome Lettvin considera que McCulloch edificou o que é ainda hoje a única teoria do sistema nervoso59. Mesmo assim, sabemos que as hipóteses de McCulloch estavam muito mais próximas de um mecanismo computacional que do funcionamento neuronal – tanto que, de 58 O protocolo de um sujeito resolvendo o problema dos missionários e canibais poderia ser: “bem, estou vendo que há três canibais e três missionários de um lado do rio. Sei que tenho que passá-los para a outra margem, sem que haja mais canibais que missionários em qualquer um dos lados. Vou passar dois canibais primeiro. Bem, agora um dos canibais fica e o outro volta com a canoa. Agora há três missionários e dois canibais. Vou passar um missionário e um canibal. Não, não dá, porque ao chegarem no outro lado haveria um canibal a mais e eu perderia o jogo. Será que posso passar dois missionários? Não, também não daria certo. E dois canibais? Acho que sim. Vamos ver...” 59 De acordo com Dupuy (1996, p.70). Segundo ele Lettvin é neurobiologista e um dos colaboradores de McCulloch. acordo com Dupuy, o artigo que ele escrevera com Pitts em 1943 acabou servindo de um ótimo atalho para Von Neumann em seu caminho rumo ao EDVAC. Alguns estudiosos da inteligência artificial logo começaram a perceber que as comparações entre a estrutura física do computador (hardware) e a estrutura do cérebro já não eram mais necessárias; Simon apostava que a chave para a construção de um artefato inteligente estava localizada na interface entre o organismo e o ambiente, no ponto de encontro entre o meio interno e o meio externo60. Assim, mais importava a organização dos componentes que suas propriedades físicas, e é neste ponto que o computador deve ser semelhante ao homem. Para Simon, tanto o computador quanto o cérebro e a mente humana são sistemas simbólicos físicos: sistemas de processamento de informação que operam sobre estruturas simbólicas e que procuram realizar determinados objetivos. A inteligência, para ele, é justamente o resultado do funcionamento destes sistemas simbólicos. E, uma vez que a aparente complexidade do comportamento era em grande parte reflexo da complexidade do ambiente61, bastaria encontrar (com o uso de técnicas como a análise de protocolos humanos) as leis gerais simples que governam o processamento no sistema humano para que fosse possível implementá-las em uma máquina – sem descartar, é claro, a necessidade de avanços tecnológicos na estrutura do hardware. A reprodução integral da inteligência humana em um mecanismo artificial era, para Simon, apenas uma questão de tempo e complexidade. Desde a máquina de Turing até o General Problem Solver de Newell e Simon pouco tempo se passou e, inversamente, muito crescera o campo da IA. Seria portanto exigir muito dos pesquisadores, simples humanos, que não apresentassem grandes doses de euforia e fantásticas hipóteses para um futuro próximo. Não é meu propósito surpreendê-lo ou chocá-lo ... Mas o melhor resumo que posso fazer é dizer que existem, agora, no mundo, máquinas que pensam, que aprendem e que criam. Ademais, sua capacidade de fazer essas coisas estará aumentando rapidamente até que – num futuro visível – a gama de problemas de que podem ocupar-se terá as mesmas dimensões da gama a que se tem aplicado a mente humana. (...) dentro de dez anos o computador digital será o campeão mundial de xadrez, a menos que as regras existentes o eliminem da competição. (...) Dentro de dez anos, a maior parte das teorias psicológicas tomará a forma 60 Simon, 1981, p.29. p. 106. Arriscaríamos dizer que Simon levara algum tempo para chegar à conclusão de que a maior parte da complexidade está no ambiente, e que esta noção ainda não estava clara para ele à época em que trabalhava sobre o GPS (Simon publicou o livro a que nos referimos em 1969, doze anos após o nascimento do GPS). Talvez tenham sido justamente os fracassos do GPS em lidar com ambientes complexos, como o da linguagem natural ou o do jogo de xadrez, que ajudaram Simon a chegar a esta conclusão. 61 de programas de computador ou de demonstrativos qualitativos acerca das características dos programas dos computadores. 62 No espaço de vinte anos, as máquinas serão capazes de realizar todas as tarefas, sejam elas quais forem, que os homens podem realizar.63 Dreyfus não iria perdoá-los. O “feroz crítico da inteligência artificial”, como o chama Dupuy, acompanhava de perto tudo o que se passava no MIT e na RAND Corporation – da qual, inclusive, recebia apoio e financiamento para suas pesquisas. Para ele, as previsões acima não passavam de um sonho pueril, que estava obviamente baseado em pressupostos frágeis e infundados e que, entre outras questões, desrespeitavam a diferença ontológica entre um homem e uma máquina. Seu livro64 é recheado destas previsões e expectativas, sempre seguidas de árduas críticas. Mas seríamos ingênuos se considerássemos que Minsky, Newell, Simon e outros sonhavam o tempo todo com o breve surgimento destas máquinas inteligentes e antropomórficas. Os obstáculos que incessantemente se interpunham no caminho destes incansáveis pesquisadores mostravamse como provas reais da diferença entre um homem e uma máquina. Conseqüentemente, a euforia inicial iria perder seu fôlego e as analogias seu espaço. A arquitetura de Von Neumann, em seu modelo de processamento digital serial, já estava dada – e até hoje compõe a estrutura básica dos computadores pessoais (PC’s), com chips de silicone no lugar de válvulas eletrônicas65. Porém, o cérebro e a mente resistiam a funcionar desta forma, sempre escorregadios, escapando dos herméticos modelos científicos e tecnológicos. Dreyfus teria classe o suficiente para reconhecer o caráter autocrítico dos pesquisadores da IA, dando em seu livro espaço para algumas declarações que mostravam sua compreensão do cérebro como uma máquina extremamente complexa e, por que não dizer, demasiadamente humana. O psicanalista Jacques Lacan sabiamente constata a diferença ontológica entre um computador e um ser humano – que é, segundo ele, óbvia. Mas o que não é tão óbvio, e portanto o que resta a saber, é quão humano o homem é: 62 Simon apud Dreyfus, 1975, p. 34. Esta declaração foi feita por Simon em 1957, entusiasmado com os resultados de seu GPS – que parecia inaugurar a era da inteligência artificial. 63 Simon, 1965, apud Dupuy, 1996, p.37 64 Dreyfus lança em 1971 O que os Computadores Não Podem Fazer. Em 1979 ele lança uma edição revisada, acrescentando à primeira parte do livro dois capítulos onde são avaliados os projetos em inteligência artificial desenvolvidos de 1971 a 1979. O que os Computadores Ainda Não Podem Fazer é lançado em 1992 pela MIT Press, constituindo-se de uma reedição do livro de 1979 acrescida de uma nova introdução de aproximadamente quarenta páginas. 65 Varela et al., 2003, p.54. Nada de sentimento. Não venham dizer que a máquina é uma malvada e atrapalha nossa existência. Não se trata disto. A máquina é unicamente a sucessão dos pequenos 0 e os pequenos 1 e, além disto, o problema de se é ou não humana está totalmente resolvido: não o é. Resta saber se o humano, no sentido em que você o entende, é tão humano assim.66 Esta dúvida, ao invés de representar um problema, serve de incentivo para os pesquisadores da IA: uma vez que não se sabe até que ponto a razão artificial pode ser levada, mais interessante e produtivo do que colocar antecipadamente limites às pesquisas é continuar o desenvolvimento na área e ir o mais longe possível. Mesmo que uma máquina seja ontologicamente diferente de um homem, seria possível encontrar um nível cada vez mais próximo entre a organização de seus componentes; assim, pode-se chegar ao ponto em que a habilidade do homem de fabricar uma fraude exceda sua habilidade de detectá-la67 e, ainda mais, de ter suas próprias habilidades superadas pela fraude. Na década de 1970, no MIT, Minsky projetara o HAL 900068 – computador do filme “2001, uma odisséia no espaço” –, que representava o que na época se concebia para a passagem do século XX ao XXI: o mundo seria composto por robôs capazes de conversar, mentir, vencer humanos no jogo de xadrez e até ler os lábios de pessoas enquanto conversam. Dreyfus conta que Stanley Kubrick, diretor deste filme, consultou os mais avançados especialistas em computadores da época a fim de não cometer nenhuma gafe e equivocar-se quanto ao que seria possível de se realizar em 30 anos. As declarações de Minsky também espelhavam o fato de que, para eles, a imaginação era o limite para o que os computadores poderiam um dia fazer. 66 “Nada de sentimiento. No vaya a decir que la máquina es una malvada y estorba nuestra existencia. No se trata de eso. La máquina es únicamente la sucesión de los pequeños O y los pequeños 1, y además, el problema de si es humana o no está totalmente resuelto: no lo es. Sólo que también hay que averiguar si lo humano, en el sentido en que usted lo entiende, es tan humano.” Lacan, Seminário 2 – O Eu na Teoria de Freud e na Técnica da Psicanálise. Edição eletrônica com as obras completas de Lacan. 1 CD-ROM. Tradução minha. 67 Esta frase foi dita por Victor Taransky, personagem de Al Pacino no filme Simone. Simone (nome que resulta da contração de “Simulation One”) era uma atriz virtual, totalmente criada por computador, capaz de enganar a audiência e até ganhar dois prêmios Oscar. Andrew Niccol, roteirista, diretor e produtor do filme, comenta que “Simone traçou uma linha entre a verdade e a ficção. Com o advento da tecnologia não sabemos mais o que é real e o que é falso. E talvez não damos importância a isso”. Estas e outras informações estão disponíveis nos extras do DVD do filme. 68 Nome composto pelas letras que antecedem o I, o B e o M no alfabeto, o que parece ser uma brincadeira com o nome da empresa International Business Machine (IBM). Porém, David G. Stork afirma que tudo não passou de uma coincidência e, ao perceber a referência à IBM, Kubrick quis mudar o nome da máquina e filmar novamente as cenas em que ela aparecia – o que não foi possível devido aos altos custos com a produção. HAL significa, na verdade, Heuristically programmed Algorithmic computer. Para mais detalhes, cf. o site <www.research.ibm.com/deepblue/learn/html/e.8.1.html>. A princípio, as máquinas possuíam simples garras. Logo, passaram a ter articulações fantasticamente graciosas. Os olhos dos computadores, outrora, só podiam sentir um orifício num cartão. Agora eles reconhecem formas sobre simples fundos. Cedo eles competirão com o homem na análise ambiental. Outrora, os computadores somavam meramente colunas de algarismos. Agora, eles participavam de jogos, com boa atuação, compreendem conversas simples, avaliam diversos fatores numa decisão. O que virá a seguir? Hoje, as máquinas resolvem problemas em consonância básica com os princípios que introduzimos nelas. Não vai demorar, estaremos aprendendo como pô-las a trabalhar no problema bem especial de melhorar sua própria capacidade de solucionar problemas. Uma vez que se ultrapasse determinado limiar, isto poderá levar a uma espiral de aceleração e talvez seja difícil aperfeiçoar um “governador” de confiança para controlar o processo.69 Dreyfus comenta estas afirmações de Minsky dizendo que, ao que parece, não haverá limites para o alcance e o brilho de um computador devidamente programado. Os moralistas e teólogos estão atentos para os comportamentos altamente sofisticados, como escolha moral, amor e descobertas criadoras, que estariam além do alcance de qualquer máquina, representando a singularidade do homem e a fronteira entre o artifício e o humano. E tanto estes pensadores quanto os da filosofia da ciência, provavelmente inebriamos pela impressão – alimentada tanto pela imprensa quanto pelas declarações de Simon, Minsky e outros pesquisadores da inteligência artificial – de que os computadores já realizavam ou estariam em breve aptos a realizar tarefas altamente sofisticadas, deixariam de formular uma questão preliminar: as máquinas podem demonstrar habilidades elementares, tais como participar de jogos, resolver simples problemas e ler frases simples?70 Em outras palavras, as otimistas alegações que faziam referência à habilidade dos computadores levavam a especulações sobre o que teríamos em um futuro próximo, e faziam parecer desnecessárias análises sobre o que de fato já podia ser realizado pelas máquinas. É justamente esta tarefa que Dreyfus toma para si: avaliar e examinar estas alegações, compará-las aos resultados concretos obtidos pelo time da inteligência artificial, e demonstrar a gigantesca distância entre o sonho e a realidade – entre aquilo que parecia um dia ser possível e aquilo que se realizou efetivamente. Agora acompanharemos um pouco do percurso de Dreyfus, em sua análise dos primeiros softwares inteligentes. Assim teremos preparado o terreno para as discussões do próximo capítulo, que envolvem as 69 70 Marvin Minsky, Machines Are More Than They Seem, apud Dreyfus, 1975, p.33. Ibidem, p. 34. avaliações deste autor sobre aquilo que seriam os quatro pressupostos fundamentais dos projetos da IA, e abrem espaço para Merleau-Ponty e sua visão fenomenológica sobre o sujeito, a ciência e o corpo próprio. 2.3 A breve história do solucionador de problemas gerais O Teórico Lógico, desenvolvido em 1956 por Newell, Shaw e Simon na RAND Corporation, era capaz de resolver problemas da lógica de forma análoga aos humanos. Mas, lembremos, seu campo de ação era restrito. Buscando uma versatilidade maior para softwares solucionadores de problemas, eles aproveitaram o modelo heurístico utilizado no Teórico Lógico para a demonstração de teoremas, aplicaram-no a uma gama de problemas semelhantes e, em 1957, criaram o GPS. Este, como já tivemos oportunidade de ver, era capaz de “raciocinar” e calcular a melhor forma de chegar à solução de determinados problemas. Quando o GPS resolveu o problema dos missionários e canibais, seus progenitores, de acordo com Dreyfus, concluíram que os computadores digitais tinham recebido as regras necessárias para converter o raciocínio em cálculos. Este fato fez com que Newell e Simon sentissem que já estava na hora de anunciar a era das máquinas inteligentes: Começamos a aprender como utilizar os computadores para a solução de problemas, onde não temos algorítmos computáveis sistemáticos e eficientes. E agora sabemos, pelo menos numa área limitada, não só como programar computadores para executarem com êxito tais atividades de solução de problemas; sabemos também como programar os computadores para aprenderem a fazer essas coisas. Em suma: possuímos, agora, os elementos de uma teoria heurística (em contraste com a algorítmica) no tocante à solução de problemas, e podemos utilizar essa teoria tanto para apreender os processos heurísticos humanos como para simular tais processos com os computadores digitais. A intuição, a introspecção e o aprendizado não mais são possessões exclusivas dos seres humanos; qualquer computador de grande porte e de alta velocidade pode ser programado para demonstrá-las também.71 Mais do que uma série estruturada de regras e comandos (algoritmo), que levam um programa a realizar determinados cálculos, a teoria heurística permitia ao software realizar operações que se assemelhavam ao raciocínio humano. Assim, no momento em que a 71 Newell e Simon apud Dreyfus, 1975, pp.30-31. razão pode ser programada em um computador, estabelece-se uma inteligência artificial, e é a própria definição de homem que é posta em cheque. Dreyfus lembra-nos que Aristóteles definiu o homem como um animal racional e, desde então, a razão vem representando a própria essência do homem. Se um computador também pode raciocinar, então seremos forçados a considerá-lo humano ou, na melhor das hipóteses, reformular nossa compreensão acerca de nós mesmos. Mas se ficar provado que a inteligência artificial é impossível, como diz Dreyfus, então teremos que distinguir a razão (natural) humana da razão artificial – o que também implicaria na necessidade de re-avaliarmos a visão que temos de nós mesmos. É por isto que Dreyfus não pouparia esforços para combater as declarações dos “artificialistas”, por estar convencido de que eles estavam muito longe do estabelecimento de uma razão artificial. É vital conservarmo-nos atentos de início que, não obstante as predições, o noticiário da imprensa e as advertências, a inteligência artificial é uma promessa e não um fato consumado. Somente então poderemos começar nosso exame da situação real e das esperanças futuras da inteligência artificial a um nível suficientemente rudimentar. 72 De fato, Dreyfus não encontraria muita dificuldade para provar que suas hipóteses estavam corretas. Os próprios obstáculos seriam contundentes o suficiente para forçá-los a admitir que suas previsões estavam equivocadas. Em 1967, prazo final para as previsões de Simon, Newell anuncia o abandono do GPS: Uma séria limitação da esperada performance do GPS é o porte do programa além do porte de sua razoável estrutura de dados elaborados. O próprio programa ocupa significante porção da memória do computador e a produção de novas estruturas de dados perante a solução do problema exaure rapidamente a memória remanescente. Conseqüentemente, o GPS é projetado apenas para solucionar problemas modestos cuja representação não é muito elaborada. Ainda que as memórias de computadores maiores atenuassem as extravagâncias do uso da memória do GPS, permaneceriam as dificuldades conceituais.73 O grande consumo de memória e dificuldades conceituais impediam que o GPS apresentasse a performance esperada por Newell, Shaw e Simon. Já nesta declaração Newell deixa claro que mesmo o aumento da memória da máquina não seria suficiente 72 73 Dreyfus, 1975, p.38. Newell apud Dreyfus, 1975, p. 51. para fazer com que o GPS pudesse dar conta do grande número de processamentos necessários para a solução de problemas de larga escala. Hoje em dia, temos computadores com memórias que são gigantescas se comparadas com as disponíveis em 1967 e, mesmo assim, ainda não chegamos perto de um solucionador de problemas em geral nos moldes do projeto do time da RAND Corporation. De fato, o maior problema estava em sua concepção de um solucionador de problemas artificial e da maneira como os humanos lidam com os problemas do dia-a-dia. Uma das grandes dificuldades conceituais dizia respeito ao reconhecimento de padrões. Esta, segundo Dreyfus, impedia o desenvolvimento dos programas na participação em jogos, na tradução de idiomas e na solução de problemas. O homem está continuamente exposto a um turbilhão de dados oriundos de seus sentidos, dos quais abstrai padrões pertinentes a sua atividade em determinado momento, como solucionar problemas, compreender e estruturar frases, e transitar pelo mundo. Assim, enquanto os softwares não forem capazes de perceber padrões, as conquistas na área de solução de problemas serão apenas resultado de triunfos técnicos isolados.74 Para ensinar um robô a dirigir um carro, por exemplo75, seria necessário instruí-lo a respeito da mecânica básica de um automóvel, da relação entre o freio, a embreagem e o acelerador, a baixar o freio de mão para arrancar, nunca ultrapassar o sinal vermelho, quando se deve ultrapassar um sinal amarelo, limites de velocidade das vias, significado de todas as possíveis placas de sinalização, dar preferência à passagem de um pedestre, sempre olhar no retrovisor antes de efetuar uma curva, diminuir a velocidade em dias de chuva, utilizar o freio motor ao descer uma ladeira, pagar a taxa de pedágio, desviar de buracos, estar atendo à distração dos outros motoristas, manter distância regulamentar, nunca ultrapassar pela esquerda, dar dinheiro ao flanelinha para que não arranhe a lataria do carro estacionado, não reagir e entregar o carro em um assalto, etc. E para tudo isto, o software precisaria ser capaz de reconhecer o que é um acelerador, um freio, uma embreagem, uma caixa de câmbio (sabendo diferenciar um câmbio normal de um automático), a diferença entre uma direção comum e uma hidráulica, distinguir uma via primária de uma secundária e de uma terciária, reconhecer os diferentes tipos de letras das mensagens escritas nas placas de sinalização, distinguir um buraco de uma mancha de óleo na pista, reconhecer os diferentes 74 Selfridge e Neisser apud Dreyfus, 1975, p.52. Ao inventarmos este exemplo tínhamos apenas o intuito de expressar a complexidade dos comportamentos mais corriqueiros dos humanos. Com ele não estamos fazendo referência a nenhum dos projetos da inteligência artificial. 75 tipos de linha que dividem as vias, saber quando é noite ou dia para o uso dos faróis, a quantidade de chuva necessária para o acionamento dos limpadores de pára-brisa, etc. Este exemplo ilustra que atividades corriqueiras, como dirigir um automóvel, necessitam do reconhecimento de um grande número de padrões e demandam o conhecimento de uma série de informações. Assim, para que um computador possa apresentar comportamento inteligente semelhante ao do humano ao resolver problemas, os programadores devem necessariamente alimentá-lo com todos os conhecimentos, conscientes e inconscientes76, de um homem que dirige, por exemplo. É por isto que os softwares apresentavam um bom desempenho em situações bastante específicas, onde se é possível encontrar um número limitado e ao mesmo tempo suficiente de informações acerca do ambiente e passá-las para a linguagem de máquina. 2.4 O desempenho dos computadores em jogos de xadrez Jogos simples como o “jogo da velha”, ou o jogo de damas, possuem apenas algumas regras e um número limitado de jogadas possíveis. Este fato permitiu que os programadores obtivessem êxito ao implementá-los em computadores; no jogo da velha, logo conseguiram fazer a máquina ganhar ou no mínimo empatar em todas as partidas contra jogadores humanos. No jogo de damas eles verificaram que havia meios seguros de se determinar o provável valor de cada pedra do tabuleiro, em função de certos parâmetros como o controle da posição central, avanços, etc. Uma vez que neste jogo as pedras se bloqueiam reciprocamente, e as capturas são forçadas, foi possível circunscrever os movimentos plausíveis em um número de vinte possibilidades, o suficiente para um jogo excelente.77 O mesmo já não se aplica ao jogo de xadrez. Apesar de haver um número relativamente pequeno de regras, e movimentos determinados para cada tipo de peça, o número de jogadas possíveis a partir de determinada configuração do tabuleiro cresce exponencialmente. Aquele que está familiarizado com o jogo sabe que um bom jogador, antes de efetuar o movimento de uma peça, deve prever as conseqüências de sua jogada – quais os possíveis movimentos de seu adversário, e seus possíveis movimentos em função 76 Utilizaremos doravante a palavra inconsciente algumas vezes, sempre fazendo menção àquilo que não está disponível à consciência em determinado instante. Optamos por simplificar o sentido deste termo, descartando qualquer significado de cunho psicanalítico, de modo a não fugir do escopo deste trabalho. 77 Dreyfus, 1975, pp. 56-57. dos dele, o que lhe exige uma grande quantidade de cálculos para o movimento de apenas uma peça. Os deslocamentos alternativos multiplicam-se tão rapidamente que não podemos sequer explorar todas as possibilidades ramificadas o suficiente para formar um critério válido quanto a se determinada ramificação é suficientemente promissora para merecer maior exploração. Newell observa que se levaria demasiado tempo para achar um movimento interessante se a máquina tivesse de examinar os movimentos possíveis de cada uma das pedras do tabuleiro, umas após as outras. Ele também está ciente de que, se isso não for feito, a máquina poderá omitir, alguma vez, uma combinação importante e original. “Não queremos que a máquina gaste todo o seu tempo examinando futuros atos de homens comprometidos; entretanto, se ela jamais tivesse de fazer isso, poderia estar desprezando oportunidades reais.”78 Um ser humano, segundo Dreyfus, é capaz de considerar até 200 movimentos. Um programa chamado “MacHack”79, ao buscar a melhor jogada para uma difícil partida de um torneio que participava, considerou, calculando durante quinze minutos, 26.000 alternativas. MacHack não considerou todos os movimentos possíveis – pois fora programado com um gerador de movimentos plausíveis, que limitava-os em função de outros mais promissores –, mas foi capaz de realizar uma excelente jogada. Porém, qualquer mestre poderia ter feito melhor e, com certeza, precisaria considerar um número muito menor de possibilidades. Isto indica que seres humanos, ao jogar xadrez, fazem algo diferente do que apenas considerar alternativas; mas que ação é esta que eles praticam que os permite, “enquanto consideram 100 ou 200 alternativas, descobrir movimentos mais brilhantes do que o computador, mesmo trabalhando este com 26.000 alternativas?”80 Geralmente, os mestres em xadrez olham para o tabuleiro e as boas possibilidades simplesmente “brotam” – e aí então é que começam a avaliar. Fica claro, portanto, que a heurística do homem é completamente diferente da dos computadores. Mas a pergunta ainda não foi respondida; vejamos qual a solução que Dreyfus irá propor: O jogador humano, do qual estamos examinando o protocolo, não está ciente de ter considerado explicitamente, ou excluído explicitamente de consideração nenhuma das centenas de possibilidades que ele deveria ter enumerado para chegar, por meio de cálculos, a uma determinada área relevante do tabuleiro. Contudo, a porção específica do tabuleiro que finalmente atraí a atenção do sujeito depende da posição global. Para 78 Ibidem, p. 57. Dreyfus não especifica a data em que foi criado o software, mas já fala dele no livro que lançou em 1971. Assim, o MacHack provavelmente foi criado no final da década de 60. 80 Ibidem, p. 59. 79 entender como isto é possível, devemos considerar o que William James chamou de “as bordas da consciência”: o tic-tac de um relógio que percebemos somente se ele pára oferece um simples exemplo deste tipo de percepção marginal. Nossa vaga consciência de rostos numa multidão quando procuramos por um amigo é um outro caso, mais complexo e mais apropriado.81 Quando um homem joga xadrez, ele não precisa avaliar todas as jogadas possíveis e imagináveis para movimentar uma peça, e é isto que a análise dos protocolos demonstra. Ele simplesmente “sabe” que muitas possibilidades não precisam ser levadas em consideração, e que outras podem levar a um bom lance. E isto não parece ser resultado de um grande número de cálculos, sejam eles realizados conscientemente pelo jogador ou resultado de processos inconscientes. Tudo indica que a ação de considerar determinada jogada como promissora envolva um tipo de percepção marginal, na qual existem vários elementos dos quais não estamos explicitamente conscientes. Muitas funções humanas utilizam informações que não são focalizadas explicitamente, e isto parece assinalar uma diferença fundamental entre um homem e uma máquina: as operações mais fundamentais dos computadores digitais são de natureza binária, portanto todas as funções que a máquina pode executar devem ser suficientemente específicas e explícitas para ter resposta “sim” ou “não”. Esta diferença essencial é justificativa para a baixa performance dos computadores no jogo de xadrez que, mesmo a partir da “força bruta” – ou seja, através de um gigantesco número de cálculos –, nunca foram capazes de vencer bons jogadores humanos. Porém, a partir de 12 de maio 1997 esta justificativa teria necessariamente de ser reavaliada: neste dia Garry Kasparov, o melhor enxadrista do mundo, perdera para Deep Blue – um supercomputador construído pela IBM especialmente para a participação em partidas de xadrez. O torneio composto de seis partidas teve resultado de 3½ a 2½ para Deep Blue: duas vitórias do computador, uma de Kasparov e três partidas empatadas. Capaz de avaliar 200.000.000 de posições por segundo – aproximadamente 7 milhões de vezes mais rápido que o MacHack, e mais de 210 milhões de vezes mais veloz do que Kasparov (que 81 “The human player whose protocol we are examining is not aware of having explicitly considered or explicitly excluded from consideration any of the hundreds of possibilities that would have had to have been enumerated in order to arrive at a particular relevant area of the board by counting out. Nonetheless, the specific portion of the board which finally attracts the subject’s attention depends on the overall position. To understand how this is possible, we must consider what William James has called “the fringes of consciousness”: the ticking of a clock which we notice only if it stops provides a simple example of this sort of marginal awareness. Our vague awareness of the faces in a crowd when search for a friend is another, more complex and more nearly appropriate, case.” Dreyfus, 1999, p. 103. Tradução minha. conseguia considerar no máximo três movimentos por segundo) –, através de um número brutal de cálculos Deep Blue desbancou o campeão mundial humano, e estabeleceu um marco para a humanidade82. Mas se um computador foi capaz de derrotar o melhor dos humanos em um jogo, poderíamos dizer que Dreyfus estava errado? Segundo ele, não: “eu nunca disse que tal vitória era impossível (...) eu ainda afirmo que nada do que escrevi ou disse sobre o xadrez estava errado”83. Seus argumentos, em última análise, sempre buscavam demonstrar que os homens funcionam de maneira diferente das máquinas, e que suas funções nunca poderiam ser simuladas integralmente em computadores. De fato, Deep Blue utilizava métodos completamente diferentes dos de Kasparov para elaborar suas jogadas. Foi preciso inserir em seu banco de dados milhares de jogadas realizadas por grandes mestres de xadrez, muitas informações sobre o valor das peças no tabuleiro, sobre a eficiência de determinados movimentos, sobre aberturas e finais de jogos, estratégias de grandes campeões – como as do próprio Kasparov –, para que o Deep Blue pudesse calcular qual a jogada que, matematicamente, seria a melhor. Para tal empresa a equipe de desenvolvimento da máquina contou com o auxílio de um grande mestre de xadrez chamado Joel Benjamim – três vezes campeão júnior dos Estados Unidos, campeão norte americano em 1987, e três vezes campeão da Harvard Cup, na qual mestres de xadrez jogavam contra computadores. O Deep Blue foi resultado de muito esforço, estudo e trabalho; mesmo assim, a abertura do jogo (primeiros movimentos) tinha de ser escolhida por seus criadores, humanos – que, observando a situação da partida com relação ao torneio como um todo, estabeleciam a estratégia inicial de Deep Blue. Foi através de uma heurística completamente diferente da humana que o computador venceu o campeão mundial de xadrez. E assim Dreyfus, que mesmo diante dos fatos ainda demoraria a se convencer de que realmente a máquina era melhor que o homem 82 Informações obtidas no site <http://www.research.ibm.com/deepblue/home/html/b.html>. Diversas informações, como entrevistas com Kasparov, com os criadores do Deep Blue, e detalhes sobre a célebre partida de 1997 podem ser encontradas neste endereço. 83 De acordo com um documento escrito pelo autor e endereçado a Daniel Denneth em 27 de maio de 1997. “But I have never said that such a chess victory was impossible or even "almost certainly impossible." I said that a chess master looks at only a few hundred plausible moves at most, and that the AI people would not be able to make a program, as they were trying to do in the 60s and 70s, that played chess by simulating this ability. I still hold that nothing I wrote or said on the subject of chess was wrong. The question of massive brute-force calculation as a way of making game playing programs was not part of the discussion, and heuristic programs without brute force did seem to need, and still seem to need, more than explicit facts and rules to make them play better than amateur chess. But I grant you that, given my views, I had no right to talk of necessity”. Hubert Dreyfus, disponível em <http://slate.msn.com/id/3650/entry/23906/>. no xadrez84, podia afirmar que seus argumentos permaneciam válidos. Afinal, Deep Blue ainda não pensava, e muito menos entendia alguma coisa sobre o jogo de xadrez. 2.5 O teste de Turing Já que, com base nas afirmações de Dreyfus, falamos que o Deep Blue não pensava, o momento se faz oportuno para uma referência ao teste elaborado por Alan Turing em 1950, pouco antes de seu suicídio. Imaginemos o seguinte jogo85, do qual participam três pessoas: um homem (A), uma mulher (B) e um interrogador (C) – que pode ser de qualquer sexo. A e B ficam em uma sala separada de C que, não vendo nem ouvindo os dois primeiros, tem a tarefa de descobrir quem é o homem (X) e quem é a mulher (Y). Para isto C interroga A e B, elaborando perguntas sobre suas características pessoais – como o comprimento do cabelo, das unhas, tamanho do pé, etc. O fundamental para a realização deste teste é que o interrogador não tenha nenhum tipo de contato com A e B; conseqüentemente, as respostas devem ser sempre fornecidas de maneira neutra, através de um teletipo, repetidas por um intermediário ou então datilografadas (estes eram os recursos disponíveis na época, e que hoje poderiam muito bem ser substituídos por um monitor, uma CPU e um teclado). O objetivo de A no jogo é o de induzir C ao erro, ou seja, de leválo a identificar-lhe ao final do teste como sendo uma mulher (Y) e B como homem (X). Inversamente, o participante B tem o objetivo de ajudar ao interrogador a identificá-lo como Y. Agora façamos a seguinte pergunta: o que aconteceria se colocássemos uma máquina no lugar do participante B? O interrogador seria capaz de facilmente identificar quem é o homem e quem é a máquina? Em 1950 ainda não havia meios de programar em um computador o teste de Turing, mas a questão já estava lançada: se uma máquina fosse capaz de “enganar” um humano, fazendo-o errar em seu julgamento, então poderíamos afirmar que as máquinas são capazes de pensar? Se na maioria das vezes o interrogador errar na identificação, é porque fora então incapaz de diferenciar um homem de uma 84 “There is a growing consensus among chess masters that Kasparov may well have thrown the match in order to promote a tiebreaker. We'll know for sure if Deep Blue is really better if there is a playoff”. Hubert Dreyfus, disponível em <http://slate.msn.com/id/3650/entry/23906/>. 85 Para mais detalhes sobre o teste de Turing, cf. TURING, Alan M. Computing Machinery and Intelligence. 1950. Disponível em <http://www.abelard.org/turpap/turpap.htm>. máquina. Em outras palavras, diríamos que o computador foi capaz de se passar por um homem. Este mesmo teste ganha uma nova versão quando, em um jogo de xadrez pelo computador, a tarefa passa a ser a de identificar se o oponente é um software ou um humano. Ou seja: um sujeito que joga uma partida de xadrez contra um oponente do qual desconhece a natureza, deve adivinhar, a partir dos movimentos deste, se ele é um homem ou uma máquina. Caso a máquina várias vezes engane o homem, seja no “teste de Turing” ou no “teste de xadrez de Turing”, somos conduzidos à seguinte questão: podem as máquinas pensar?86 Professor Jefferson, de acordo com Turing, afirma que enquanto uma máquina não for capaz de compor um concerto com base em pensamentos e sentimentos, tendo ciência de que escrevera um concerto, não poderíamos aceitar sua equivalência com o cérebro humano87. Computadores não sentem prazer ao obter sucesso, não se culpam por seus erros e não se deprimem por não conseguirem o que querem. Alan Turing utiliza-se estrategicamente deste argumento para dizer que em sua base está a noção de que precisaríamos ser uma máquina para sabermos se uma máquina sente ou não. De acordo com esta perspectiva, continua Turing, a única maneira de saber se o homem pensa é ser um homem em particular – o que constitui um ponto de vista solipsista. Levando esta noção ao extremo, apenas seriamos capazes de ter certeza sobre nosso próprio pensamento, e nunca poderíamos afirmar que determinada pessoa pensa, pois para isto precisaríamos estar em sua pele. Desta forma não sairíamos do lugar, e a alternativa mais elegante é assumirmos que todos os homens pensam. Isto levou Turing a afirmar que “a maioria daqueles que mantém o argumento da consciência deveria ser persuadida a abandoná-lo, do que ficar em uma posição solipsista”.88 Marvin Minsky também nos aconselha a desistir da discussão acerca da consciência: 86 Existem diversos tipos de máquinas, e por isto Turing (1950) disse que usaria o termo para referir-se apenas aos computadores digitais. Com relação ao teste de xadrez de Turing, se fosse feito nos dias de hoje provavelmente teríamos uma situação contrária, onde, quanto mais elaboradas fossem as jogadas, mais certo estaríamos de que o oponente se tratava de uma máquina – uma vez que estamos acostumados a ser superados por elas na maioria dos jogos de versão eletrônica. 87 "Not until a machine can write a Bonnet or compose a concerto because of thoughts and emotions felt, and not by the chance fall of symbols, could we agree that machine equals brain-that is, not only write it but know that it had written it. No mechanism could feel (and not merely artificially signal, an easy contrivance) pleasure at its successes, grief when its valves fuse, be warmed by flattery, be made miserable by its mistakes, be charmed by sex, be angry or depressed when it cannot get what it wants." Professor Jefferson apud Turing, 1950, pp.445-446. 88 “I think that most of those who support the argument from consciousness could be persuaded to abandon it rather than be forced into the solipsist position.” Ibidem. Tradução minha. Até as pessoas mais sofisticadas tecnicamente afirmam que, seja a consciência o que for, ela tem uma qualidade que a coloca categoricamente fora do reino da ciência, a saber, uma marca subjetiva que a torna completamente privada e inobservável. Por que tantas pessoas acham que a consciência não pode ser explicada nos termos científicos atuais? Ao invés de discutir sobre este assunto, tentemos entender a fonte desta atitude cética. Constatei que muitas pessoas afirmam que, mesmo que uma máquina seja programada para se comportar da mesma maneira que o homem, ela ainda não teria uma experiência subjetiva. Mas não seria esta uma estranha crença, se considerarmos que você precisaria ser uma máquina para saber tal coisa? (...) uma clássica questão na filosofia é pedir uma prova de que nossos amigos têm mentes; talvez eles sejam meras máquinas sem sentimento. Mas então deveríamos perguntar como é que eles sabem mentir.89 2.6 O quarto chinês de John Searle John Searle, cogitando sobre a capacidade de pensar e compreender dos computadores, elaborou a “célebre experiência de pensamento” chamada “o quarto chinês”: Imaginemos, sugere ele, que eu, que não entendo nada de chinês, seja trancado num quarto com, à minha disposição, um reservatório de caracteres chineses e um programa, escrito em minha língua materna (o inglês ou o francês), de manipulação dos ditos caracteres; graças às instruções de meu programa, forneço-lhes respostas sob a forma de outras seqüências, que mando para fora do quarto. O sistema entrada-saída que funcione desta maneira é, colocado sob o véu do jogo da imitação, indistinguível de um chinês que respondesse às perguntas que lhe são propostas compreendendo o que faz. É, porém, claro que nem eu nem o sistema constituído pelo quarto podemos pretender ter pensado o que 89 Even the most technically, sophisticated people maintain that whatever consciousness might be, it has a quality that categorically places it outside the realm of science, namely, a subjective character that makes it utterly private and unobservable. Why do so many people feel that consciousness cannot be explained in terms of anything science can presently do? Instead of arguing about that issue, let's try to understand the source of that skeptical attitude. I have found that many people maintain that even if a machine were programmed to behave in a manner indistinguishable from a person, it still could not have any subjective experience. Now isn't that a strange belief -- considering that unless you were a machine yourself, how could you possibly know such a thing? (…) a classic question in philosophy is asking for proof that our friends have minds; perhaps they are merely unfeeling machines. But then one must ask how they'd know how to lie. Marvin Minsky, Conscious Machines, disponível em <http://kuoi.asui.uidaho.edu/~kamikaze/doc/minsky.html>. Tradução minha. fazíamos. A manipulação ordenada dos símbolos poderá no máximo simular a produção e a comunicação de sentido; jamais poderá realizálas. 90 Retomemos agora a questão anterior, à qual faremos um adendo: podem as máquinas pensar e compreender? Dreyfus afirmaria, categoricamente, que não. Para ele, funções mentais como o pensamento e a compreensão envolvem diversos fatores além do processamento simbólico, e não faz sentido falar delas sem que se considere o papel essencial do contexto em qualquer ação humana. Mesmo que Deep Blue consiga derrotar o melhor homem do mundo no jogo de xadrez, tudo o que ele faz é resultado de uma programação – uma série estruturada de regras. Da mesma maneira, um software capaz de decodificar instruções verbais ou escritas não compreende de fato o que lhe é dito: apenas identifica strings – séries de caracteres alfanuméricos – previamente armazenadas em seu banco de dados. Softwares não compreendem de fato as palavras utilizadas; simplesmente estão construídos de tal modo que determinadas palavras-chave desencadeiam respostas fixas e previamente estipuladas pelos programadores91. 2.7 Processamento de informação semântica A posição de Dreyfus com relação à compreensão lingüística dos computadores pode ser ilustrada a partir de seus comentários sobre o Student – software concebido por Bobrow (do qual já falamos no capítulo anterior), que era capaz de “compreender” a linguagem humana. O autor comenta que o sentido dado por Bobrow à palavra “compreender” permite afirmar que uma máquina que apenas respondesse “sim” à pergunta “você está ligada?” estaria entendendo inglês.92 Mas Bobrow é cauteloso o suficiente para admitir que programas capazes de compreender grandes segmentos da língua inglesa levariam tempo para serem escritos. Contudo, para ele, o Student comprovava a possibilidade de construir máquinas dotadas de compreensão93, constituindo um primeiro passo em direção a uma comunicação de linguagem natural com computadores. 90 John Searle, Minds, Brains and Programs, apud Dupuy, 1996, p.40. Grifos no original. Gardner, 1987, p.177. 92 Dreyfus, 1975, nota 31, p. 300. 93 Daniel Bobrow, Natural Language Input for a Computer Problem Solving System, p. 194, apud Dreyfus, 1975. 91 Dreyfus diz que o otimismo com relação à capacidade lingüística das máquinas baseia-se no pressuposto metafísico fundamental, no que tange à natureza da linguagem e ao comportamento humano inteligente, de que qualquer comportamento ordenado pode ser, em princípio, formalizado e processado por computadores digitais. A partir desta perspectiva todas as dificuldades são encaradas como resultado de limitações tecnológicas, como a pequena capacidade de armazenamento de informações, e que um dia seriam naturalmente superadas. Marvin Minsky – que não achava produtivo tentar definir palavras como “significar” e “compreender”94 – era extremamente otimista com relação ao avanço da tecnologia e à dissolução dos obstáculos da IA: dentro de uma geração ... poucos compartimentos do intelecto permanecerão fora do domínio da máquina – o problema de criar a “inteligência artificial” será substancialmente solucionado.95 Dreyfus repetidamente iria afirmar que os seres humanos não lidam com uma massa de fatos isolados, como os computadores digitais, e não precisam de regras heurísticas para lidar com o cotidiano. As dificuldades com as quais se deparam os pesquisadores da simulação cognitiva e da IA não existem para o homem que transita no mundo, pois este não é um processador digital de informações. Sistemas como o Student são hábeis ao lidar com “micro-mundos” – ambientes restritos dos quais se é possível especificar um grande número de componentes. Mas a passagem de um micro-mundo para o mundo real exige muito mais do que os engenheiros da IA costumavam desejar. Qualquer humano que seja apto a conversar tem de estar preparado para a imprevisibilidade de uma conversa e para os sentidos ambíguos e figurados das palavras. Isto não costuma se constituir de um grande obstáculo para nós; porém, para a IA, tornar isto programável é justamente um dos maiores desafios. A capacidade de criar sistemas capazes de lidar com micro-mundos não era o foco das críticas de Dreyfus, que dirigiam-se prioritariamente às falsas esperanças de que as conquistas com relação a softwares especialistas indicavam que os programas generalistas logo estariam por nascer. 94 Then dare we say that STUDENT "understands" those words? Why bother. Why fall into the trap of feeling that we must define old words like "mean" and "understand"? It's great when words help us get good ideas, but not when they confuse us. Marvin Minsky, Why People Think Computers Can’t, disponível em <http://web.media.mit.edu/~minsky/papers/ComputersCantThink.txt>. 95 Marvin Minsky, Computation: Finite and Infinite Machines, p.2, apud Dreyfus, 1975, p. 111. Papert e Minsky consideraram o SHRDLU (do qual também falamos no primeiro capítulo) como um grande avanço em direção à compreensão artificial da linguagem natural. Lembremos que este programa simulava um braço mecânico que era capaz de manipular blocos a partir de instruções humanas. Uma vez que era capaz de estabelecer um “diálogo” com o humano que o operava, lidando com sintaxe, semântica e uma série de informações a respeito de blocos, Winograd, assim como Bobrow, afirmava que seu programa também era capaz de compreender a linguagem em seu domínio específico. Dreyfus diz que se um grande avanço quer dizer ser mais geral que seus predecessores, então SHRDLU, uma vez que não mais depende para sua análise da linguagem natural de limitações externas do tipo que era essencial para o Student de Bobrow, é sim um grande avanço (...) Mas se “um grande avanço” significar que um passo fora dado com relação às estruturas cognitivas básicas necessárias para a compreensão do dia-a-dia (...) então nenhum progresso pode ser anunciado96. O mecanismo de “compreensão” lingüística de SHRDLU era muito mais sofisticado que o do Student, impondo menos restrições às instruções dadas pelos humanos. Ele emitia respostas como “OK” quando “compreendia” as instruções, ou pedia esclarecimento quando lhe pareciam ambíguas, como “eu não entendi a qual bloco você está se referindo”. Também respondia “eu não sei” para perguntas fora de seu domínio, e “eu não posso”, quando determinada instrução não podia ser realizada. Tanto Bobrow quanto Winograd afirmavam que seus programas eram capazes de compreender a linguagem humana porque, para eles, existem vários níveis de compreensão – as máquinas não possuíam o alto grau de entendimento de um ser humano, mas podiam compreender uma série de informações relacionadas aos “micro-mundos” para os quais foram concebidas. A questão parece estar, portanto, no sentido da palavra “compreensão”. Para Dreyfus não cabe a nenhum dos dois lados do debate estabelecer o que significa compreender. E, antes de falar sobre graus de compreensão, deve ficar claro que este termo necessariamente está vinculado a ações do tipo “perguntar”, “responder”, “saber”, etc., que existem, ou não existem – não há graus para o estabelecimento de uma pergunta: ela é feita, ou não. Da mesma forma, o sujeito responde ou não, sabe ou não 96 If being a major advance means being more general than its predecessors, then SHRDLU, since it no longer depends for its analysis of language on external constraints of the sort essential to Bobrow’s STUDENT, is a major achievement (…) If, however, “a major advance” means that a step has been made in dealing with the basic cognitive structures needed to cover everyday understanding (…) then no progress at all can be claimed.” Dreyfus, 1999, pp. 7-8. sabe. Assim, apesar do SHRDLU emitir respostas, ele não compreende o que fez, não sabe o que está de fato respondendo a uma pergunta. Além disto, o fato deste software ser capaz de operar sobre um micro-mundo – composto por elementos extremamente simples – não é suficiente para indicar suas habilidades com relação ao mundo real. Dissemos no capítulo anterior que a década de 1970 marca a passagem de sistemas generalistas para os especialistas; agora completaremos esta afirmação dizendo que a noção de micro-mundo está intimamente relacionada a esta mudança (os frames de Minsky, por exemplo, nada mais são do que micro-mundos). Os softwares somente podem operar sobre elementos previamente estipulados, uma vez que são sempre programados. Quando ocorre determinada entrada de dados que não havia sido prevista pelo programador, o programa simplesmente “trava”, pois não tem instruções sobre como lidar com tais informações. Uma vez que o ambiente com o qual o homem está em contato em sua vida diária é extremamente rico e complexo, seria necessário dividí-lo em uma série de micro-ambientes, que pudessem ser analisados isoladamente do mundo. As teorias físicas do universo, por exemplo, são construídas a partir da análise de sistemas simples e isolados, dos quais se faz modelos cada vez mais complexos e integrados. Isto é possível, segundo Dreyfus, porque todos os fenômenos são presumivelmente resultado de um conjunto de elementos básicos organizados a partir de uma determinada série de leis.97 Assim, à medida que estas estruturas básicas fossem agrupadas em sistemas cada vez mais complexos, os softwares gradualmente ficariam mais abrangentes e aptos a lidar com um maior número de micro-mundos. Porém, Dreyfus alerta que em nossa vida diária estamos em contato com vários “sub-mundos”, como o do trabalho, do teatro, da matemática, da casa, do clube, etc., mas cada um destes é na realidade apenas um “modo” de nosso mundo diário. O mundo do homem não é o resultado da soma de todos os sub-mundos; o todo fenomenológico é sempre maior do que a soma das partes. Neste ponto as considerações de Martin Heidegger em Ser e Tempo servem como uma luva, principalmente as que compõem o terceiro capítulo, intitulado “a mundanidade do mundo”. Resumidamente, o termo mundo admite alguns significados: (1) usado como conceito ôntico ele representa a totalidade dos entes que podem se dar dentro do mundo; (2) em seu sentido ontológico, pode determinar uma região específica na qual está uma multiplicidade de entes, como o caso do “mundo da matemática” que é habitado por entes como números, expressões, fórmulas e teoremas; por 97 Ibidem, p. 13. fim, (3) mundo designa o conceito existencial-ontológico da mundanidade: diferente dos outros entes, o homem é mundano, é impregnado de mundanidade, o que faz com que Heidegger o chame de Dasein (literalmente “ser-aí” ou “ser-no-mundo”).98 O mundo como resultado da soma de micro-mundos poderia ser concebido apenas nos sentidos ôntico e ontológico; a mundanidade se reserva apenas para o Dasein, pois ele é, segundo Heidegger, o único ente propriamente dotado de existência99. Esta diferença é marca da perspectiva fenomenológica, da qual partilham autores como Heidegger e Merleau-Ponty, que serão, no capítulo que se segue, convidados a participar de nosso debate. Antes de trazermos as contribuições da fenomenologia, sintetizaremos a discussão apresentada até aqui com uma breve exposição das concepções básicas dos projetos da IA, e com uma análise de Dreyfus sobre o que ele concebe como os quatro pressupostos fundamentais da inteligência artificial com relação à mente, o cérebro e ao conhecimento destes. 98 De acordo com Heidegger, 2002, pp.105-106. Voltaremos a falar sobre o conceito de mundo para Heidegger. 99 Cf. os itens (N2), (N3), (N4) e (N5) das páginas 310 e 311 de Ser e Tempo. 3 Duas formas de conhecer o homem e o mundo: a ciência e seus modelos, a fenomenologia e o ser-no-mundo Galileu e seus sucessores pensam a ciência como capaz de descobrir a verdade global da natureza. Não somente a natureza é escrita numa linguagem matemática decifrável pela experimentação, como essa linguagem é única; o mundo é homogêneo: a experimentação local descobre uma verdade geral. Os fenômenos simples que a ciência estuda podem desde logo entregar a chave do conjunto da natureza, cuja complexidade não é mais que aparente: o diverso reduz-se à verdade única das leis matemáticas do movimento.100 Desde a época de Galileu temos a tentativa de explicar a natureza a partir de um paradigma mecanicista, aposta que deu início à ciência física moderna. Os fenômenos naturais passaram a ser explicados em função de leis formais, descobrindo-se a linguagem matemática a partir da qual o mundo fora escrito. Hoje a ciência, encarnada em artefatos tecnológicos, tem forte voz de autoridade em nossa cultura. Nenhuma outra prática ou instituição humana até hoje apresentou tamanha confiabilidade em suas demonstrações e publicações. No caso das ciências cognitivas, esses artefatos são máquinas capazes de “pensar” e agir, cada vez mais sofisticadas, e com o potencial de transformar a vida cotidiana muito maior do que o dos livros de filosofia e ciências sociais.101 A ciência prossegue firme e resoluta por causa desse seu elo pragmático com o mundo dos fenômenos. Sua validação é, na realidade, derivada da eficácia deste elo. A tecnologia, dentre outras coisas, age como um amplificador de seus construtos, e não se poderia separar as ciências cognitivas e a tecnologia cognitiva sem roubar de uma ou de outra seu elemento complementar vital. Através da tecnologia temos uma exploração 100 101 Prigogine, 1984, p.32. De acordo com Varela et al., 2003, capítulos 1 e 2. científica da mente bem mais ampla que a proporcionada pelo filósofo ou psicólogo, ou qualquer outro pesquisador que utilize insights como modo de avaliação da própria experiência. Durante milênios os seres humanos tiveram uma compreensão espontânea de sua própria experiência; agora, entretanto, essa compreensão popular espontânea tornou-se inextricavelmente ligada à ciência, e transformada por suas explicações.102 Os postulados científicos são hoje tão dominantes que concedemos a eles a autoridade de explicar nossa experiência cotidiana, imediata – mesmo quando negam exatamente aquilo que nos é mais direto. Com isso, a maior parte das pessoas tomaria como verdade fundamental a explicação científica da matéria/espaço em termos de coleções de partículas atômicas, enquanto trataria o que é dado na sua experiência imediata, com toda a sua riqueza, como algo menos profundo e menos verdadeiro. Ainda, quando relaxamos no imediato bem-estar físico de um dia ensolarado ou da tensão física de uma corrida ansiosa para pegar um ônibus, essas explicações de matéria/espaço esvanecem no background como abstratas e secundárias103. 3.1 Os modelos na ciência Para Dupuy104, se o cientista é um Homo faber, é porque ele é quem concebe e fabrica modelos. Segundo este autor, um modelo é uma forma abstrata, que vem encarnarse ou realizar-se nos fenômenos, permitindo representar, imitar, repetir e reproduzir o mundo fenomenal. Simon afirmava que o propósito de uma ciência natural é de “trivializar o maravilhoso: mostrar que a complexidade, corretamente observada, não é mais que um disfarce da simplicidade; encontrar o padrão escondido no caos aparente”105. Assim, o projeto da ciência seria o de revelar a simplicidade da constituição dos fenômenos, com o auxílio de modelos. Entretanto, alguns autores106 nos alertam do caráter mais produtivo que reprodutivo do procedimento científico. A partir desta concepção – de que há, mais do que um 102 Ibidem, pp. 23-24. Ibidem, p. 30. 104 Dupuy, 1996, p.23. 105 Simon, 1981, p.21. 106 Com o exemplo de Bruno Latour, Ilya Prigogine e Isabelle Stengers. 103 desvelar, um fazer na atividade científica107 – os modelos podem ser vistos como resultado de um ato construtivo subjacente ao procedimento científico. Campos muito diferentes da realidade fenomenal, como a hidrodinâmica e a eletricidade, a luz e as vibrações sonoras podem ser representados por meio de modelos idênticos, o que estabelece entre eles uma relação de equivalência. O modelo é a classe de equivalência correspondente. Isso lhe confere uma posição de sobrepujança, como uma Idéia platônica cujo real não é mais que a pálida cópia. Mas o modelo, na ciência, é o que o homem faz. Aí está como se dá a sobreposição do imitante e do imitado. O modelo científico é uma imitação humana da natureza que o cientista logo toma como “modelo” – no sentido comum – desta. 108 Os modelos, que abstraem do mundo sistemas de relações formais e funcionais – que são consideradas pelos cientistas como as únicas pertinentes –, pondo “entre parênteses” tudo o que não depende desse sistema, acabam por adquirir certa vida própria, uma dinâmica autônoma desligada da realidade fenomenal. Em sua atividade modelizadora, de acordo com Dupuy, o cientista projeta sua mente no mundo das coisas, estabelecendo algo que é tão mais puro, tão melhor controlável do que o próprio mundo dos fenômenos. Devido a sua clareza na exposição desta característica do exercício científico, traremos mais uma vez as palavras de Dupuy: Conhecer é produzir um modelo do fenômeno e efetuar sobre ele manipulações ordenadas. Todo conhecimento é reprodução, representação, repetição, simulação. Isso, como vimos, caracteriza o modo científico, racional de conhecimento. As ciências cognitivas fazem desse modo o modo único de todo conhecimento. Para elas, todo “sistema cognitivo” se relaciona com o mundo como o cientista com o seu objeto. Não é de espantar que a noção de representação ocupe um lugar central na ciência da cognição. A analogia, porém, é ainda mais profunda. Seja um sistema cognitivo material: cientista, homem, animal, organismo, órgão, máquina. O que faz que esse sistema conheça por modelos e representações deve ele próprio ser modelizado, abstraindo-se do substrato matéria, diferente a cada vez, o sistema de relações funcionais responsável pela faculdade de conhecer. (...) Isso lhe confere um controle que ele não ousaria pretender sobre os próprios fenômenos. Controle explicativo e preditivo, em primeiro lugar, graças ao poder da ferramenta matemática. Esta dá à exploração das propriedades do modelo – exploração que assume a forma de experiências de pensamento – uma eficiência, uma rapidez e uma elegância que a experimentação feita sobre o mundo fenomenal nunca alcançará.109 107 Conforme Dupuy, 1996, p.22. Ibidem, p.23-27. 109 Ibidem, p.23. 108 Os cibernéticos estavam à procura de um modelo funcional da mente – McCulloch, por exemplo, buscava um modelo capaz de estabelecer relações de equivalência entre os neurônios e os relés eletrônicos. O pessoal da IA procurava um modelo – computacional – para a inteligência humana, a partir do qual seria possível construir artifícios dotados desta mesma faculdade. Herbert Simon – como vimos, um dos fundadores da IA –, norteara tanto sua vida profissional quanto pessoal pelo princípio de que o melhor modelo para o pensamento é o computador digital. Em uma de suas principais obras, As Ciências do Artificial, Simon coloca que o mundo em que vivemos hoje é muito mais artificial – fabricado pelo homem – que natural: a temperatura é controlada por refrigeradores de ar, a umidade é acrescentada ou retirada do ar que respiramos, e as impurezas que inalamos são na maior parte produzidas ou filtradas pelo homem110. O autor define artificial como tudo aquilo que é produzido mais pela arte que pela natureza; não genuíno ou natural; afetado; não pertencente à essência do objeto. (...) Sinônimos: afetado, factício, manufaturado, fingido, simulado, falsificado, forjado, não natural; (...) antônimos: real, genuíno, honesto, natural, verdadeiro, sincero. (...) Uso o termo “artificial” de forma tão neutra quanto possível, significando “fabricado pelo homem” por oposição a natural.111 Diferente de uma ciência do natural, que se constitui de um corpo de conhecimentos acerca de uma classe de seres do mundo, ocupando-se de suas características e propriedades, Simon propõe uma ciência do artificial: conhecimento acerca de fenômenos e objetos artificiais. Esclarecendo a distinção entre o natural do artificial, o autor coloca que (1) as coisas artificiais são sintetizadas pelo homem, (2) podendo ter a aparência de naturais e carecendo em muitos aspectos da realidade destas; (3) os objetos artificiais podem ser caracterizados em termos de objetivos, funções, adaptações, e (4) são normalmente discutidos, particularmente durante a concepção, em termos imperativos assim como descritivos. No capítulo anterior vimos que, para Simon, um artefato é o ponto de encontro, a interface, entre um ambiente interno – a substância e organização do próprio artefato – e um ambiente externo – as condições em que o artefato funciona. O aspecto funcional dos objetos artificiais – o cumprimento de determinado propósito ou a adaptação a certo objetivo – envolve uma relação de três termos: “o propósito ou objetivo, o caráter do 110 111 Simon, 1981, p. 23. Ibidem, p. 25. artefato, e o ambiente em que ele funciona”112. Para as ciências naturais, o que é relevante na análise do objeto são os ambientes externo e interno; já para uma ciência do artificial, é justamente a interface entre a substância e o meio que será o foco de análise. As ciências naturais têm bastante a contribuir no estudo dos objetos artificiais, uma vez que fornecem meios de conhecer sua composição e o ambiente onde funcionam. Simon ilustra esta afirmação com o seguinte exemplo: “dado um avião, ou dada uma ave, podemos analisálos pelos métodos das ciências naturais sem qualquer atenção especial a propósitos ou adaptações, sem referência à interface entre o que chamamos de ambiente interno e externo”113. De igual maneira, o modo de pensar os artefatos é também aplicável a muitas coisas não fabricadas pelo homem, pois esta perspectiva demonstra-se útil na compreensão de todas as coisas consideradas adaptadas a situações. Com um conhecimento mínimo do ambiente interno, e com o conhecimento do ambiente externo e dos objetivos do sistema, diz Simon, é possível estabelecer modelos e prever alguns comportamentos: aviões e aves, completamente diferentes em seu meio interno, realizam objetivos semelhantes em ambientes externos semelhantes – voam no céu. Da afirmação acima, chegamos ao objetivo maior de Simon: desenvolver máquinas capazes de, em ambientes externos semelhantes – mesmo que dotadas de um ambiente interno completamente diferente –, realizar comportamentos adaptados e semelhantes ao do homem. De acordo com ele, para muitos de nós a parte mais significativa do ambiente consiste principalmente em seqüências de artefatos chamados símbolos, que recebemos pelos olhos e ouvidos – na forma de linguagem escrita ou falada –, e que introduzimos no ambiente – falando e escrevendo. Foi sua concepção de que a inteligência é uma computação de símbolos, e que tanto o homem quanto o computador são sistemas simbólicos físicos, que inspirou sua caminhada rumo à constituição de autômatos artificiais inteligentes. A artificialidade inclui uma similitude perceptual e uma diferença essencial; assim, homens e computadores, que são essencialmente diferentes, poderiam, como aspirara Simon, apresentar comportamentos semelhantes. Devido a seu caráter abstrato e à generalidade da sua manipulação de símbolos, o computador digital alargou grandemente a classe de sistemas cujo comportamento pode ser imitado. Simon afirmou que a semelhança no comportamento de sistemas cujos interiores não são idênticos é particularmente realizável se os aspectos que nos interessam derivam da organização dos componentes, independentemente da maior 112 113 Ibidem, p.28. Ibidem, p.30. parte das propriedades dos componentes em si”. (...) Nenhum artefato concebido pelo homem é tão conveniente para este tipo de descrição funcional como o computador digital. As propriedades organizacionais são quase as únicas detectáveis no seu comportamento (quando funciona bem!) (...) Além disso, quase nenhuma asserção interessante que se possa fazer sobre um computador em funcionamento tem alguma relação particular com a natureza específica do hardware.114 Simon acreditava que “um homem, considerado como sistema de comportamento, é muito simples. A complexidade aparente do seu comportamento ao longo do tempo é em grande parte um reflexo da complexidade do ambiente em que se encontra.”115 Da mesma forma, o comportamento dos computadores é em grande parte governado por leis gerais e simples, e o que parecia ser uma complexidade do programa era, uma porção considerável, complexidade do ambiente a que o programa procurava adaptar o seu comportamento. O fracasso de seu General Problem Solver foi conseqüência da grande complexidade dos ambientes aos quais era exposto, e por isto a programação passou a buscar a construção de programas capazes de lidar com ambientes menores, mais simples e mais delimitados. Dividindo o ambiente em micro-mundos, teríamos a possibilidade de estabelecer conhecimentos mais específicos e determinados, e assim desenvolver softwares mais especializados e adaptados aos ambientes aos quais eram expostos. À medida que a tecnologia avançava, tanto no desenvolvimento do hardware quanto do software, os computadores tinham aumentada sua capacidade de apresentar comportamento inteligente e, neste sentido, aumentava também sua semelhança com o homem. A diferença entre o hardware de um computador e o hardware do cérebro não impedia que um largo espectro de formas do pensamento humano fosse encarnado em computadores. Esta “descorporização” da mente resultava da concepção de que tanto o computador quanto o cérebro, quando entregues à atividade de pensar, são sistemas que procuram se adaptar ao ambiente. 116 Sendo assim, os conhecimentos da neurofisiologia – campo que, como diz Simon, estuda o ambiente interno do sistema adaptativo chamado Homo Sapiens – são mais úteis para a compreensão dos limites de adaptação do homem – como a pequena capacidade da memória de curto prazo, por exemplo –, que para a explicação da organização e estrutura da mente. Portanto a psicologia, como uma ciência do artificial117, não precisaria esperar pelos avanços da neurobiologia para a explicação 114 Ibidem, pp. 46-47. Ibidem, p.148. 116 Ibidem, p.150. 117 Ibidem, p.107. 115 dos fenômenos psíquicos – por mais interessantes e significativos que possam ser os estudos da constituição e funcionamento dos neurônios. Esta hipótese de Simon dá aos computadores o estatuto de um utensílio óbvio para a exploração de teorias psicológicas. O computador se apresentará como esquema de explicação-duplicação do sujeito cognoscente sem que com isso se incorra nem no naturalismo nem no reducionismo materialista. Pois, dessa máquina depreende-se somente a sua organização informacional. Ela duplica a capacidade cognitiva do homem na medida em que as suas operações cibernéticas produzem o mesmo efeito de significação das operações mentais. Em ambos os casos, tem-se o funcionamento de um sistema simbólico que se mantém idêntico, esteja ele instanciado em bases neurológicas ou eletrônicas. Compreendendo como funciona a organização de um computador, chegase, conseqüentemente, a uma explicação do processamento cognitivo.118 A partir desta concepção sobre o computador e a cognição humana, retratada nas palavras de Passos, não parece exagerada a previsão de Simon de que em pouco tempo as teorias psicológicas tomariam a forma de programas de computador ou de demonstrativos qualitativos acerca das características dos programas dos computadores119. A maioria dos envolvidos diretamente nos projetos da IA partilhava desta perspectiva frente aos homens e às máquinas. Assim, avaliando retrospectivamente, podemos considerar que os computadores são resultado de uma concepção teórica que assume os fenômenos mentais como objetos naturais e, conseqüentemente, “escritos” a partir de um modelo lógico-matemático, aliada a avanços tecnológicos que permitiram a implementação desta concepção em máquinas. Temos com a fenomenologia uma outra perspectiva acerca dos fenômenos mentais, e da maneira como o homem pode conhecê-los. Veremos que, a partir desta abordagem, podemos compreender que o corpo desempenha um papel fundamental nos processos psíquicos120; desta forma, o corpo humano passa a ter uma conotação bastante diferente da que é corrente no campo da IA. Dreyfus nos conduzirá até nossos interlocutores fenomenólogos; antes de chegarmos neles, porém, agruparemos os pressupostos que fundamentavam as pesquisas iniciais da área da inteligência artificial, adicionando algumas 118 Passos, 1992, p.208. Discutiremos mais a respeito deste assunto ainda neste capítulo, no tópico o pressuposto psicológico. 120 Neste caso, estamos nos referindo prioritariamente à fenomenologia de Merleau-Ponty. Há uma série de diferenças teóricas entre as obras de Husserl, Heidegger, Merleau-Ponty e outros autores da fenomenologia; há também uma série de variações conceituais ao longo das obras de cada um destes autores, o que permite, por exemplo, dividir a obra de Merleau-Ponty em duas partes ou fases. Uma abordagem mais detalhada sobre estas diferenças fugiria do escopo deste trabalho; assim, ao falarmos da fenomenologia, estaremos nos referindo às semelhanças entre as considerações destes autores, que a constituem de uma vertente teórica. 119 considerações que apontam para a contribuição da fenomenologia na compreensão das limitações dos trabalhos nesta área. 3.2 Os quatro pressupostos fundamentais da inteligência artificial Conceber o cérebro como um mecanismo de processamento de informações implica, segundo Dreyfus, em: 1. Presumir a tese biológica de que em algum nível de operação – no nível neuronal, geralmente – o cérebro processe informações em operações distintas por intermédio de um agente biológico que liga ou desliga interruptores; 2. presumir a tese psicológica de que a mente pode ser interpretada como um mecanismo que opera à base de bits de informação, e de acordo com regras pré-estabelecidas; 3. conceber a tese epistemológica de que todo o conhecimento pode ser formalizado e expresso em termos de relações lógicas (através da álgebra booleana); 4. assumir o pressuposto ontológico de que toda informação pertinente sobre o mundo é, em princípio, analisável como um conjunto de elementos isoláveis do contexto em que se encontram.121 Estes quatro pressupostos, que são considerados por Dreyfus como a base teórica das pesquisas no campo da IA, são apenas hipóteses sobre o conhecimento e o funcionamento cerebral; todavia, eles são tomados como axiomas, e por isto raramente são questionados. Nenhum deles, de acordo com o autor, fornece um modelo suficiente para a compreensão da inteligência e da mente humana, e por isto constituem a fonte dos problemas encontrados pelos pesquisadores da inteligência artificial. Vejamos agora, com um pouco de detalhes, cada um destes pressupostos. 3.2.1 O pressuposto biológico Uma vez que o cérebro é, há muito tempo, considerado o sítio das funções mais elevadas do homem – entre as quais inclui-se, naturalmente, a inteligência e a cognição –, 121 Dreyfus, 1975, p.120. parece justo que os organismos artificiais estejam baseados no modelo de funcionamento do sistema nervoso. Esta hipótese “neurocomputacional”122, que assimila o cérebro a uma máquina, e a sinapse à uma operação sobre bits, baseia-se em um pressuposto biológico de identidade funcional entre cérebro e máquina; assim, poderíamos comparar o homem a uma máquina composta de um hardware (seu cérebro) robusto e um software (sua mente) altamente sofisticado. Dreyfus não falará apenas uma vez que um dos maiores pecados dos “cientistas do artifício” é o de tomar uma hipótese por axioma, e submeter o organismo humano a um modelo de máquina – a fim de provar suas afirmações e tornar possível o projeto da simulação. É importante ressaltar que em relação à concepção do cérebro como um processador de informações não há, para Dreyfus, nenhum problema; o que não lhe parece adequado é que o cérebro desempenhe suas funções à mesma maneira de um computador. De modo a dar mais consistência teórica às suas objeções a este pressuposto, o autor traz algumas considerações feitas em 1966 por Walter Rosenblith, pesquisador do MIT, e um dos pioneiros no uso de computadores nos estudos de neuropsicologia: Não sustentamos mais a antiga crença generalizada de que a denominada lei de tudo-ou-nada proveniente de impulsos nervosos torna legítimo pensar em relés como modelos adequados para neurônios. Além disso, tornamo-nos cada vez mais impressionados com as interações que ocorrem entre os neurônios: em alguns casos uma seqüência de impulsos nervosos pode refletir as atividades de literalmente milhares de neurônios numa forma requintadamente graduada. Num sistema cujos numerosos elementos interagem tão acentuadamente uns com os outros, o funcionamento do sistema não é necessariamente melhor compreendido agindo-se numa base de neurônio por neurônio, como se cada um tivesse uma personalidade independente... Comparações pormenorizadas da organização dos sistemas e cérebros de computadores demonstrariam igualmente ser frustrantes e inconclusivas.123 Tivemos oportunidade de ver que já entre os cibernéticos este pressuposto biológico era questionado; até mesmo a Von Neumann parecia que o sistema nervoso humano, para dar conta de mecanismos complexos como a interpretação de estímulos sensoriais, de condições físicas e químicas, controle de atividades motoras, e o armazenamento e busca de informações na memória, necessariamente empregava princípios e procedimentos diferentes das máquinas. Assim, Dreyfus coloca que este ponto 122 123 Termo utilizado por Passos, 1992, p.217. Rosenblith apud Dreyfus, 1975, p.127 de vista é uma hipótese empírica que já teve sua importância, e que a natureza fortemente interativa da organização do cérebro, contrastada com o caráter não-interativo da organização da máquina, explicita a impossibilidade de utilizar computadores digitais para produzir inteligência124. 3.2.2 O pressuposto psicológico A questão sobre a semelhança entre o funcionamento do cérebro e do computador está, para Dreyfus, no âmbito da neurofisiologia; já a comparação da mente com um computador digital deve ser avaliada no campo da psicologia. Simon havia previsto em 1957 que no prazo de dez anos a maior parte das teorias psicológicas tomaria a forma de softwares, e seu trabalho na simulação cognitiva buscava viabilizar a construção destes programas a partir das regras subjacentes ao comportamento inteligente. Apesar dos escassos resultados nesta área, Simon, de certa forma, havia concretizado parcialmente sua previsão. Muitos psicólogos e filósofos aliaram-se a ele e começaram a apresentar seus problemas a partir da metáfora computacional do funcionamento da mente. Este movimento expressa um significante deslocamento do behaviorismo – que desconsiderava os processos mentais que se passavam dentro da “caixa-preta” – para o mentalismo na psicologia, representado pelo cognitivismo computacional. Newell e Simon acreditavam que seu trabalho de simulação cognitiva fornecia uma estrutura geral para a compreensão do comportamento humano na solução de problemas, revelando com grande clareza que poderíamos compreendê-lo como o produto de um complexo, porém finito e determinado, conjunto de leis.125 E, se tanto o computador quanto a mente são sistemas simbólicos físicos, tendo seus elementos organizados de forma semelhante, as simulações por computador teriam um papel extremamente importante – sendo um meio de conseguir uma compreensão mais profunda do comportamento humano. 124 Dreyfus faz pouca referência, nas obras a que tivemos acesso, sobre o modelo do conexionismo, que considera a interação entre os elementos da rede cognitiva como o ponto de partida das funções mais elevadas. Varela et al. (2003, p.30) dizem que Hubert Dreyfus parece aceitar a identidade entre ciências cognitivas e cognitivismo; conseqüentemente, ficamos aqui limitados à sua análise de um modelo do tipo top-down particular ao cognitivismo. Esta posição, de acordo com eles, parece ter mudado, pelo menos no ensaio que escreveu com seu irmão Stuart Dreyfus: Making a mind versus modeling the brain – quando aderiu ao conexionismo recente. 125 Dreyfus, 1975, p. 136. Para Dreyfus, porém, mesmo que a mente processasse informações, não haveria motivo para supor que o faria de acordo com um programa, organizado a partir de uma estrutura hierárquica e regido por um determinado número de regras. Simon afirmou que “os computadores trouxeram os sistemas simbólicos do céu platônico das idéias para o mundo empírico dos processos reais executados por máquinas ou cérebros, ou por uns e outros trabalhando em conjuntos”126. Platão defendia a idéia de que toda a ação realmente sensata – ou seja, não-arbitrária e estruturada racionalmente – poderia ser expressa em termos de uma teoria, e qualquer pessoa estaria, ao optar por tal ação, seguindo, mesmo que implicitamente, esta mesma teoria – tomada como um conjunto de regras. A teoria platônica da reminiscência concebia que estas instruções já estavam na mente das pessoas, pré-programadas em uma vida anterior, e que podiam ser tornadas explícitas uma vez que se aplicasse o método certo – uma série de perguntas adequadas.127 Dreyfus diz então que, para Platão, uma teoria do comportamento humano que nos permite compreender o que é realizado por certo segmento desse comportamento é ao mesmo tempo uma explicação de como tal comportamento é produzido. Esta noção de compreensão, bem como a equivalência entre compreensão e explanação, leva-nos à mesma hipótese (ou axioma) do pessoal da simulação cognitiva: que uma completa descrição do comportamento é um preciso conjunto de instruções e regras, que pode ser programado em computadores, tornando-os capazes de reproduzir tal comportamento. Se somente compreendemos algo quando somos capazes de explicar seu funcionamento e composição, então Newell e outros psicólogos estariam certos ao afirmar que uma psicologia seria possível somente se expressa em termos de um programa de computador. Sendo a mente humana um objeto de estudo, e o cérebro um mecanismo que transforma sinais de entrada (estímulos) em sinais de saída (comportamento) a partir de determinadas regras estabelecidas a priori, o papel da psicologia é de encontrar meios científicos para compreender e explicitar todo este processo. A psicologia cognitiva se constitui de um grande exemplo deste “modelo kantiano” de processamento mental – onde a razão fundamenta as regras para o tratamento dos estímulos de entrada. O objeto [o homem] pode ser considerado como um mecanismo de processamento de informação e as leis entendidas segundo o modelo kantiano, como razões, que são regras na mente aplicadas por ela ao 126 Ibidem, p.56. Sócrates demonstra a teoria da reminiscência no diálogo intitulado Menon, conduzindo através de perguntas um escravo – completamente leigo em geometria e matemática – a inferir corretamente que a diagonal é o lado de um quadrado de área dupla. Para mais detalhes, cf. Platão, 1999, pp.56-61. 127 estímulo. Em psicologia essa escola foi chamada de idealista, intelectualista, ou mentalista, e agora é chamada de “psicologia cognitiva”. Até o advento do computador, a escola empirista ficou à margem, pois o ponto de vista intelectualista nunca foi bem sucedido ao tratar o homem como um objeto calculável. Sempre havia um sujeito, “um ego transcendental” aplicando as regras, o que simplesmente retardava uma teoria científica do comportamento ao instalar um homenzinho (homúnculo) na mente para guiar suas ações. Os computadores, entretanto, oferecem a atração irresistível de operar segundo regras, sem apelar para um ego transcendental ou homúnculo. (...) Em suma, há agora um mecanismo que pode servir como um modelo para a perspectiva mentalista”.128 O computador, ainda com poucos anos de existência, já recebera a delicada tarefa de simular e explicitar os mecanismos mentais de processamento de informações – herdando o pressuposto de que se é possível reduzir o pensamento em elementos simples e isolados, e encontrar as regras que gerenciam a organização destes elementos na consciência. Porém, esta maneira de compreender o pensamento e o sujeito cognoscente desconsidera, necessariamente, seu nível fenomenológico, no qual faz sentido falar que o pensamento, a inteligência, as emoções, as ações e a percepção são mais do agrupamentos de elementos isolados regidos por regras. Para Dreyfus, as ações são sempre ações representativas, inseridas em contextos e sobrecarregadas de sentido. Sempre que vemos um objeto, este se apresenta como um todo, e não como um agrupamento de estímulos luminosos: por exemplo, não costumo perceber a xícara de café que está sobre minha mesa como um objeto composto de propriedades materiais (apesar de que esta forma de observação do objeto seja também possível) como o vidro, a cafeína, glicose, H2O, estímulos luminosos que chegam à retina e são processados no lobo occipital, estímulos 128 “... the object can be treated as an information-processing device ant the laws can be understood on the Kantian model, as reasons, which are rules in the mind applied by the mind to the input. In psychology this school was called idealist, intellectualist, or mentalist, and is now called “cognitive psychology”. Until the advent of the computer the empiricist school had the edge because the intellectualist view never succeeded in treating man as a calculable object. There was always a subject, a “transcendental ego”, applying the rules, which simply postponed a scientific theory of behavior by installing a little man (homunculus) in the mind to guide its actions. Computers, however, offer the irresistible attraction of operating according to rules without appeal to a transcendental ego or homunculus. (...) In short, there is now a device which can serve as a model for the mentalist view”. Dreyfus, 1999, p.178. Tradução minha. Estamos cientes de que existem diferenças entre as concepções de Kant e do empirismo com relação à maneira como os elementos são organizados na consciência. Porém, ambas vertentes têm caráter mentalista, uma vez que estabelecem conhecimentos sobre os processos que ocorrem na “caixa-preta”, situados entre o estímulo e a resposta. Deixaremos de lado as diferenças conceituais entre estas duas perspectivas, uma vez que, no momento, o nosso interesse volta-se ao caráter mentalista da psicologia cognitiva e à dimensão prática fornecida a ela pelos computadores. Para uma introdução à filosofia de Kant e ao empirismo inglês, cf. Morente, 1980, pp. 179-265. olfativos que penetram as fossas nasais, etc. O que percebo, de início e na maior parte das vezes, é o próprio cafezinho; seu cheiro e aspecto me convidam a tomá-lo – o que vou fazer agora antes que esfrie.129 3.2.3 O pressuposto epistemológico As afirmações de que (a) se é possível formalizar – estruturar em regras – todo o comportamento não arbitrário (herança platônica), e que (b) o formalismo pode ser utilizado para reproduzir o comportamento em questão, constituem, segundo Dreyfus130, o pressuposto epistemológico da IA. Suas críticas procuram demonstrar que a afirmação (a) é uma generalização infundada a partir da ciência da Física, e que a afirmação (b) baseia-se na hipótese de que uma teoria da competência seria a mesma coisa que uma teoria do desempenho. Vejamos com um pouco mais de detalhes estas críticas e afirmações. A afirmação (a), antes de constituir um axioma, é a expressão de uma certa concepção de entendimento que está profundamente arraigada em nossa cultura ocidental, da qual falamos no início deste capítulo, mas que não é válida para todos os campos do conhecimento. A área da Física comporta perfeitamente este modo formalista de conhecimento, e deve a ele a origem das leis gerais que compõem suas teorias. Mas o formalismo se apresenta insuficiente para o total conhecimento do comportamento humano e dos fenômenos mentais, que não se esgotam em nenhuma abordagem científica – uma vez que não se compõem do mesmo material físico que os objetos da Física e das ciências naturais. É possível estabelecer e verificar a lei que diz que a água ferve a 100º ao nível do mar, e que todo corpo terrestre está sob efeito da gravidade; porém, não é possível elaborar um conjunto de leis e normas capaz de descrever o que determinado humano fará em todos os conjuntos de circunstâncias sociais concebíveis. A título de ilustração, Dreyfus traz-nos o exemplo de Michael Polanyi de um homem que anda de bicicleta, e que mantém seu equilíbrio pelo deslocamento de seu peso, como compensação de sua tendência à queda. Quando ele começa a tombar para a direita, vira a direção para a direita de forma que o curso da bicicleta seja defletido ao longo de uma curva para o lado direito. Sua ação poderia ser expressa de acordo com a seguinte 129 Com este exemplo estou querendo demonstrar o envolvimento do homem com as coisas do mundo, que não é apenas representativo, mas vivencial. Esta característica do ser-no-mundo ficará mais clara logo adiante, nas palavras de Heidegger e Merleau-Ponty. 130 Ibidem, p. 158. regra: “percorrer uma série de curvas cuja curvatura é inversamente proporcional ao quadrado da velocidade”131. Poderíamos também expressá-la formalmente como “a resultante de uma força centrífuga que impulsiona o ciclista para a esquerda e compensa a força da gravidade que o impele para a direita. Esta manobra em seguida desequilibra o ciclista para a esquerda, o que ele neutraliza virando a direção para a esquerda, continuando assim a equilibrar-se realizando uma série de curvaturas acentuadas.”132. Mas, apesar de esclarecedoras, estas explicações nos dizem exatamente como andar de bicicleta? Certamente não. Assim, tanto o ciclista não segue as regras da física para pilotar sua bicicleta, quanto estas regras não são suficientes para explicar como se anda de bicicleta. A afirmação (b) pressupõe que seja possível estabelecer formalmente regras para a competência; em outras palavras, para tornar uma máquina competente no campo da lingüística, por exemplo, bastaria instruí-la com as regras da linguagem. Mas instruções sobre a competência não garantem o desempenho: saber-o-que-fazer (knowing-that) não garante o saber-como-fazer (knowing-how). Este know-how necessariamente está vinculado a um envolvimento tácito com contexto, do qual é impossível uma representação descolada de uma situação atual. Todos sabemos como falar a língua portuguesa, mas precisamos sempre do contexto para articular as palavras. Nosso conhecimento da língua não é apenas teórico, mas prático; quando conversamos não estamos apenas aplicando à fala as regras sintáticas e semânticas que aprendemos na escola, mas agindo no mundo, produzindo significado – às vezes tropeçando com as palavras, brincando com elas, falando sozinho, etc. Infringimos as regras gramaticais diversas vezes ao dia, por melhores falantes de português que possamos ser. Como um computador seria capaz disto? Somente se fosse instruído a também desrespeitar estas regras. Para tanto, deveria ser capaz de reconhecer o contexto no qual as regras devem ser aplicadas e, da mesma forma, identificar as situações em que devem ser quebradas. Porém, para isto, teria que ser capaz de reconhecer cada um dos interlocutores, suas intenções, o tom da conversa (se amigável, ou ríspida, ou descontraída...), também baseado em regras para este reconhecimento. Mas se fossem necessárias outras regras para a aplicação destas, e também regras anteriores a estas regras, cairíamos então em um retrocesso infinito. Já o falante humano, de acordo com Wittgenstein133, geralmente não usa a linguagem de acordo com regras estritas, e também não é ensinado a falar através destas regras. 131 Ibidem, p. 158. Michael Polanyi apud Dreyfus, Idem, nota 44, p. 303. 133 Ludwig Wittgenstein, The Blue and Brown Books, apud Dreyfus, 1999, p.203. 132 3.2.4 O pressuposto ontológico Dreyfus diz que não há motivo para supor que os dados acerca do mundo humano possam ser isolados, explícitos e determinados; porém, para que computadores digitais possam operar como homens, sendo capazes de perceber, falar e comportar-se de modo inteligente, faz-se necessário decompor o mundo fenomenal em elementos singulares e isolados, para que estes dados possam ser traduzidos em linguagem de máquina. É o pressuposto ontológico de que tudo o que é essencial para o comportamento inteligente deve, em princípio, ser inteligível em termos de um conjunto de elementos independentes determinados, que permite aos pesquisadores da IA ignorar esta característica do mundo humano: de ser anterior a qualquer modelo ou análise científica. Este pressuposto, que constitui a base de todo o pensamento da IA, é de fato somente uma hipótese, que reflete dois mil anos de tradição filosófica, e que é reforçada por uma interpretação errônea do êxito das ciências físicas. 134 David Hume acreditava que toda a experiência é formada por impressões, por átomos de experiência, isoláveis e determinados. A consciência seria, portanto, o agrupamento destes elementos, a soma destas pequenas partes do mundo. Na contracorrente desta concepção elementarista temos a fenomenologia, que será representada aqui por Heidegger e Merleau-Ponty. Deixaremos agora, por alguns instantes, a inteligência artificial de lado e os computadores desligados, para passarmos às considerações teóricas destes autores. 3.3 Heidegger e o ser-no-mundo-com-os-outros Para Heidegger, este pressuposto de que tudo o que existe pode ser tratado como um conjunto de átomos de fatos é a expressão de um “pensamento calculista” (rechnende Denken)135, que confia ao homem o projeto de se tornar senhor e proprietário de todas as coisas. Em uma revista publicada em 1976, Heidegger dizia que “a cibernética é a 134 135 Dreyfus, 1975, pp.177-178. Heidegger apud Dreyfus, 1975, p. 184. metafísica da era atômica”136 – fazendo referência ao pressuposto transcendental de que a explicação do mundo se encontra fora dele, nas leis abstratas da física e da matemática. A tecnologia, com sua insistência sobre “a completa calculabilidade dos objetos”, é a culminância inevitável da Metafísica – preocupação exclusiva com os entes, e o esquecimento da diferença ontológica entre o Ser e o ente.137 Em Ser e Tempo, Heidegger sente a necessidade de explicitar algumas características da discussão em torno da questão do ser, ou seja, sobre o sentido. Para discutir sobre o sentido das coisas, Heidegger utilizou dois termos, um para sentido, e outro para as coisas: ser e ente, respectivamente. Ele define ente como qualquer coisa que pertença ao mundo de nossa experiência, tudo aquilo com o que podemos entrar em contato, com o que nos relacionamos de alguma forma. Tudo aquilo que é alguma coisa, é um ente. Ente é, portanto, tudo aquilo que é, tudo aquilo em relação a que podemos predicar. Uma mesa é um ente, pois eu posso dizer, por exemplo, que “essa mesa é de madeira”, ou “a mesa é um ente”; a cadeira, o livro, a grama, o animal, o homem, o céu, a ciência, o pensamento e o sonho também são entes, pois posso dar um sentido para cada uma destas coisas, eu posso dizer o que cada uma delas é. O sentido de uma coisa, ou seja, aquilo que uma coisa é, é justamente o ser. Ser é o que dá sentido ao ente – é aquilo que faz com que o ente seja. Se eu digo que a mesa é de madeira, estou fazendo referência ao ente mesa de ser de madeira. Ser é, então, o que determina o ente como ente, como o ente é sempre já compreendido. Nas palavras do autor: “Ente é tudo de que falamos, tudo que entendemos, com que nos comportamos dessa ou daquela maneira, ente é também o que e como nós mesmos somos. Ser está naquilo que é e como é, na realidade, no ser simplesmente dado”.138 Resumindo apressadamente, diríamos que “o ser é aquilo que o ente é”. Porém, uma mesma coisa pode ser vista de várias maneiras, como por exemplo, o ente inteligência pode ser compreendido como algo exclusivo de um animal racional, ou como o resultado de computações simbólicas. Posso conceber o homem e suas faculdades de várias formas, pois o ser do homem é inesgotável. A vaca, por exemplo, é concebida por um homem ocidental de forma bastante diferente de um habitante da Índia. O ser do ente vaca depende de quem está em relação com ele. Isto leva Heidegger a afirmar que o homem está sempre em relação de sentido com os entes. Ao viver em um mundo repleto de entes, ao estar-no-mundo-com-os-outros, o homem relaciona-se com eles, e esta relação é 136 Heidegger apud Dupuy, 1996, p.139. Dreyfus, 1975, p.184. 138 Heidegger, 2002, p.32. 137 permeada por determinado sentido. Assim, o ser de determinado ente desvela-se na relação do homem com este ente, nunca se esgotando, pois outras relações de sentido são sempre possíveis. Uma vez que o ser de determinado ente não está neste próprio ente, mas na relação de sentido do Dasein139 com este ente, Heidegger apresenta-nos a seguinte questão: “por onde devemos iniciar a discussão a respeito do ser?”. A resposta está, segundo ele, justamente na própria pergunta, ou melhor, naquele que esboça esta pergunta: no Dasein. O homem é o único ente que se interroga sobre o ser, portanto ele é o ponto de partida para a discussão sobre o ser. A situação do Dasein de estar em um mundo, cercado de entes, e de estar em relação de sentido com estes entes, faz com que esta disposição de cuidado140 do Dasein seja o foco inicial para a compreensão do ser. Em outras palavras, Heidegger mostra-nos o que realmente está em jogo no movimento cotidiano do ser-no-mundo: há sempre um homem conhecendo algo, e o sentido deste algo está sempre na relação entre o homem e o objeto de conhecimento. Não há, segundo Heidegger, a possibilidade de conhecer o ente por completo e assim chegar a um esgotamento de todas as possibilidades do ser, excluindo a participação do próprio sujeito que está conhecendo. Portanto, qualquer relação com o ser, ou seja, qualquer modo de conhecimento sobre o mundo, partirá sempre desta condição de possibilidade do Dasein que é a de estar no mundo, de ser-no-mundocom-os-outros em relação de cuidado. 3.4 Merleau-Ponty e a reflexão sobre o irrefletido A afirmação que encerra o parágrafo acima, resultante da análise fenomenológica de Heidegger frente ao conhecimento, é continuada de forma muito bela pelo filósofo Maurice Merleau-Ponty, que partilhava com Heidegger e Husserl da abordagem 139 Lembremos que Dasein significa “ser-aí”, “ser-no-mundo”, ou “pre-sença” – termo utilizado por Heidegger para se referir ao homem. 140 Sorge, em alemão. Este termo foi utilizado para fazer referência à característica ontológica do Dasein de estar sempre referido aos entes, de estar voltado às coisas que o cercam. É importante marcar que há uma importante diferença entre a noção de sorge e o sentido corriqueiro do termo “cuidado”, utilizado para traduzí-lo. Sorge não significa que o Dasein está sempre cuidando das coisas, como alguém que cuida de seu cachorro e de sua casa todos os dias, mas que o Dasein está sempre voltado para algo, sempre em contato com os entes, sempre em relação com o mundo. Quando cuidamos de algo, estamos necessariamente voltados para determinado ente – é nesta dimensão da palavra cuidado que encontramos uma semelhança com o termo sorge. Heidegger utiliza também as palavras besorgen (ocupar-se) e fürsorge (preocupar-se) para circular esta noção. Para uma maior compreensão acerca destes três termos, cf. Ser e Tempo, pp. 312313. fenomenológica e a utilizava como método para seu trabalho. No prefácio de Fenomenologia da Percepção, obra que vem servindo de referência para a discussão sobre a percepção humana em diversas áreas de análise141, o autor explica que a fenomenologia é o estudo das essências, uma filosofia que busca a compreensão da essência do homem e do mundo a partir de sua facticidade, segundo a qual o mundo está sempre ”aí” antes de qualquer reflexão. Todo o conhecimento científico é construído sobre o mundo vivido; e tudo o que sabemos do mundo, mesmo o que é devido aos modelos científicos, sabemos a partir de nossa experiência do mundo, de nossa visão pessoal sem a qual os símbolos da ciência nada significariam. O homem pode ser (e é) objeto de estudo da inteligência artificial, neurologia, psicologia, psiquiatria, da sociologia e da filosofia; porém, todo o ramo de conhecimento é conseqüência do fato de que o homem está no mundo, direcionado a este mundo que está aí antes de qualquer análise, e seria portanto artificial derivá-lo de qualquer síntese intelectual. O mundo está ali antes de qualquer análise que eu possa fazer dele, e seria artificial fazê-lo derivar de uma série de sínteses que ligariam as sensações, depois os aspectos perspectivos do objeto, quando ambos são justamente produtos da análise e não devem ser realizados antes dela (...) Eu comecei a refletir, minha reflexão é reflexão sobre um irrefletido, ela não pode ignorar-se a si mesma como acontecimento, logo ela se manifesta como uma verdadeira criação (...) O mundo não é um objeto do qual possuo comigo a lei de constituição; ele é o meio natural e o campo de todos os meus pensamentos e de todas as minhas percepções explícitas. A verdade não “habita” apenas o “homem interior”, ou, antes, não existe homem interior, o homem está no mundo, é no mundo que ele se conhece.142 Corroborando esta idéia, Henri Bergson, ao falar sobre a tentativa de dividir a mente em categorias psicológicas, diz que “seria de crer (...) que o espírito caiu do céu com uma subdivisão de funções psicológicas das quais ele tem simplesmente que constatar a existência” 143. Tudo o que podemos conhecer, portanto, é sempre posterior à nossa condição inicial de estarmos lançados no mundo. Toda reflexão teórica é conseqüência do fato de estarmos no mundo, voltados para os entes, refletindo sobre o ser. Mas a ciência, em seu esforço de objetivação, representa o organismo humano como um sistema físico, que está 141 Com o exemplo de Francisco Varela, Hubert Dreyfus, Drew Leder e Charles Taylor, que avaliam e utilizam a noção de corporeidade (embodiment) em suas obras. 142 Merleau-Ponty, 1999, pp.5-6. 143 Henri Bergson, 1974, p.134. em contato com estímulos definidos por suas propriedades físico-químicas. Sobre esta base ela reconstrói a percepção efetiva, e fecha o ciclo do conhecimento científico descobrindo as leis a partir das quais se produz o próprio conhecimento – fundando, assim, uma ciência objetiva da subjetividade144. Entretanto, Merleau-Ponty lembra-nos do fato de que a estrutura do organismo depende de variáveis, como o sentido biológico da situação, que não são variáveis físicas, e portanto escapam aos instrumentos de análise físico-química, abrindo-se em um outro tipo de inteligibilidade. Nas palavras de nosso interlocutor, a ciência introduz sensações que são coisas ali onde a experiência mostra que já existem conjuntos significativos, ela sujeita o universo fenomenal a categorias que só são exigidas no universo da ciência (...) É ora a aderência do percebido a seu contexto e como que sua viscosidade, ora a presença nele de um indeterminado positivo, que impedem os conjuntos espaciais, temporais e numéricos de se articularem em termos manejáveis, distintos e identificáveis. É este domínio pré-objetivo que precisamos explorar em nós mesmos se queremos compreender o sentir.145 Para Merleau-Ponty, a teoria admite os postulados do empirismo, deduzindo o dado daquilo que pode chegar pelos órgãos dos sentidos e, conseqüentemente, escondendo os fenômenos ao invés de compreendê-los. Ao retornarmos aos fenômenos, encontramos um conjunto já pleno de sentido, irredutível a elementos isolados. Em lugar de conceber a percepção como uma pura operação do conhecimento, uma captação de estímulos e qualidades isoladas – como pretendem os projetistas da inteligência artificial –, podemos compreendê-la como a experiência de “ver jorrar de uma constelação de dados um sentido imanente” 146, pois “há uma significação do percebido que não tem equivalente no universo do entendimento, um meio perceptivo que ainda não é o mundo objetivo, um ser perceptivo que ainda não é o ser determinado”147. O ser-no-mundo é anterior a qualquer análise que se faça dele. Devido à complexidade dos fenômenos subjetivos, fica difícil reduzí-los a elementos simples, neutros, objetivo-naturais, essenciais e invariantes, e encontrar assim uma definição última e suficiente para cada um desses fenômenos. Este reducionismo da subjetividade a 144 Ibidem, p. 32. Ibidem, p. 33. 146 Ibidem, p. 47. 147 Ibidem, p. 77. 145 elementos simples – e em particular da inteligência humana – fica bastante nítido na proposta elementarista das ciências cognitivas e da inteligência artificial. Através de métodos como o da simulação cognitiva os pesquisadores estariam avaliando analiticamente o pensamento de sujeitos, procurando analisá-lo da forma mais neutra e impessoal possível, decompondo-o, buscando nele suas regras e elementos mais simples. Mas justamente pelo fato de não haver pensamento isolado de um sujeito que percebe, de acordo com Merleau-Ponty nunca atingiremos um conhecimento neutro e isolado sobre qualquer faculdade humana. Qualquer estudo da inteligência partirá da própria inteligência do sujeito; da mesma forma, por estarmos “presos” ao mundo, não chegamos a um estado de descolamento no qual alcançaríamos uma consciência neutra deste mundo. 3.4.1 A corporeidade Para que possamos compreender de forma ampla os fenômenos subjetivos, não podemos deixar de lado o modo como o sujeito é no mundo: o homem é um ser essencialmente corporal. Em outras palavras, estamos no mundo corporalmente, somos dotados de uma corporeidade (embodiment), o corpo é o nosso meio geral de ter um mundo. Portanto, não há como entender a inteligência, a consciência, a percepção e a interação com o meio sem colocar o corpo que percebe em um “aqui” e um “agora”. Ao estar no mundo, o corpo está ‘morando’ no tempo e no espaço, e nossas características corporais são determinantes no processo de percepção, de relação de sentido, estando refletidas em tudo o que vemos. Assim, a cognição e a inteligência humana não podem ser concebidas apenas como uma soma de fatos psíquicos, ou como representações mentais de um mundo exterior estabelecidas a partir de uma série estruturada de regras; da mesma forma, o corpo não pode ser compreendido apenas como um receptor ‘neutro’ de estímulos oriundos do meio ambiente. Para Merleau-Ponty o corpo é nosso ‘ancoradouro’ no mundo; a experiência emerge da interação do corpo com o meio, brotando do contato do homem com o contexto onde se encontra, não estando apenas dentro deste, nem tampouco sendo apenas o resultado de estímulos oriundos do ambiente. Nas palavras do autor: O homem concretamente considerado não é um psiquismo unido a um organismo, mas este vaivém da existência que ora se deixa ser corporal e ora se dirige aos atos pessoais. Os motivos psicológicos e as ocasiões corporais podem-se entrelaçar porque não há um só movimento em um corpo vivo que seja um acaso absoluto em relação às intenções psíquicas, nem um só ato psíquico que não tenha encontrado pelo menos seu germe ou seu esboço geral nas disposições fisiológicas. Não se trata nunca do encontro incompreensível entre duas causalidades, nem de uma colisão entre a ordem das causas e a ordem dos fins. Mas, por uma reviravolta insensível, um processo orgânico desemboca em um comportamento humano, um ato instintivo muda e torna-se sentimento, ou inversamente um ato humano adormece e continua distraidamente como reflexo.148 Merleau-Ponty diz que há uma certa energia que pulsa na existência, que emerge como fios intencionais que ligam o corpo ao seu ambiente, ajustando-o a um sentido da situação e oferecendo uma significação prática que é reconhecida corporalmente. Ter um corpo é integrar-se com o meio ambiente, confundir-se com ele, aderindo de forma prépessoal ao mundo dos fenômenos. A crítica de Merleau-Ponty à psicologia científica – que é com quem ele dialoga na discussão apresentada acima – expressa a posição da fenomenologia frente ao conhecimento, vertente que busca uma compreensão das coisas através de sua condição primeira, a de estar no mundo, espacial e temporalmente, onde qualquer análise será sempre segunda, posterior à experiência de estar no mundo. Qualquer fenômeno que diga respeito ao humano estará sempre vinculado à sua história e constituição corporal; tudo o que se pode saber sobre si e sobre o mundo parte de uma visão própria, pessoal, de uma experiência do mundo. Portanto, a partir da perspectiva da fenomenologia, não teríamos uma ampla compreensão da subjetividade, da inteligência e da cognição, se não levássemos em conta o fato de que estes fenômenos ocorrem em um corpo humano, que habita corporalmente um mundo, que tem uma história pessoal, hábitos e costumes próprios. A fenomenologia é o estudo das essências, e todos os problemas, segundo ela, resumem-se em definir essências: a essência da percepção, a essência da consciência, por exemplo. Mas a fenomenologia é também uma filosofia que repõe as essências na existência, e não pensa que se possa compreender o homem e o mundo de outra maneira senão a partir de sua “facticidade”. É uma filosofia transcendental que coloca em suspenso, para compreendê-las, as afirmações da atitude natural, mas é também uma filosofia para a qual o mundo já está sempre “ali”, antes da reflexão, como uma presença inalienável.149 148 149 Ibidem, p. 130. Ibidem, p. 1. Tudo o que conhecemos parte de nossa experiência; tudo o que sabemos sobre o mundo é fruto de nossa experiência no mundo. Assim, teríamos uma visão um tanto reducionista da subjetividade se a considerássemos apenas como o correlato psíquico do mecanismo anátomo-cerebral-funcional do corpo, ou como o resultado de um processo de tratamento de informações simbólicas e representações mentais. Todo sistema teórico é um modelo, uma espécie de descrição estruturada de experiências com objetos, redigida por sujeitos que habitam o mundo e buscam nele sua essência. Mesmo o conhecimento científico, caracterizado pela objetividade e neutralidade, é construído sobre o mundo vivido, a partir da experiência de pesquisadores cientistas. Portanto, toda descrição e explicação são sempre posteriores ao contato com o objeto explicado, que já está “aí”, segundo Merleau-Ponty, antes de qualquer reflexão. Distinções entre os aspectos físicos e mentais do homem são, portanto, artificiais; uns confundem-se nos outros, e não há como determinar uma fronteira entre o somático e o psíquico. Podemos separá-los apenas teoricamente. Assim, de acordo com o autor, não devemos conceber o fenômeno psicofísico à maneira cartesiana, partindo-o em dois: é justamente a existência que encontramos primeiro no homem, não um corpo e uma mente. Mente e corpo são dimensões da mesma coisa, do ser-no-mundo, que é anterior às divisões, que tem sua “mente incorporada150”. Concebendo o homem desta forma, Merleau-Ponty fornece-nos, segundo Varela et al., um entre-deux, uma perspectiva não-dualista sobre os fenômenos corporais e subjetivos. O homem é, ao mesmo tempo, corpo e a subjetividade, composto de estruturas físicas e de estruturas experienciais vividas. É por isto que, ao descartar esta dimensão do corpo humano de seus estudos – quando consideram apenas o cérebro, ou concebem o corpo apenas como um receptor de estímulos e um executor de movimentos –, os pesquisadores da inteligência artificial acabavam por jogar fora um componente fundamental de qualquer fenômeno mental. Sabemos, de acordo com o que nos dizem Merleau-Ponty e Dreyfus, que o corpo responde ao mundo com reações motoras sem o uso de cálculos, desempenhando uma série de processos dos quais não temos consciência e conhecimento explícito151. Esta 150 Embodied mind. Esta é uma noção bastante atual e esclarecedora, fornecendo uma interessante visão acerca da questão do dualismo mente-corpo. Nosso maior exemplo é o Livro de Varela et al., cujo título é justamente este – The Embodied mind –, onde a noção de que a mente é essencialmente incorporada é explorada ao longo da obra. 151 Ibidem, p.154. intencionalidade152 própria do ser humano, que “não se efetua na transparência de uma consciência”, que é anterior à objetivação científica, parece ser um dos maiores obstáculos da IA. Uma vez que todo e qualquer software é resultado de algorítmos – séries estruturadas de regras –, seria necessário encontrar as regras a partir das quais o corpo se conecta com o mundo e a ele responde inteligentemente, para que um computador pudesse simular tal comportamento. Mas vimos, a partir de Dreyfus e Merleau-Ponty, que tais regras não existem – ou, se existem, não são do tipo que os programadores precisam para escrever programas. O que pode existir é um modelo de funcionamento, criado por homens, que invente e estabeleça tais regras – e que, caso seja bem sucedido, proporcione o desenvolvimento de um artifício capaz de imitar o comportamento inteligente humano. Uma vez que era o comportamento inteligente que se pretendia simular, passemos ao quarto e último capítulo desta dissertação, onde circularemos a noção de corporeidade para Merleau-Ponty e outros estudiosos, ressaltando sua utilidade para uma compreensão alternativa do comportamento humano e dos problemas encontrados pelo pessoal da IA. 152 Este termo, bastante utilizado por Brentano, Husserl, Heidegger e Merlau-Ponty, apresenta uma série de nuances, que não teremos tempo para abordar neste trabalho. Para uma noção acerca das diferenças na concepção deste termo, cf. Dupuy, 1996, pp. 119-138, e Varela et al., 2003, pp.33-34. Consideraremos intencionalidade como a característica do homem de estar sempre voltado ao mundo, em constante relação com os entes. Diferente de uma intenção, que se constitui de um ato de consciência, faremos referência à intencionalidade como uma forma inconsciente e pré-objetiva de se estar ligado às coisas. 4 O corpo Desde o início Dreyfus percebera que alguma coisa estava faltando aos softwares inteligentes: um corpo. A inteligência artificial, que já se mostrara prodigiosa desde o nascimento, concretizando o que o homem sonhava havia décadas, logo atraiu o olhar e o investimento de diversas instituições – como universidades e departamentos militares. Observando todo este movimento em torno da IA, Dreyfus sentia-se inconformado. Afinal, que sentido fazia investir uma grande monta de capital em um programa de pesquisa em degeneração?153 Dreyfus tinha uma dura tarefa pela frente. Afinal, munido apenas de suas palavras, ele teria de desbancar uma série de resultados concretos. Suas críticas e considerações acerca da IA, mesmo convergindo com o que diziam outros autores154, pareciam não surtir muito efeito. Sua bagagem filosófica não intimidava os pesquisadores e não impunha nenhum limite prático às pesquisas. Sua preocupação era justa: entre outras coisas, Dreyfus estava em defesa da seriedade e integridade de temas profundos da filosofia. Mas ninguém da área da IA dava-lhe ouvidos; e então, o que começara como uma avaliação crítica e transparente de uma linha de pesquisa em expansão, tomou um colorido bastante pessoal. O tom de suas afirmações expressa o fato de que Dreyfus não estava apenas comprometido com uma análise imparcial sobre uma teoria: Porque presumem aqueles em busca da Simulação Cognitiva que os processos de informação de um computador revelam os processos de informação oculta de um ser humano? E porque presumem aqueles trabalhando na Inteligência Artificial que deve haver uma maneira digital de executar as tarefas humanas? Que eu saiba, ninguém neste campo parece ter formulado essas perguntas a si próprio. De fato, a inteligência 153 Dreyfus (1999, p. Ix – tradução minha) diz que, de acordo com a definição de Imre Lakatos, “um programa de pesquisa em degeneração é uma empresa científica que começa como uma grande promessa, oferecendo uma abordagem nova e que leva a resultados impressionantes em determinado contexto. Quase inevitavelmente os pesquisadores tentarão ampliar a aplicação desta abordagem, começando com problemas que são de alguma forma similares ao original. Enquanto obtém êxito, o programa de pesquisa expande e atrai seguidores. Se, contudo, os pesquisadores começam a encontrar inesperados e importantes fenômenos que insistentemente resistem às novas técnicas, o programa irá estagnar, e os pesquisadores irão abandoná-lo assim que uma abordagem alternativa se torna disponível”. Este era, para Dreyfus, o caso da Good OldFashioned AI (GOFAI) – a IA em seus primeiros anos. 154 “What strikes me, and has struck other writers reviewing the history of the field, is how my views and those of workers interested in the theoretical issues in AI have gradually converged.” Ibidem, p. 3. artificial é o campo menos autocrítico no cenário científico. Deve haver uma razão por que esses homens inteligentes quase unanimemente reduzem ao mínimo ou deixam de reconhecer suas dificuldades, e continuam dogmaticamente a afirmar sua fé no progresso. Certa força em suas suposições, e claramente não o seu êxito, deve permitir-lhes ignorar a necessidade de justificação. Devemos agora tentar descobrir por que, em face de crescentes dificuldades, os que se dedicam à inteligência artificial revelam uma confiança tão inabalável.155 Depois de cinqüenta anos de esforços, contudo, está claro a todos, exceto para alguns “cabeças-duras”, que esta tentativa de produzir inteligência geral falhou.156 Não demorou muito para que Dreyfus se tornasse uma figura indesejada pela comunidade da IA. Convencido que estava de que o corpo desempenha um papel fundamental no comportamento inteligente, e que os seres humanos ocorrem em processos que ultrapassam nossa possibilidade de explicá-los, Dreyfus proferia palavras ríspidas e às vezes agressivas contra seus adversários que insistiam em traduzir a inteligência em computações simbólicas. Estava então configurado um interessante combate. De um lado, Dreyfus empunhava suas críticas de caráter fenomenológico; de outro, o exército da IA avançava munido de um número cada vez maior de softwares e resultados contundentes. Em um confronto direto, poucas chances teria Dreyfus – já que precisaria ser mais forte, usando apenas de palavras, que uma série de resultados concretos e factíveis. E apesar de contar apenas com a teoria, a que escolhera era fundamentalmente abstrata, muito menos pragmática que outras teorias existentes. Ele próprio reconhecia sua desvantagem: Tenho perfeita consciência de que esta “explicação” é mais vaga e menos experimental do que as fornecidas, tanto pelos behavioristas como pelos intelectualistas, as quais deveria suplantar.157 Varela e seus colaboradores dizem que a maior parte das críticas lançadas contra as descrições fenomenológicas enfocava sua falta de pragmatismo. Desde os escritos de Husserl, passando pela fenomenologia existencial de Heidegger, e pela fenomenologia da vida de Merleau-Ponty, mesmo quando se enfatizava o contexto incorporado pragmático da experiência humana, estes autores o faziam de forma puramente teórica. 155 Idem, 1975, p.115. Idem, 1999, p. ix. 157 Idem, 1975, p. 208. 156 Na nossa tradição ocidental, a fenomenologia foi e ainda é a filosofia da experiência humana, o único edifício remanescente do pensamento que aborda essas questões de forma firme e direta. Mas, sobretudo, foi e ainda é filosofia como reflexão teórica. Em grande parte da tradição ocidental desde os gregos, a filosofia tem sido a disciplina que busca encontrar a verdade, incluindo a verdade sobre a mente, apenas por meio do raciocínio teórico abstrato. Mesmo os filósofos que criticam ou problematizam a razão o fazem somente por meio de argumentos, demonstrações e – especialmente em nossa chamada era pós-moderna – exibições lingüísticas, ou seja, por meio do pensamento abstrato. A crítica de Merleau-Ponty à ciência e à fenomenologia, de que elas são atividades teóricas após o fato, pode igualmente ser aplicada à maior parte da filosofia ocidental como reflexão teórica. Dessa forma, a perda da fé na razão, tão visível no pensamento atual, torna-se simultaneamente uma perda de fé na filosofia.158 Já que Dreyfus não tinha armas suficientes para combater a IA no campo dos resultados práticos, se quisesse vencer, teria de adotar uma outra estratégia. Uma vez que seu forte era a teoria, seu melhor alvo seria, obviamente, os fundamentos teóricos da IA. Atacando fulminantemente as bases dos projetos na área, Dreyfus teria chances de abalar suas estruturas. De fato, no campo teórico, o pessoal da IA sabia que Dreyfus era um adversário de valor: Quando fui convidado para fazer uma análise de duas publicações recentes de Minsky, Papert e Winston para a Creative Computing, o editor ao mesmo tempo convidou Seymour Papert para fazer uma crítica ao meu livro, de modo a balancear a apresentação. De acordo com o editor, Papert respondeu ameaçando que se a Creative Computing publicasse minha crítica, haveria reprovação pela comunidade da IA, e represálias por parte da MIT Press. Além disto, ele prometeu que se Creative Computing rejeitasse minha crítica, ele iria enviar um artigo que o editor estava tentando em vão obter dele, e também iria fornecer artigos adicionais escritos por seus alunos.159 Se Dreyfus estava certo, então não demoraria muito para que a IA se degenerasse. Os próprios fracassos dos projetos em busca da inteligência geral fortaleciam as críticas do filósofo – às quais, de acordo com a citação acima, Papert tentava escapar. 158 Varela et al., 2003, pp. 36-37. When I was invited to review two recent publications of Minsky, Papert, and Winston for Creative Computing, the book review editor at the same time invited Seymour Papert to review my book, so as to balance the presentation. According to the book review editor, Papert replied by threatening that if Creative Computing published my critique there would be disapproval from the AI community and reprisals from MIT Press. Moreover, he promised that if Creative Computing rejected my review, he would submit an article which the editor had been trying in vain to get from him, as well as furnish additional articles by his students. Dreyfus, 1999, p. 307, nota 6. 159 Além de todas as falhas apontadas por Dreyfus, que já vimos nos capítulos anteriores, o descaso com relação ao caráter fenomenológico do corpo humano tinha para o autor um sabor especial. Ele sabia da importância do corpo nos processos cognitivos e na relação do homem com o mundo, e que o comportamento inteligente humano é, essencialmente, incorporado. Como conceber um ente adaptado ao meio, capaz de lidar com situações novas, que não esteja em um corpo? Um cérebro dentro de uma garrafa, ou um computador, poderia ser incapaz de reagir a novas espécies de situações porque a nossa capacidade de estar numa determinada situação não dependeria apenas da flexibilidade do nosso sistema nervoso, mas, antes, da nossa capacidade de executar atividades práticas. Após algumas tentativas de programar tal máquina, poderíamos chegar à conclusão de que aquilo que distingue as pessoas das máquinas, não importa quão engenhosamente construídas estas possam ser, não é uma alma imaterial, distante, universal, mas o corpo material que envolve e é capaz de se mover por si próprio. De fato, é o aspecto corpóreo do comportamento inteligente que tem causado mais problemas à inteligência artificial.160 Simon, de acordo com Dreyfus, acreditava que a automação de um sistema locomotor levaria mais tempo para ser realizada que a de um sistema nervoso central. Em outras palavras, a tecnologia dos computadores fornecia meios para simular algumas funções racionais superiores, como relações lógico-abstratas, mas se mostrava ainda insuficiente para a espécie de inteligência que partilhamos com os animais, como o reconhecimento de padrões.161 Porém, nada impede que, com o avanço da tecnologia, seja possível construir uma máquina com um mecanismo locomotor semelhante ao dos homens. Se o corpo é tão importante para a cognição e à inteligência, este problema estaria resolvido assim que houvesse tecnologia suficiente para construir uma máquina que ande, corra e pule como os humanos. Mas, de acordo com os apontamentos de Merleau-Ponty, o corpo não se resume em um mecanismo complexo. 160 161 Idem, 1975, pp. 210-211. Ibidem, p. 211. 4.1 O resgate de uma noção problemática de corpo Não é apenas no campo das ciências cognitivas que a dimensão fenomenológica e “não-formalizável” do corpo não encontra espaço, nem tampouco foi nele que teve origem sua desvalorização. Já desde o início da era moderna, os estudos do corpo humano focalizam sua dimensão natural, biológica e anatômica, explorando-o a partir de aparatos tecnológicos cada vez mais avançados, e estabelecendo sobre ele uma série de conhecimentos técnicos. A dimensão vivida do corpo, que vimos exposta nas palavras de Merleau-Ponty, costuma ser deixada de lado pelos cientistas que, em busca de saberes extensivos a todo sujeito humano, descartam aquele tipo de conhecimento que pode ser obtido apenas pela experiência imediata do próprio sujeito. As descrições dos processos corporais, tal como aquelas dos fisiologistas, médicos e neurocientistas, visam estabelecer conhecimentos normativos do corpo; assim, os modelos descritivos da corporeidade e dos fenômenos corporais são tratados como ultrapassados e obsoletos, e deixam de ser objeto para a ciência. Michel Foucault, em seu livro O Nascimento da Clínica162, diz que na passagem da época clássica para a moderna vimos nascer o corpo moderno, constituído predominantemente pelas definições da química e da anátomo-clínica. É na própria observação médica que este corpo que é criado, e sua realidade passa a ser o produto das descrições que a medicina faz sobre ele. Na idade média, o sujeito era o corpo misturado com o mundo e o com o cosmos; ele não tinha um corpo, ele era um corpo. A noção de que temos um corpo surgiu com a modernidade, quando nos separamos de uma totalidade maior e passamos a ter um corpo individualizado. Perdemos todo o encanto, todo o mistério profundo e insondável que jazia debaixo da pele e dentro dos órgãos intocados, e passamos a ter um corpo objetivado, superficializado, manipulado. Deixamos de ser algo que Deus criou, para adquirir o estatuto de mais uma classe entre os objetos naturais, compostos por mecanismos anátomofisiológicos regidos por leis que a ciência fica responsável por decifrar. Um homem morto passa a ser um objeto de estudo; seu corpo é dissecado, seus órgãos transformam-se em peças, que são isoladas, removidas e minuciosamente analisadas. 162 Michel Foucault, O Nascimento da Clínica. Rio de Janeiro: Forense-Universitária, 1980. Vimos que é uma noção problemática acerca do corpo humano, que admite uma multiplicidade de olhares – e que não se subsumem à visão soberana dos cientistas –, que Merleau-Ponty visa resgatar, em oposição a uma concepção monolítica própria da ciência, que adota uma estratégia discursiva e com ela pretende esgotar as possibilidades de compreensão daquilo que é eleito como objeto de estudo. Os fantásticos avanços da ciência médica são de grande valia para a sociedade, e deve ficar claro que não estamos, de modo algum, desvalorizando qualquer ramo da ciência. Os conhecimentos médicos sobre o corpo – enquanto a organização material daquilo que se constitui como um suporte biológico para a existência de uma vida psicológica e cultural – são extremamente úteis para práticas terapêuticas e profiláticas. O ponto crítico está justamente no valor ontológico que se quer estipular, em sua concepção reducionista, que pretende subsumir com seu olhar todos os olhares possíveis. Ter um ponto de vista sobre o corpo, que priorize sua dimensão biológica e anatômica, respondendo a fins pragmáticos, é uma estratégia extremamente útil para o homem em sua vida no mundo. Benilton Bezerra Jr. expressa muito bem esta noção, comentando a expressão naturalismo pragmático sugerida por Ramberg: Naturalismo pragmático indica a perspectiva que parte da premissa de que todos os fenômenos da vida humana são naturais e que se separamos alguns deles em “naturais” e “culturais”, “mentais” ou “físicos”, o fazemos por razões pragmáticas e não porque sejamos obrigados a reconhecer algum abismo ontológico entre os domínios nomeados por essas categorias. As distinções existem porque historicamente as criamos como estratégia teórica opcional, da qual nos valemos quando queremos atingir fins específicos para os quais esses vocabulários são melhores. É o que fazemos, por exemplo, quando – diante da experiência de sofrimento de uma mesma pessoa – adotamos descrições neurofisiológicas para fundamentar escolhas medicamentosas, psicanalíticas para orientar uma psicoterapia ou psicossociológicas para intervir em suas condições de vida. (...) Adotar essa perspectiva é também assumir uma forma de admitir que tudo o que podemos saber da vida e do mundo depende de um ponto de vista, a partir do qual o mundo, a vida e o próprio observador se constituem como objetos de conhecimento.163 Porém, mais do que instituir um ponto de vista sobre o corpo, a ciência médica, no período a que estávamos nos referindo, pretendia estabelecer um sentido absoluto sobre o corpo humano, decifrando a linguagem através do qual fora escrito. Ao final da década de 1980, de acordo com Thomas Csordas, esta predominante noção de que o corpo é um ente fixo e por direito um objeto das ciências biológicas é 163 Benilton Bezerra Jr., 2001, pp. 15-16. contrastada com uma noção problemática164 acerca do corpo humano. No cenário dos estudos culturais interdisciplinares, surge um “novo corpo”, que deixa de ser apenas um fato bruto da natureza para passar a ter uma história; o corpo humano perde a rigidez de seus contornos e transborda para o campo da cultura – e abre-se, assim, um fecundo espaço para diversas formas de compreensão do corpo. Nas últimas décadas, muitas vozes vêm discutindo o papel do corpo e da corporeidade na constituição do sujeito; pela força de suas palavras, Merleau-Ponty tornase um autor central nas discussões que priorizam esta dimensão fenomenológica do corpo. Vejamos agora mais alguns apontamentos, de Merleau-Ponty e outros autores, que ressaltam esta característica do homem como ser-no-mundo, como um agente incorporado, e que fornecem um ponto de vista interessante sobre nós mesmos. 4.2 O ser-no-mundo como agente incorporado Para Charles Taylor, se tivéssemos que resumir o legado filosófico de MerleauPonty em uma frase, diríamos que ele, mais do que ninguém, nos ensinou o que significa entender o homem como um agente incorporado (embodied agent)165. Taylor afirma que esta expressão representa o fato de que (1) o sujeito está inescapavelmente em um mundo – um campo de significados –, (2) está nele como um agente e, essencialmente, (3) o sujeito é um agente incorporado. Assim, toda e qualquer relação que o homem possa estabelecer com o mundo estará sempre permeada por estas condições. Os fenômenos perceptivos e cognitivos ocorrem na abertura deste sujeito que se move no mundo; portanto, estão necessariamente vinculados à idéia de uma ação. Pelo fato de sermos sujeitos engajados no mundo, colados a ele corporalmente166, nossa relação com os entes depende 164 “The kind of body to which we have been accustomed in scholarly and popular thought alike is typically assumed to be a fixed, material entity subject to the empirical rules of biological science, existing prior to the mutability and flux of cultural change and diversity and characterized by unchangeable inner necessities. The new body that has begun to be identified can no longer be considered as a brute fact of nature. In the wake of Foucault, a chorus of critical statements has arisen to the effect that the body is “an entirely problematic notion.” Thomas Csordas, Embodiment and Experience, 2001, p.1. Csordas não deixa de fazer menção aos fatores sócio-econômicos que influenciaram no abandono da noção de corpo como “a bounded entity”. Ele também escreve uma certa reinvenção do corpo, que passa a se constituir também de um objeto de design, e submete-se a novas técnicas de manipulação. Podemos encontrar nas próteses de silicone e nas tatuagens que cobrem grandes regiões do corpo um exemplo deste fato. 165 Charles Taylor, Embodied Agency, 1989, p. 1. 166 Ibidem, pp.2-3. necessariamente do estado de nosso corpo: se meus olhos não estão em boas condições, eu não posso enxergar direito. Muitas doenças, por exemplo, restringem a ação do sujeito no mundo, limitando sua relação com as coisas, diminuindo sua abertura a elas. Taylor também ressalta a influência da estrutura corporal humana, que funda um modo de estar no mundo. Se observarmos nossa própria constituição, veremos que somos seres que caminham para frente e mantém uma postura vertical. A cabeça fica no topo do corpo, voltada para frente; andamos nos equilibrando e alinhando nossa postura com a gravidade; temos a noção de “cima” e “baixo”, “perto” e “longe”. Em função de nossa constituição corporal há uma esfera de objetos que podemos alcançar, uma zona de lugares que podemos atingir facilmente, e áreas mais longe que são menos acessíveis, e assim por diante (e as fronteiras destas podem variar com a condição em que estamos, bem ou doente, enérgicos ou cansados); existem coisas ao meu redor que podem ser movidas, e outras que são fixas. Se fossemos cobras, caranguejos ou formigas, nossa relação com o mundo seria completamente diferente: para cobras e formigas a relação com a força gravidade é completamente diferente da nossa, já que as cobras são répteis e se arrastam no chão, e as formigas facilmente sobem paredes e são capazes de carregar objetos que, comparados às suas dimensões, são extremamente grandes e pesados. Caranguejos andam de lado, e seus olhos estão preparados para enxergar mesmo quando estão enterrados na lama ou na areia. Estes exemplos sugerem que nosso campo perceptual tem uma estrutura própria, e que é experienciada como um campo potencial de ação: percebemos o mundo através de nossa capacidade de agir nele.167 Mesmo quando temos uma relação abstrata com os entes – como, por exemplo, quando estou parado e sentado em uma cadeira pensando sobre eventos distantes, ou divagando por caminhos teóricos sobre as coisas –, esta relação é possível justamente por estamos abertos a um mundo que pode ser explorado, apreendido e teorizado através de nossa percepção, que é nossa abertura primária a este mundo. 4.2.1 Percepção como ação no mundo A noção de que a cognição e a percepção não são apenas atitudes passivas de recepção e representação de estímulos fica bastante enfatizada nas palavras de Drew 167 Ibidem, p.4-5. Leder.168 Este autor afirma que a percepção é ela própria uma atividade motora, sendo artificial a distinção entre percepção e movimento. Por exemplo, o toque é uma maneira de chegar até o objeto, de correr a mão sobre sua superfície. Quando olhamos, viramos nossa cabeça e deixamos nossos olhos passearem na paisagem. Não somos, a partir desta perspectiva, apenas receptores passivos de estímulos, prontos a decodificá-los e representálos mentalmente. Somos agentes incorporados, engajados no mundo, atuando perceptivamente no ambiente em que nos encontramos. Vejamos o que nos diz Mark Johnson sobre este assunto: Seres humanos são criaturas da carne. O que podemos “experienciar” e como concebemos aquilo que experimentamos depende do tipo de corpo que temos e dos modos como interagimos com os diversos ambientes que habitamos. É através de nossos corpos que podemos entender e agir no mundo, com variados graus de sucesso. (...) nossas teorizações e raciocínios são embasados em nossa corporeidade, isto é, em nossas orientações, manipulações e movimentos corporais, na medida em que agimos no mundo. Não importa o quão sofisticadas nossas abstrações se tornem, para que sejam significativas elas precisam manter laços íntimos com nossos modos incorporados de raciocinar e conceituar. Podemos apenas experimentar o que nossa corporeidade nos permite. Somente podemos teorizar usando sistemas conceituais apoiados em nossa experiência corporal.169 Johnson faz alusão à característica de sermos, antes de tudo, seres dotados de um corpo. Portanto nada daquilo que podemos experimentar, mesmo de forma abstrata, pode escapar desta condição. É exatamente a esta noção que Merleau-Ponty se refere quando diz que o corpo é o veículo do ser no mundo, é o pivô do mundo. Sabemos que os objetos têm várias faces, por exemplo, porque poderíamos fazer a volta em torno deles; isto demonstra que temos consciência do mundo por meio de nosso corpo e das ações que podemos desempenhar170. 168 Drew Leder, 1990. “Human beings are creatures of the flesh. What we can experience and how we make sense of what we experience depend on the kinds of bodies we have and on the ways we interact with the various environments we inhabit. It is through our bodies that we are able to understand and act within this world with varying degrees of success. (…) our conceptualization and reasoning are grounded in our embodiment, that is, in our bodily orientations, manipulations, and movements, as we act in our world. No matter how sophisticated our abstractions become, if they are to be meaningful to us, they must retain their intimate ties to our embodied modes of conceptualization and reasoning. We can only experience what our embodiment allows us to experience. We can only conceptualize using conceptual systems grounded in our bodily experience”. Mark Johnson, Embodied Reason, p. 81. 170 Merlau-Ponty, 1999, p. 122. 169 Samuel Todes também é um autor fortemente influenciado pela fenomenologia de Merleau-Ponty, e em sua obra Body and World há várias referências à noção de corporeidade como fundamental para a compreensão do modo de ser do homem no mundo. O prefácio e a primeira introdução deste livro é de autoria de Hubert Dreyfus, onde ele apresenta alguns pontos que são discutidos por Todes ao longo da obra. Todes, de acordo com Dreyfus, também valoriza a relação entre ação e percepção, dizendo que nossa percepção das coisas que nos cercam é uma resposta à nossa insatisfação de se estar perdido no mundo. Ao nos movermos para organizar o campo espaço-temporal, nos fazemos “sentir em casa” no mundo, buscando uma certa familiaridade com as coisas. Em nosso contato com o ambiente, nesta abertura que é a percepção, somos levados ao movimento de forma a reduzir nossa sensação de que estamos distantes de uma gestalt satisfatória, sem que tenhamos, para isso, a necessidade de representar a situação que nos traria conforto. Merleau-Ponty chama esta característica de buscarmos uma satisfação no mundo sem termos sua representação de intencionalidade motora. Todes, por sua vez, utiliza o termo poise para aludir a tal noção171. Com este termo Todes está se referindo a uma certa prontidão para a ação, uma postura equilibrada do homem no mundo que o prédispõe para lidar com as coisas e pessoas que o cercam, que lhe dá um conhecimento perceptual do mundo. Poise, quando obtém êxito, não “coincide” ou “concorda” com seus últimos “efeitos”, como faz a vontade com suas aquisições (...) O êxito da poise não está em sua execução, mas em sua própria existência, através da qual o corpo está, para começar, intencionalmente em contato com os objetos ao seu redor. No momento em que estou agregado às minhas circunstâncias, já sei (...) alguma coisa sobre os objetos aos quais estou fazendo algo com o meu corpo.172 Esta noção de intencionalidade motora, ou de poise, que é bastante marcante na obra de Merleau-Ponty e de Todes, não corresponde a um movimento humano em busca do cumprimento de um objetivo, como é o caso de um míssil programado para atingir um avião no céu. É claro que todos temos uma série de objetivos a cumprir; porém, muitas de nossas ações no mundo ocorrem sem que tenhamos um alvo ou uma meta definida. O 171 Dreyfus, 2001, p. xviii. “Poise does not, when successful, “coincide” or “agree” with its later “effects”, as does will with its achievement (…) the success of poise is not in its execution, but in its very existence, by which the body is, to begin with, knowingly in touch with the objects around it. As soon as I am poised in my circumstances, I know (…) something about those objects to which I am doing something with my body.” Samuel Todes, 2001, p.65-66. Tradução minha. Grifos no original. 172 exemplo citado por Merleau-Ponty de um sujeito que coça um ponto de seu corpo picado por um mosquito é bastante elucidativo: Entre a mão enquanto potência de coçar e o ponto picado enquanto ponto a ser coçado está dada uma relação vivida no sistema natural do corpo próprio. A operação toda tem lugar na ordem do fenomenal, não passa pelo mundo objetivo, e apenas o espectador, que atribui ao sujeito do movimento a sua representação objetiva do corpo vivo, pode acreditar que a picada é percebida.173 O movimento é uma maneira específica de relação com os objetos, através do qual se expressa a existência. Ele não se constitui apenas pela realização de uma trajetória idealizada mentalmente; o espaço corporal não é um espaço representado ou pensado, da mesma forma, a motricidade não é serva da consciência, estando sempre à mercê de seus comandos. Só posso me mover em direção a um objeto caso ele exista para o corpo; porém, esta existência não é, necessariamente, consciente. O corpo próprio tem seu mundo, compreende seu mundo, sem precisar passar por representações ou funções simbólicas. Não preciso planejar o movimento de coçar um ponto picado por um mosquito. A involuntária e impessoal natureza de minha atividade perceptiva básica reflete minha situação de ser vivo engajado no mundo. A relação íntima entre o homem e o meio fica bastante clara nas palavras de Drew Leder, quando enfatiza a natureza qualitativa daquilo que percebemos. Cadeiras nos representam possibilidades de descanso, alimentos são percebidos como algo que pode ser ingerido, determinadas situações ambientais nos convidam a sair ou ficar em casa174. O ambiente impõe condições às quais o corpo não está alheio. É justamente a isto que Georges Canguilhem faz referência, em O Normal e o Patológico, ao dizer que a vida não é indiferente às condições nas quais ela é possível. A vida, para ele, está bem longe de uma indiferença em relação às condições que lhe são impostas; a vida é polaridade. Não há indiferença biológica, mas sim uma preferência em relação ao meio, uma vez que a vida é uma posição inconsciente de valor. Se o corpo não julgasse e escolhesse, não seria capaz de viver em nenhum ambiente: “o vivente humano prolonga, de modo mais ou menos lúcido, um efeito espontâneo, próprio da vida, para lutar contra aquilo que constitui um obstáculo à sua manutenção.”175 173 Merleau-Ponty, 1999, p. 153. Leder, 1999, pp. 17-18. 175 Canguilhem, 1995, p. 96. 174 4.3 A abordagem atuacionista Se o corpo é o primeiro termo na relação do homem com o ambiente, e esta relação é constituída através de nossa corporeidade, podemos então afirmar que não existe um mundo lá fora ao qual o homem se adapta. Afinal, se fôssemos membros de outras classes de animais, nosso mundo seria completamente diferente. Por exemplo, os cachorros possuem um aparelho auditivo capaz de reconhecer sons em freqüências que os humanos não percebem; assim, existem tipos de sons que existem para os cachorros mas que simplesmente não existem para os ouvidos humanos. Portanto o mundo, visto como uma constelação de sentido, também se constitui na relação que determinado organismo estabelece com ele. Avaliando alguns dos primeiros softwares inteligentes – o que fizemos nos primeiros capítulos –, podemos observar que os projetistas da IA inicial não partilhavam da perspectiva de que a corporeidade é fundamental para uma compreensão acerca da cognição, da inteligência e do próprio mundo. Um comportamento inteligente é um comportamento adaptado, através do qual determinado ente recebe informações do meio e responde a ele de forma adequada. Varela, Thompson e Rosch colocam que o sentido mais intuitivo de adaptação é o de um tipo de padrão ou construção que condiz de forma ótima com alguma situação física.176 Temos o exemplo das barbatanas dos peixes, que são bem adequadas ao ambiente aquático, ou das asas dos pássaros, ideais para o vôo. Esta concepção aponta para uma compreensão de que o meio externo já está dado, pronto, e os organismos estão preparados para responder adequadamente a eles. Richard Lewontin, de acordo com Varela et al., apresenta-nos uma outra concepção acerca da relação entre o organismo e o ambiente. Podemos conceber cada organismo como um sistema dotado de determinada configuração estrutural e de aparelhos sensoriais que estabelecem um contato com o mundo. Através do processo evolutivo, a estrutura molda-se de forma a permitir que o sistema ou organismo tenha uma relação satisfatória com o meio. E o ambiente, para o organismo, é aquilo que sua estrutura lhe permite perceber. Lewontin afirma que nossos sistemas nervosos centrais não estão adaptados a quaisquer leis absolutas da natureza, mas àquelas que operam dentro de um quadro estabelecido por nossa própria atividade sensorial. Por exemplo, não somos capazes de ver os raios ultravioleta das flores – o que o sistema nervoso central de uma abelha torna 176 Varela et al., 2003, p. 192. possível177. Assim, para este autor, os seres vivos e o ambiente estão relacionados um com o outro por meio de uma especificação mútua, ou co-determinação. A partir desta perspectiva, o ambiente deixa de significar um conjunto de padrões externos, aos quais os organismos se adaptam, interiorizando-os e representando-os, para ser concebido como o resultado de uma história conjunta, uma congruência que se desenrola a partir de uma longa história de co-determinação. O organismo e o ambiente não são na realidade determinados separadamente. O ambiente não é uma estrutura imposta aos seres vivos de fora, mas é na verdade uma criação desses seres. O ambiente não é um processo autônomo, mas um reflexo da biologia da espécie. Assim como não há organismo sem ambiente, não há ambiente sem organismo.178 E a cognição, que está nesta interface entre o meio e o organismo, deixa de ser uma resolução de problemas com base em representações: em um sentido mais amplo, passa a ser compreendida como uma atuação, ou a produção de um mundo por uma história viável de acoplamento estrutural. Assim as capacidades cognitivas ficam essencialmente ligadas a histórias que são vividas pelo organismo, como um caminho que existe apenas na medida em que é aberto com o caminhar.179 Esta perspectiva sugere-nos também a idéia de que a cognição é uma ação perceptivamente orientada, através da qual o sistema se acopla ao mundo, intencionalmente. Para Varela et al., esta intencionalidade consiste primariamente no direcionamento da ação do organismo no mundo, produzindo este mundo, especificando como o mundo satisfaz ou deixa de satisfazer este construto. Em outras palavras, a intencionalidade corresponde ao que o sistema considera serem suas possibilidades de ação, e como as situações resultantes preenchem ou deixam de preencher essas possibilidades.180 No segundo capítulo expusemos algumas considerações destes autores acerca dos estudos científicos da cognição, colocando a maneira como esta propriedade era concebida, como ela funcionava e como podíamos aferir quando um sistema cognitivo estava funcionando corretamente. As abordagens cognitivista e conexionista expressavam uma determinada concepção sobre a inteligência, sobre o homem e o mundo, espelhando a 177 Richard Lewontin apud Varela et al., 2003, p. 206. Richard Lewontin apud Varela et al., 2003, p. 203. 179 Varela et al., 2003, p. 209. 180 Ibidem, pp. 209-210. 178 configuração das idéias mais aceitas na época inicial dos estudos no campo das ciências cognitivas. Com o passar do tempo, o trabalho nesta área avançou bastante, encontrando em seu caminho uma série de impasses, que indicavam que reformulações seriam necessárias para que se fosse possível continuar progredindo na ampliação da compreensão e simulação da propriedade cognitiva dos organismos. Varela, Thompson e Rosch indicam que a concepção de cognição como uma atuação, uma ação incorporada181, pode oferecer noções-chave para as ciências cognitivas em sua tarefa de explicar a cognição e de construir artefatos cognitivos verdadeiramente inteligentes182. Através de um esquema semelhante ao que apresentamos no segundo capítulo, vejamos como estes autores resumem o programa atuacionista: • Cognição é atuação: uma história de acoplamento estrutural que produz um mundo. • A cognição funciona por meio de uma rede consistindo de níveis múltiplos de sub-redes sensório-motoras interconectadas. • O sistema cognitivo está funcionando adequadamente quando ele passa a ser parte de um mundo continuado existente (como os jovens de todas as espécies fazem) ou molda um novo mundo (como ocorre na história da evolução).183 Segundo Varela et al., na abordagem atuacionista, diferentemente das que a precederam no campo das ciências cognitivas, a noção de representação deixa de ocupar um lugar central, pois o papel do ambiente como fonte de informações para o sistema cognitivo assume o lugar de pano de fundo. Mais do que buscar uma representação ideal do ambiente, o objetivo é que o sistema esteja apto a lidar com determinado ambiente de forma satisfatória. Assim, uma vez que não são estabelecidas configurações ambientais que formariam uma meta a ser atingida, o sistema apresenta um comportamento cognitivo adaptado quando passa a compartilhar de um mundo, novo ou já existente. 181 “Embodied action”. Para maiores detalhes sobre esta expressão, cf. também Evan Thompson, 1996, p. 128. 182 Ibidem, p.211. 183 Ibidem, p. 210. 4.4 Os andróides Com a concepção atuacionista de que a cognição é essencialmente uma ação, uma história de acoplamentos do sistema que produz um mundo, Varela, Thompson e Rosch propõem não apenas “uma posição refinada, com sabor europeu, que não tem aplicações práticas nas ciências cognitivas”.184 Uma vez que, segundo eles, as ciências cognitivas não podem ser separadas da tecnologia cognitiva, o objetivo com esta abordagem é o de fornecer uma explicação sobre o processo cognitivo que viabilize o estabelecimento de artefatos inteligentes, especialmente na área da robótica e da inteligência artificial. A pesquisa desenvolvida nos laboratórios de IA do MIT por Rodney Brooks é um exemplo citado por estes autores da contribuição da abordagem atuacionista na área da robótica. A equipe de Brooks já construiu autômatos dotados de sensores e capazes de transitar no mundo, desviando de objetos, sem que o sistema tenha uma representação do ambiente. Em Achieving Artificial Intelligence Through Building Robots, Brooks sugere com uma rápida olhada sobre o processo evolutivo – há mais de três bilhões de anos surgiram os primeiros seres unicelulares, e o conhecimento técnico e específico sobre objetos (expert knowledge) existe há apenas uma centena de anos – que a inteligência humana levou muito tempo para chegar ao ponto em que está hoje. Logo, seria um tanto pretensioso o objetivo de inventar, em um curto espaço de tempo, máquinas capazes de ser tão inteligentes quanto os homens. O lento progresso dos últimos 25 anos demonstrou, como já vimos anteriormente nas palavras de Minsky, que trabalhar sobre micro-mundos e sub-problemas era o caminho mais plausível para a aquisição de artifícios inteligentes. Atualmente, respondendo não somente a esta estratégia, mas fundamentalmente a fins comerciais – já que os investimentos em tecnologia envolvem uma grande quantia de capital –, o trabalho na área da IA tem resultado em uma série de “assistentes inteligentes”, que nos auxiliam em nosso trabalho e vida cotidiana. Brooks diz que ninguém mais fala sobre reproduzir toda a capacidade inteligente humana. As expectativas iniciais, que vimos nas palavras de Simon no segundo capítulo, naturalmente perderam força em função das grandes dificuldades que surgiam185. 184 185 Ibidem, p. 211. Rodney Brooks, 1991. A intenção confessa neste artigo de Brooks era a de construir Criaturas – robôs completamente autônomos, que seriam vistos pelos homens como agentes móveis e aparentemente inteligentes por seus próprios métodos. Assim, fica de lado o objetivo de construir artifícios dotados de uma inteligência semelhante à humana, para construir máquinas capazes de alcançar o nível de inteligência de um inseto. Com o avanço tecnológico seria então possível aprimorar estes mecanismos e formar robôs cada vez mais aptos a conviver no mundo humano. O artigo a que nos referimos foi escrito por Brooks em 1987. Desde então, muito já se avançou na área da robótica. Porém, a imagem de um andróide186 inteligente habitando o mundo dos homens, ilustrada em diversas obras de ficção científica187, não representa nada além de um sonho, se comparada com os resultados concretos disponíveis hoje. Mas robôs como o COG188, do MIT, e o ASIMO, da Honda, demonstram que às vezes os sonhos são os primeiros passos para transformar um grande projeto em realidade. Capaz de caminhar, correr, subir e descer escadas, acenar para rostos reconhecidos, reconhecer e obedecer a comandos de voz, dançar e até chutar uma bola de futebol, o ASIMO189 impressiona com suas habilidades e é uma prova “viva” de que a IA de fato não chegou ainda à estagnação – como previra Dreyfus. É claro que, comparado com um ser humano, este pequeno robô de um metro e meio de altura é extremamente débil e limitado. Mas, se avaliarmos todos os avanços desde a máquina de Turing até os robôs de hoje, veremos que muito já foi feito e que, provavelmente, muito ainda está por vir. Lacan deixa bem claro o fato de que as máquinas não são humanas. Quanto a isto, não nos parece haver dúvidas: há uma diferença ontológica entre homens e máquinas. O que nos parece ser mais difícil de afirmar, entretanto, é o quão humanos somos de fato. Assim concordamos, mais uma vez, com Lacan. Porém esta é uma questão que perpassa toda a história da filosofia ocidental, para a qual temos uma diversidade de respostas, e nenhuma delas é capaz de fornecer-lhe uma solução final. Com a noção de corporeidade, nosso intuito foi o de demonstrar que a inteligência humana não se resume em cálculos lógicos mentais. Desta forma pudemos lançar luz, a partir de um enfoque fenomenológico, aos problemas encontrados nos primeiros projetos de pesquisa na área da inteligência artificial. A concepção de homem como ser-no-mundo 186 No dicionário Aurélio a palavra andróide é definida como “autômato de figura humana”. Com o exemplo dos filmes “Guerra nas Estrelas”, “O Exterminador do Futuro”, “Blade Runner”, “Inteligência Artificial”, “AniMatrix”, e “Eu Robô”. 188 Para informações sobre este robô humanóide, acesse <http://www.ai.mit.edu/projects/humanoid-roboticsgroup/cog/cog.html> 189 Informações obtidas no site <http://www.asimo.honda.com> 187 também nos serve para esclarecer porque “o corpo próprio se furta, na própria ciência, ao tratamento que a ele quer se impor”. 190 Há processos corporais onde as ferramentas científicas não chegam, dos quais não temos, portanto, explicações claras e precisas. O grande número de trabalhos que exploram a noção de corporeidade, impressos pela MIT Press191, pode significar o crescente interesse e valorização naquilo que por muito tempo foi deixado de lado nas investidas rumo o estabelecimento das máquinas inteligentes. Partindo do princípio de que o ser humano é apenas uma máquina extremamente complexa, os laboratórios de inteligência artificial vêm ampliando suas conquistas e vencendo seus limites, levando a simulação da inteligência humana cada vez mais longe. Sobre o futuro das máquinas inteligentes no mundo real, Brooks afirma que será o tempo quem dirá o que é ou não possível192. Sabemos que, de fato, o modo científico de compreender e simular as faculdades humanas apresentam apenas pontos de vista sobre o ser humano. Porém, não nos cabe dizer se os cientistas serão capazes ou não de, um dia, inventar uma máquina muito parecida conosco. 190 Merleau-Ponty, 1999, p. 110. Com o exemplo de Good Looking. Essays on the Virtue of Images, de Barbara Maria Stafford (1996); The New Phrenology. The Limits of Localizing Cognitive Processes in the Brain, de William R. Uttal, (2001); e do livro What Computers Still Can’t Do, de Hubert Dreyfus. 192 “Only experiments with real Creatures in real worlds can answer the natural doubts about our approach. Time will tell.” Rodney Brooks, 1991. 191 Considerações Finais Na tentativa de instrumentalizar a concepção de que a inteligência é a computação de símbolos, através da qual representamos o mundo de forma adequada e desempenhamos comportamentos adaptados e coerentes, surgiu a inteligência artificial. Com ela nasceu o EDVAC, o Student, o GPS, e outros aparatos inteligentes. O homem se divertia com seu novo brinquedo, o computador, que mostrava-se muito útil e extremamente avançado se comparado com qualquer coisa vista até então. Supunha-se que, se tanto fora feito em tão pouco tempo, não demoraria muito para se tornar realidade algo que até então não passava de um sonho: máquinas convivendo no mundo dos homens, como servas incondicionais, ou animais eletrônicos de estimação. Porém, os avanços tecnológicos não acompanhavam o ritmo das fantasias; muito mais se imaginava do que se dispunha de fato. Os computadores até podiam jogar xadrez muito bem, e resolver problemas complicados, mas estavam longe de chegar ao conhecimento de uma criança ou à inteligência de um inseto que transita livre de um algoritmo (pelo menos até hoje não encontrado) pelo mundo. Pensava-se que o problema poderia estar no modelo de processamento central, já que os neurônios não pareciam funcionar desta maneira. As redes nas quais o sentido emerge da interação de elementos simples pareciam fornecer novos caminhos na compreensão e simulação do funcionamento cerebral, tornando possível, inclusive, construir um aparato capaz de percepções visuais. Então tudo parecia ser uma questão de conhecer um pouco mais dos neurônios e circuitos eletrônicos, dividir o ambiente em pequenos pedaços de informação, e esboçar as regras que organizam a interface, a passagem dos bits de informação para dentro do organismo, e a forma como esta informação é reorganizada dentro dele. Em ambientes determinados, as respostas sempre foram boas, e estão cada vez melhores. E com relação a este avanço fica difícil propor algum limite. Rapidamente os computadores se espalharam pelo mundo, podemos encontrar um representante desta “espécie” nos mais diversos lugares. Além disto, outros aparelhos eletrônicos realmente se apresentam como ferramentas úteis, sempre à disposição do homem (exceto nos casos de defeito ou falta de energia para seu funcionamento). Mas quando o homem é o modelo, a complexidade que parece ser necessária atingir é desanimadora. Somos seres muito complexos. O campo onde ocorrem estudos científicos da cognição, do funcionamento cerebral e de qualquer faculdade mental, continua em expansão e a cada dia novas ferramentas são inventadas. Mas na medida em que se inventam novas descobertas, muitos mistérios também se anunciam. A estratégia do trabalho no campo da IA continua sendo a de construir sistemas cada vez mais complexos, mais robustos, para que o agrupamento destes agentes em sociedades resulte em resultados cada vez mais interessantes. O desafio maior é o de encontrar a tecnologia mais adequada – ou seja, aprimorar a engenharia eletrônica, para a computação cada vez mais eficaz e segura, e o refinamento da lógica, para uma maior abrangência dos softwares. Os erros podem indicar o melhor caminho. Desde que eles sejam considerados, admitidos e depurados. Para Dreyfus eles eram evidentes. Uma análise de perto sobre o funcionamento dos sistemas inteligentes, em suas virtudes e defeitos, mais uma verificação dos pressupostos que jaziam no solo da IA, deixava evidente que aquilo com o que se sonhava estava muito distante do que se era possível fazer. Dreyfus se propôs a explicar filosofia para engenheiros, de modo a demonstrar o que era uma hipótese e o que era um axioma, estabelecendo a diferença entre uma coisa e outra. No campo da filosofia, as considerações de Dreyfus estão bem contextualizadas e apresentam fundamento; mas na engenharia de softwares a linguagem é bastante diferente, os valores são outros, e resultados práticos sobressaem-se às especulações teóricas. Até porque falar é barato, mas construir computadores, não. Dreyfus percebia com clareza que a concepção de conhecimento e de ser humano que embasava o trabalho no campo da IA era capaz de fornecer uma pequena compreensão sobre aquilo que se investigava. Ele ainda sugeria uma saída: há coisas que não são possíveis de serem faladas em termos técnicos e explícitos, e o corpo humano, por ser o veículo do homem no mundo, não pode ser deixado de lado em qualquer discussão acerca dos fenômenos mentais. A condição corporal de ser-no-mundo do homem encontra nas palavras de Merleau-Ponty uma bela expressão. Tanto que muitos depois dele ainda debatem a noção de corporeidade, levando-a a diversos ramos do conhecimento – seja na filosofia, psicologia, ciências cognitivas, inteligência artificial. Além de termos uma interessante compreensão acerca daquilo que o homem é, também a fenomenologia propicia uma compreensão sobre o que de fato é o conhecimento do homem e do mundo, bem mais ampla da que circunda e atravessa o campo dos estudos científicos da cognição. Mostrando que toda a teoria é uma construção humana, uma explicação inventiva do mundo e dos entes, a abordagem fenomenológica estabelece que o conhecimento é sempre posterior ao fato. Desde Galileu que a ciência tem o objetivo de decifrar a linguagem a partir da qual a natureza fora escrita. Parte-se do princípio que existem leis que regem o funcionamento de tudo aquilo que compõe o universo, e isto se aplica ao homem e aos objetos em geral – afinal, o homem não tem nada de especial, ele é apenas mais uma classe entre os objetos naturais. Assim torna-se mais do que justo procurar as leis que determinam os fenômenos psíquicos, para que se possa entender seu funcionamento, explicá-lo a partir de termos técnicos precisos. Depois disto, reduzir estas regras a bits e alimentá-las de colherinha no computador. Aí apertamos um botão e observamos como a mente funciona, tendo inclusive uma teoria final sobre os processos psicológicos. Maneira bastante prática de compreender o homem. Mas a infinita complexidade do aparelho humano demonstra que a tarefa é quase infindável, pois, a cada dia que passa, mais regras são encontradas no funcionamento do homem, em sua composição, e mesmo assim elas não formam o conjunto que seria necessário para que uma máquina fosse dotada do mesmo resultado do aparato humano: desempenhar um comportamento inteligente, em diversos tipos de ambientes e situações. Porém já temos uma explicação, sem dúvida bastante abstrata, para a dificuldade de se simular artificialmente o homem. Fica bastante claro na abordagem fenomenológica que o homem em seu corpo no mundo é anterior a qualquer construção teórica, justamente porque toda estruturação de conceitos é sempre resultado do trabalho de homens em busca da compreensão e da explicação dos entes que o cercam. Mais do que descobrir regras, ele as inventa. É claro que esta invenção é metodologicamente útil, ela permite que o homem habite de forma criativa seu mundo, agindo nele e sobre ele. Porém tudo não passa de pontos de vista estruturados sobre os fenômenos constituintes do ambiente humano. As ferramentas conceituais e técnicas são extremamente adequadas para muitas das tarefas às quais o homem se impõe. O conhecimento específico sobre as mais diversas áreas expressa o fato de que este modo de conhecer que se chama ciência é de fato uma ótima invenção. Porém, Merleau-Ponty alerta-nos de que o sentido das coisas não se esgota a partir de uma perspectiva hermenêutica, e o próprio mundo já é repleto de sentidos que são anteriores à nossa reflexão e compreensão consciente. Isto porque somos seres essencialmente incorporados, dotados por uma certa energia que pulsa nossa existência e nos liga por fios intencionais a um mundo que é anterior a qualquer análise que se faça dele. A partir da posição oferecida pela fenomenologia para o homem, o mundo e o conhecimento de ambos, Dreyfus redige um texto que, se bem aproveitado, poderia oferecer-se como um rico e elucidativo material para a compreensão dos impasses dos primeiros projetos na área da inteligência artificial. Mas, justamente por ser filósofo, muitos não ouviam ao que Dreyfus dizia, e talvez por isto ele tinha uma grande preocupação em defender sua perspectiva e em provar que a presente na IA – sobre o homem e o mundo – era limitada e fatalmente levaria os projetos à ruína. Alguns avanços ameaçaram as previsões de Dreyfus acerca dos fracassos deste campo. Mas a dica principal que ele deu, sobre o perigo de se tomar uma hipótese por um axioma, e do papel da corporeidade em tudo aquilo que seja de algum modo humano, permanecia válida e coerente. Apesar de haver discórdia com relação à contribuição da filosofia para o avanço da IA – Brooks fizera questão de deixar claro que seu trabalho não era inspirado no que Heidegger escreveu193 –, mudanças na concepção de ambiente e de como o homem se adapta a ele vêm ocorrendo e resultando em robôs cada vez mais capazes. Um homenzinho mecânico de um metro e meio que é capaz de reconhecer rostos, vozes, acenar para seus conhecidos, caminhar, correr, dançar e chutar uma bola já transita entre os humanos e demonstra que a inteligência artificial é cada vez mais concreta. Diante disto tudo muitos se perguntam sobre o futuro das máquinas, o destino dos homens e o número de mistérios que permanecerão insondáveis naquilo que se chama self, subjetividade ou humanidade. Porém esta é uma pergunta que não faremos aqui. E finalizamos com uma certeza: homens são homens, máquinas são máquinas, e os computadores não tem um corpo – humano, pelo menos. 193 “In some circles much credence is given to Heidegger as one who understood the dynamics of existence. Our approach has certain similarities to work inspired by this German philosopher but our work was not so inspired. It is based purely on engineering considerations. That does not preclude it from being used in philosophical debate as an example on any side of any fence, however.” Rodney Brooks, 1991. Referências Bibliográficas BERGSON, Henri. “O Pensamento e o Movente - Introdução”. In: Os Pensadores. SP, Ed. Abril S/A, 1974. BEZERRA JR., Benilton. “O Lugar do Corpo na Experiência do Sentido: uma perspectiva pragmática”. In: BEZERRA JR., Benilton, PLASTINO, Carlos Alberto (Orgs). Corpo, Afeto, Linguagem – a questão do sentido hoje. Rio de Janeiro, Rios Ambiciosos, 2001. BROOKS, Rodney. Intelligence Without Representation. Cambridge, Massachusetts, MIT – Artificial Intelligence Laboratory, 1991. Disponível na Internet via WWW. URL: <http://people.csail.mit.edu/u/b/brooks/public_html/papers/representation.pdf>. Arquivo capturado em 18 de fevereiro de 2005. CANGUILHEM, Georges. O Normal e o Patológico. RJ: Forense Universitária, 1995. CSORDAS, Thomas J. Embodiment and Experience. The existential ground of culture and self. Cambridge, Cambridge University Press, 2001. DREYFUS, Hubert L. O Que os Computadores Não Podem Fazer. RJ: A Casa do Livro Eldorado, 1975. ______, What Computers Still Can’t Do. Cambridge: The MIT Press, 1999. ______, “Introduction I: Tode’s account of Nonconceptual Perceptual Knowledge and Its Relation to Thought”. In TODES, Samuel. Body and World. Cambridge, Massachusetts, and London, England, The M.I.T. Press, 2001. ______, Mensagem enviada a Daniel Dennett em 27 de Maio de 1997. [online] Disponível na Internet via WWW. URL: <http://slate.msn.com/id/3650/entry/23906/>. Arquivo capturado em 15 de dezembro de 2004. DUPUY, J.P. Nas origens das Ciências Cognitivas. São Paulo, Ed. Unesp, 1996. EYSENCK, Michael, KEANE, Mark. Psicologia Cognitiva: Um Manual Introdutório. Porto Alegre, Artes Médicas, 1994. FOUCAULT, Michel. O Nascimento da Clínica. Trad. Roberto Machado. Rio de Janeiro, Forense-Universitária, 1980. GARDNER, Howard. La Nueva Ciencia de la Mente. 1987. HEIDEGGER, Martin. Ser e Tempo. Petrópolis, Vozes, 2002. JOHNSON, Mark. “Embodied Reason”, In: GAIL, Weiss, HABER, Honi Fern (orgs.) Perspectives on Embodiment – The Intersections of Nature and Culture. London and New York, Rutledge, 1999, pp. 81-102. LACAN, Jacques. Seminário 2 – O Eu na Teoria de Freud e na Técnica da Psicanálise. Edição eletrônica com as obras completas de Lacan. 1 CD-ROM. LEDER, Drew. The Absent Body. Chicago and London, The University of Chicago Press, 1990. MERLEAU-PONTY, Maurice. Fenomenologia da Percepção. SP, Martins Fontes, 1999. MINSKY, Marvin. Conscious Machines. [online] Disponível na Internet via WWW. URL: <http://kuoi.asui.uidaho.edu/~kamikaze/doc/minsky.html>. Arquivo capturado em 14 de dezembro de 2004. ______, Why People Think Computers Can’t. [online] Disponível na Internet via WWW. URL: <http://web.media.mit.edu/~minsky/papers/ComputersCantThink.txt>. Arquivo capturado em 8 de novembro de 2004. MORENTE, Manuel Garcia. Fundamentos de Filosofia. São Paulo, Mestre Jou, 1980. PASSOS, Eduardo H. O Sujeito Cognoscente entre o Tempo e o Espaço. Rio de Janeiro, Instituto de Psicologia - UFRJ, 1992. (Tese de Doutorado não publicada). PRIGOGINE, Ilya. A Nova Aliança: metamorfose da ciência, por Ilya Prigogine e Isabelle Stengers. Brasília, Editora Universidade de Brasília, 1984. SIMON, Herbert A. As Ciências do Artificial. Coimbra, Portugal, Ed. Armênio Amado, 1981. ______, The shape of automation for man and management. New York, Harpper e Row, 1965. STORK, David. The End of an Era, The Beginning of Another? Hal, Deep Blue and Kasparov. [online] Disponível na Internet via WWW. URL: <http://www.research.ibm.com/deepblue/learn/html/e.8.1.html>. Arquivo capturado em 14 de dezembro de 2004. TAYLOR, Charles. “Embodied Agency”, In Henry Pietersma (Org.) Merleau-Ponty: Critical Essays. Washington DC, University Press of America, 1989, pp. 1-21. THOMPSON, Evan. The Mindful Body. In: Michael O’Donovan-Anderson (org) The Incorporated Self – Interdisciplinary Perspectives on Embodiment. Lanham, Maryland, Rowman & Littlefield Publishers, INC., 1996, pp. 127-144 TURING, Alan M. Computing Machinery and Intelligence. 1950. [online] Disponível na Internet via WWW. URL: <http://www.abelard.org/turpap/turpap.htm>. Arquivo capturado em 17 de dezembro de 2004. VARELA, Francisco, THOMPSON, Evan, ROSCH, Eleanor. A Mente Incorporada. Porto Alegre, Artes Médicas, 2003.