UNIVERSIDADE DO ESTADO DO RIO DE JANEIRO
INSTITUTO DE MEDICINA SOCIAL
COMPUTADORES NÃO TÊM CORPO
Os problemas iniciais da Inteligência Artificial e a noção fenomenológica de
corporeidade
Paulo Afonso da Rosa Santos Filho
Dissertação apresentada como requisito parcial para
obtenção do grau de Mestre em Saúde Coletiva, Curso
de Pós-graduação em Saúde Coletiva – área de
concentração em Ciências Humanas e Saúde do
Instituto de Medicina Social da Universidade do
Estado do Rio de Janeiro
Orientador: Francisco Javier Guerrero Ortega
Rio de Janeiro
Fevereiro de 2005
Agradecimentos
Aos meus pais, que tornaram isto tudo possível;
À Luciana, minha futura esposa, pelo amor e pelas minuciosas revisões;
Ao meu irmão Luciano, por me manter a par sobre o que os computadores podem de fato
fazer;
Ao meu orientador Francisco Ortega, por ter prontamente aceitado orientar-me, e por todo
o auxílio durante a confecção deste trabalho;
A Eduardo Passos, por ter gentilmente ajudado durante a pesquisa, fornecendo-me material
de importância substancial para esta dissertação;
A Benilton, com quem muito aprendi em suas claras e elucidativas aulas;
A João Rezende, que, muito mais que um professor, sempre foi um grande amigo,
ensinando-me, sem perceber, quase tudo o que sei sobre filosofia;
A Roberto Novaes, quem me iniciou no caminho da fenomenologia, e foi sempre um
amigável ouvinte às minhas dúvidas e inquietações;
Aos meus colegas de curso, por trazerem leveza ao processo de desenvolvimento deste
trabalho.
Sumário
Resumo..........................................................................................................................4
Introdução......................................................................................................................6
1. O nascimento das máquinas inteligentes........................................................8
1.1 Cibernética................................................................................................................13
1.2 Inteligência Artificial................................................................................................19
2. O que os computadores não podem fazer.....................................................29
2.1 Ciências Cognitivas...................................................................................................29
2.2 Críticas à razão artificial............................................................................................33
2.3 A breve história do solucionador de problemas gerais..............................................39
2.4 O desempenho dos computadores em jogos de xadrez.............................................42
2.5 O teste de Turing.......................................................................................................46
2.6 O quarto chinês de John Searle.................................................................................48
2.7 Processamento de informação semântica..................................................................49
3. Duas formas de conhecer o homem e o mundo: a ciência e seus modelos,
a fenomenologia e o ser-no-mundo..................................................................54
3.1 Os modelos na ciência...............................................................................................55
3.2 Os quatro pressupostos fundamentais da inteligência artificial.................................61
3.2.1 O pressuposto biológico......................................................................................61
3.2.2 O pressuposto psicológico ..................................................................................63
3.2.3 O pressuposto epistemológico.............................................................................66
3.2.4 O pressuposto ontológico ...................................................................................68
3.3 Heidegger e o ser-no-mundo-com-os-outros.............................................................68
3.4 Merleau-Ponty e a reflexão sobre o irrefletido..........................................................70
3.4.1 A corporeidade....................................................................................................73
4. O corpo.....................................................................................................................77
4.1 O resgate de uma noção problemática de corpo........................................................81
4.2 O ser-no-mundo como agente incorporado...............................................................83
4.2.1 Percepção como ação no mundo.........................................................................84
4.3 A abordagem atuacionista.........................................................................................88
4.4 Os andróides..............................................................................................................91
Considerações Finais................................................................................................94
Referências Bibliográficas.......................................................................................98
Resumo
SANTOS Fº, Paulo Afonso. ORTEGA, Francisco Javier. Computadores não têm
corpo - os problemas iniciais da Inteligência Artificial e a noção fenomenológica de
corporeidade. Rio de Janeiro, 2005. 100p. Dissertação de Mestrado – Instituto de
Medicina Social, Universidade do Estado do Rio de Janeiro.
A partir de uma análise sobre alguns dos projetos desenvolvidos na área da
Inteligência Artificial até a década de 1980, verificamos uma grande distância entre o que
os computadores eram realmente capazes de fazer e o ideal de construir autômatos aptos a
apresentar um comportamento inteligente semelhante ao dos humanos. Uma avaliação dos
pressupostos que embasavam as pesquisas na área das ciências cognitivas demonstra que
as hipóteses de que a inteligência se constitui de uma computação de símbolos, e de que o
homem nada mais é que uma máquina complexa, foram tomadas por axiomas e acabaram
por pavimentar o solo teórico dos primeiros projetos na área da inteligência artificial.
Com a fenomenologia temos uma compreensão e uma concepção diferente sobre o
homem, o mundo e o conhecimento. Para Merleau-Ponty, devemos partir de nossa
condição inicial, a de estar no mundo em um corpo, para compreender o conhecimento
como algo que é inventado pelos homens na tentativa de conhecer a si, aos outros e ao
universo. Além disto, somos seres dotados de uma corporeidade, que nos impõe um modo
de estar no mundo do qual não temos consciência plena, e que insiste em escapar do
conhecimento modular científico. Parece haver, portanto, uma certa dose de humanidade
que resiste à explicação formal que, conseqüentemente, não pode ser estruturada em um
algoritmo. Seria preciso simular não apenas a mente, mas a corporeidade humana em sua
relação pré-consciente com o mundo, e muito mais, para dotar máquinas de uma
inteligência geral semelhante à nossa.
Palavras-chave
Inteligência Artificial; corporeidade; fenomenologia;
Abstract
SANTOS Fº, Paulo Afonso. ORTEGA, Francisco Javier. Computers are not
embodied – the early Artificial Intelligence problems and the phenomenological
embodiment notion. Rio de Janeiro, 2005. 100p. Masters Degree Dissertation –
Instituto de Medicina Social, Universidade do Estado do Rio de Janeiro.
Reviewing the early Artificial Intelligence problems until 1980, one can see a big
distance between what computers really could do and what men dreamt about building
robots able to perform intelligent behavior as a human can do. Through the analysis of the
theoretical concepts beneath research in cognitive science becomes clear that the
hypothesis of the intelligence as a symbolic computation, and that of man is a complex
machine where made axioms that are the basis of investigations in artificial intelligence.
From a phenomenological point of view it is possible to have a different
understanding about man, world and knowledge. Merleau-Ponty says we must start from
our first condition, that of being embodied, to understand knowledge as a tool made by
men aiming to know themselves, the others and the universe. We are embodied beings, and
this means a way to be in the world, of which we are not completely aware of, and which
insists to escape from a scientific modulation. So it seems to be some kind of human
attribute that resists to a formal explanation, and can’t be expressed in an algorithm. It
would be necessary to simulate not only mind, but human embodiment in its pre-conscious
coping, and much more, to make machines able to become as intelligent as human beings.
Keywords
Artificial Intelligence; embodiment; phenomenology.
Introdução
Na década de 1950 nascia a inteligência artificial (IA), concretizando uma pequena
parte do sonho de se ter, entre os homens, máquinas capazes de apresentar um
comportamento inteligente. Para que fosse possível construir computadores e sistemas
inteligentes, fazia-se necessário um conhecimento profundo da inteligência humana – já
que esta servia de modelo para as pesquisas na área da IA. Logo de início ficou claro que
esta era uma tarefa nada simples, devido à complexidade da “máquina humana”.
Hubert Dreyfus encarregou-se de avaliar o desempenho dos primeiros softwares,
construídos pelos pesquisadores da inteligência artificial até o final da década de 1970;
entre outras tarefas, Dreyfus propôs-se a discutir os pressupostos que embasavam as
pesquisas na área, e ressaltar o papel do corpo nos fenômenos mentais. Aproveitaremos a
ponte feita por Dreyfus, entre a inteligência artificial e a fenomenologia, para debater sobre
os pressupostos teóricos que fundamentavam o estudo científico dos fenômenos mentais,
em contraponto com a concepção de corporeidade trabalhada por Merleau-Ponty e outros
autores que escrevem a partir da abordagem fenomenológica. O objetivo principal do
presente trabalho se constitui, então, de uma análise dos impasses encontrados nos
primeiros projetos de pesquisa na área da inteligência artificial, apontando à contribuição
que a noção fenomenológica de corporeidade pode fornecer para a compreensão do homem
como um ser-no-mundo. É justamente a ausência desta noção no campo das ciências
cognitivas, em especial nos projetos em IA, que fornecemos como uma possível
justificativa para os primeiros problemas encontrados nas tentativas de se simular
artificialmente a inteligência humana.
Iniciaremos nossa pesquisa com um breve histórico das máquinas de calcular. Elas
nos levarão até às discussões cibernéticas, onde a possibilidade de se compreender
matematicamente o psiquismo gerou um tumulto teórico e abriu caminho para diversas
possibilidades de compreensão do cérebro e da mente. Chegaremos nos primeiros
softwares inteligentes, capazes de solucionar, em alguns segundos, alguns problemas
lógico-matemáticos que adultos levariam minutos para resolver.
No segundo capítulo traremos inicialmente uma visão resumida do campo das
ciências cognitivas, apresentando as concepções acerca da cognição humana que
embasavam as pesquisas na área da inteligência artificial. Passaremos às considerações de
Hubert Dreyfus, filósofo que se encarregou de avaliar estas pesquisas e apresentar seus
pontos falhos. Discutiremos sobre os solucionadores de problemas gerais, a participação de
computadores em jogos de xadrez, e sobre a possibilidade das máquinas pensarem e
compreenderem.
Começamos o terceiro capítulo com uma retomada da discussão, a partir da análise
de Dreyfus sobre os pressupostos fundamentais da inteligência artificial. Após versar um
pouco sobre o papel dos modelos nos estudos científicos, utilizaremos a fenomenologia de
Heidegger e Merleau-Ponty para fazer um contraponto e apresentar um outro modo de
compreender o homem, o mundo e o conhecimento. Veremos que o modelo computacional
é apenas uma maneira de compreender o pensamento, que resulta do esforço dos homens
da ciência de explicar o funcionamento de sua própria natureza. Toda forma de
conhecimento se constituirá sempre como um ponto de vista, um paradigma, que nunca
esgotará as possibilidades de sentido de qualquer objeto que seja. A inteligência, a
percepção e o pensamento são anteriores a qualquer explicação, e por isto sempre terão
algo a esconder de qualquer método de investigação. E uma vez que não há homem sem
um corpo, Merleau-Ponty nos mostra que não podemos descartar este que é o ancoradouro
do homem no mundo, seu veículo no espaço, para a compreensão de qualquer fenômeno
subjetivo.
Finalizaremos nossa discussão apresentando, no quarto e último capítulo, uma
noção de corpo diferente da que é predominante no ramo científico. Traremos algumas
afirmações que situam o homem como um agente incorporado, que atua perceptivamente
no mundo, constituindo-o de sentido. Apresentaremos também a abordagem atuacionista,
que expressa um avanço no campo das ciências cognitivas com relação à compreensão da
percepção humana. Finalmente, concluiremos esta dissertação com algumas considerações
sobre o sonho de se ter um dia andróides inteligentes convivendo conosco.
1
O nascimento das máquinas inteligentes
Por muito tempo utilizou-se um aparato, inventado pelos orientais, chamado
ábaco1, que se constituía de um quadro dotado de contas que deslizavam sobre eixos,
através do qual se realizavam cálculos matemáticos. Bastante simples e arcaico, o ábaco já
era uma “máquina” de calcular. Mas somente ao final do século XVII é que teríamos, com
o filósofo e matemático Blaise Pascal, a invenção da primeira “calculadora mecânica”
capaz de efetuar as 4 operações básicas. A máquina de Pascal era, de acordo com Eduardo
Passos2 composta de rodas dentadas cuja articulação permitia a totalização de quantidades,
e através de suas engrenagens era possível verificar cálculos aritméticos3.
Na segunda metade do século XIX Charles Babbage, matemático de Cambridge,
dedicaria muito tempo e dinheiro à empresa de criar uma calculadora automática de mesa
capaz de realizar complicadas operações aritméticas necessárias para a navegação e para a
balística. Segundo Howard Gardner4, a máquina de Babbage tinha custos elevadíssimos,
uma vez que era composta por um grande número de pequenas peças de precisão.
Inicialmente financiado pelo governo britânico, e depois por uma condessa chamada Lady
Lovelace, Babbage chegou ao projeto de sua “máquina analítica”, capaz de abordar
qualquer problema aritmético através do uso de cartões perfurados que informavam à
máquina qual tarefa realizar5.
1
Informações obtidas no curso de “Introdução à Informática”, em 1995, da Faculdade de Informática da
PUC-RS. Não possuímos referências precisas sobre o ábaco, mas temos certeza, entretanto, de sua existência
e função.
2
Passos, 1992, p.209.
3
Alguns autores se propuseram a organizar uma história das ciências cognitivas e dos computadores, dos
quais Howard Gardner (1987) é um exemplo. Estamos atentos, e de acordo com Passos (1992, p.208), de
que a história do desenvolvimento das máquinas de computação não se deu através de evolução linear, e que
não há um ponto preciso para sua emergência. Buscando introduzir o tema ao leitor, e conduzí-los às
questões de nosso interesse, selecionaremos algumas construções teóricas e técnicas que contribuíram para o
nascimento dos computadores.
4
Gardner, 1987, p.162.
5
É interessante notar que este mesmo método, criado há mais de um século – e que parece bastante arcaico
se comparado com os disquetes, HD’s, CD’s e DVD’s que utilizamos hoje para inserir e armazenar dados –,
foi largamente utilizado, ainda na década de 1980, para inserir dados nos computadores.
Contemporâneo a Babbage, o matemático inglês George Boole se empenhava em
uma tarefa bastante pretensiosa: discernir as leis básicas do pensamento, embasando-as na
lógica. Gardner explica que:
a fim de eliminar as ambigüidades próprias da linguagem natural que
haviam dominado a lógica desde a época em que Aristóteles estudou o
silogismo, Boole empregou um conjunto de símbolos arbitrários (a, b, x,
y, etc.) para representar os elementos que compõem o pensamento. (...)
Estes elementos podiam combinar-se ou dissociar-se mediante operações
de adição, subtração ou multiplicação, para formar novas expressões, ou
concepções que incluiriam os mesmos elementos. E procedimentos deste
tipo equivaleriam a um tipo de "álgebra mental", por meio da qual era
possível raciocinar em termos abstratos não contaminados por alguma
associação com conteúdos específicos. Boole chamou estas operações de
"leis do pensamento" e observou algo de enorme importância para o
futuro: esta lógica constituía um sistema de dois valores, verdadeirofalso. Qualquer enunciação lógica, seja qual for seu grau de
complexidade, podia ser expressa mediante um 1 (que representava
“todo” ou “verdadeiro”) ou um 0 (que representava “nada” ou “falso”). 6
Boole buscava eliminar a ambigüidade da lógica, fundamentando-a, para isso, na
matemática – e assim ele fundava o que viria ser chamado posteriormente de “álgebra
booleana”. Conseguindo reduzir qualquer enunciação lógica a combinações de 1 e 0
(“Sim” e “Não”, ou “Verdadeiro” e “Falso”), mais do que encontrar as “leis do
pensamento” – seu pretensioso projeto – Boole chegou à lei que rege até hoje a
representação e a análise dos circuitos digitais. A álgebra booleana é usada atualmente para
representar matematicamente circuitos eletrônicos, permitindo analisar o comportamento
destes circuitos e simplificá-los para que se possa construí-los da forma mais barata
possível7. O bit, que é a menor unidade de informação dos computadores digitais, pode
assumir apenas dois valores: 0 ou 1. Assim, de natureza binária, os bits são regidos pela
álgebra booleana, e constituem o nível mais fundamental da informação que é processada
por nossos computadores. Teremos oportunidade de falar mais sobre o bit posteriormente.
Boole buscava, no início do século XIX, uma comprovação para sua hipótese de
que raciocinar era o mesmo que calcular – o que o levou a, segundo Dreyfus, “investigar as
leis fundamentais daquelas operações da mente pelas quais se processa o raciocínio, para
dar-lhes expressão na linguagem simbólica de um Cálculo”8. E o resultado foi o
6 Ibidem, p.163
. Tradução minha.
De acordo com anotações feitas por mim no curso de “Organização de Computadores”, na Faculdade de
Informática da PUCRS, em 7 de março de 1996.
8
Boole apud Dreyfus, 1999, p.70.
7
estabelecimento de uma álgebra de tipo binário para a representação de funções
elementares lógicas. Consideremos “a” como uma variável que pode assumir apenas dois
valores: 0 ou 1 (representando “falso” e “verdadeiro” respectivamente); “e” representa “.”
(multiplicação), e “ou” representa “+“. Temos, então, o seguinte:
a+a=a
a+0=a
a+1=1
a.a =a
a.0=0
a.1=a
Estavam esboçados, para Boole, os princípios lógicos do pensamento. Falaremos
ainda neste capítulo sobre o programa Teórico Lógico, desenvolvido em 1956 pela equipe
de Newell e Simon, capaz de demonstrar um bom número de teoremas do Principia
Mathematica de Alfred North Whitehead e Bertrand Russell. O objetivo destes dois
estudiosos com os Principia era de demonstrar efetivamente que a matemática tem suas
raízes na lógica. Para tal empresa, de acordo com Gardner, apoiaram-se em grande medida
no formalismo booleano, chegando a declarar que “a matemática pura foi descoberta por
Boole em uma obra a que denominou “as leis do pensamento”.9
Os cartões perfurados de Babbage representavam de forma prática a teoria que
nascia àquela época. Para que fique mais clara a relação, imaginemos o seguinte: se
pudermos construir uma máquina capaz de considerar um cartão como uma matriz de
dados, ou seja, ler e representar cada centímetro quadrado como um dado que pode estar
ligado ou desligado, cada pedaço que estivesse furado equivaleria a “1”, e se não estivesse
furado, seria igual a “0”. Por exemplo, se o cartão tivesse 8 centímetros de largura por 8
centímetros de altura, então ele seria representado como uma matriz de 8 x 8, tendo 64
unidades (dígitos). Cada unidade estaria furada ou intacta, equivalendo a 1 ou a 0
respectivamente. E com a álgebra de Boole temos a fórmula para o tratamento destes
dígitos, podendo instruir a máquina a realizar determinadas operações e registrá-las em um
outro cartão, furando-o nos pedaços correspondentes – ou então marcando o resultado
através do movimento de suas engrenagens mecânicas10.
A máquina analítica de Babbage nunca passou de um projeto, pois não chegou a ser
de fato construída. Dreyfus coloca que suas idéias eram muito avançadas para a tecnologia
de sua época que ainda não fornecia um modo rápido e eficiente de representar e manipular
os dígitos binários. Somente mais tarde é que teríamos computadores compostos por tubos
de vácuo, onde as conexões mecânicas envolveriam o menor número de elementos
9
Russell apud Gardner, 1987, p.163. Tradução minha.
O exemplo que fornecemos tem caráter apenas ilustrativo. Apesar de sabermos que na década de 1980 os
cartões eram lidos e perfurados a partir deste modelo, não podemos afirmar que já no século XIX Babbage
fazia deles o mesmo uso.
10
materiais possível. Entretanto, um grande passo fora dado por Babbage, e seu dispendioso
trabalho traria interessantes frutos em um futuro próximo. O conjunto das idéias sobre as
máquinas de calcular de Babbage, das leis do pensamento de Boole e das contundentes
demonstrações de Whitehead e Russell, como avalia Gardner, foram uma riquíssima fonte
para os estudiosos das décadas de 1930 e 1940 – responsáveis pelo desenho dos primeiros
computadores e dos primeiros programas que apresentavam o que poderia ser chamado de
inteligência.
Vimos que Boole instituíra regras lógicas para a regência do pensamento, e que
Babbage projetara um aparato mecânico capaz de efetuar cálculos a partir de instruções
dadas pelo homem; mas foi Alan Turing, um matemático Inglês, quem deu vida a uma
máquina capaz de calcular e de simular o pensamento lógico. Turing estava na década de
1930, mais precisamente no período de 1936 e 1937, em busca de um algoritmo geral para
a resolução dos problemas matemáticos. Um algoritmo é, de acordo com Passos, uma
descrição completa e estruturada dos procedimentos necessários para se chegar à resposta
de um problema a partir de um número finito de passos. Das inúmeras alternativas de
descrição deste conceito, a mais direta e persuasiva foi a que ficou conhecida como a
Máquina de Turing – um procedimento mecânico capaz de, em princípio, resolver todos os
problemas matemáticos. “Essa noção de calculabilidade que se procurava cercar, na qual
só entra a execução cega e “automática”, é manifestamente o funcionamento de uma
máquina que lhe dá a imagem mais clara”11. Para Turing, qualquer função calculável que
pudesse ser enunciada explicitamente era realizável por uma máquina, uma vez que esta
possuísse um algoritmo – um conjunto finito e apropriado de instruções.
A máquina de Turing era composta por uma fita ilimitada nos dois sentidos,
dividida em casas, e cada uma comportando ou não uma marca (cada casa representava,
portanto, um dígito binário); possuía um estado interno, que estava a qualquer momento
suscetível de alteração; e uma cabeça capaz de ler a fita, escrever e apagar marcas,
deslocar-se para a direita ou para a esquerda. O comportamento da máquina era regido
pelas instruções contidas no algoritmo, e funcionava da seguinte forma: na entrada (input)
estava o estado interno da máquina e o conteúdo da casa lida – que continha ou não uma
marca. A partir desta configuração a saída (output) era efetuada: o estado interno poderia
mudar, a marca da casa lida iria mudar ou permanecer a mesma, e a cabeça iria deslocar-se
uma casa para um dos lados ou então permanecer imóvel. Certas configurações de entrada
11
Dupuy, 1996, p.30.
forneciam à máquina a instrução de parar. O estado inicial da fita – a configuração de suas
marcas – fornecia, segundo Dupuy, o argumento inteiro da função, e o estado da fita ao
final do processamento representava o valor da função para o argumento inicial. Assim, a
máquina de Turing era um exemplo concreto de uma calculadora aritmética.
Até aqui vimos algumas tentativas de estabelecimento de dispositivos mecânicos
para a realização de cálculos matemáticos e resolução de problemas da lógica. Mas um
grande salto foi dado por Claude Shannon que, em 1938, no MIT, desenvolveu um
esquema em que as idéias de Boole poderiam ser pensadas a partir de circuitos elétricos.
Em um texto intitulado “Análise simbólica dos circuitos de relé e comutação” Shannon
coloca que a lógica booleana poderia ser aplicada para a descrição dos estados de um
sistema eletromecânico. Uma vez que os circuitos possuem apenas dois estados, estando
“abertos” ou “fechados”, eles poderiam ser pensados como as duas possíveis atribuições de
valor de verdade a uma proposição lógica – verdadeiro ou falso12. Ficava claro a partir de
seu trabalho que a programação (ou a construção do algoritmo) de um computador (aparato
que realiza cômputos – ou seja, cálculos) deveria ser concebida como um problema de
lógica formal, e não como um problema aritmético – idéia proveniente dos trabalhos de
Boole. Shannon lançava as bases para a construção de máquinas lógicas, inaugurando,
também, a Teoria da Informação. Gardner coloca que Shannon estabeleceu a noção chave
de que se pode conceber a informação de forma independente do conteúdo ou da matéria
que a instancia: a parte lógica da unidade básica de informação, o bit13, é separável da
instância física onde está situada.
Recapitulando o que foi escrito até aqui, podemos verificar que a construção de
máquinas capazes de calcular foi foco de diversos estudos e empreendimentos, e fruto de
novas concepções acerca do funcionamento da mente humana. Muitos obstáculos para o
aprimoramento destas máquinas foram decorrentes de limitações mecânicas e materiais;
assim, com o advento das máquinas eletrônicas – os computadores – seria possível avançar
a passos largos no desenvolvimento de uma razão artificial. A partir do momento em que
uma máquina (de Turing) foi capaz de realizar cálculos lógicos, apresentando um
comportamento “inteligente”, muitos começaram a refletir sobre a relação entre
inteligência, homens e máquinas, para fundar, na década de 1940, um movimento chamado
“cibernética”.
12
De acordo com Passos, 1992, p.213.
Acrônimo de binary digit (dígito binário), e também representa “pedaço” na língua inglesa – podendo ser
considerado, neste contexto, como um “pedaço de informação”.
13
1.1
Cibernética
Além de aplicações teóricas, a matemática e a física fornecem fundamento para a
composição e desenvolvimento de artifícios materiais, como dispositivos bélicos, por
exemplo. Durante a segunda guerra mundial o brilhante matemático Norbert Wiener
trabalhava no Instituto de Tecnologia de Massachusetts (MIT) no aprimoramento do
sistema de defesa antiaérea dos Estados Unidos. Para acertar com um míssil um avião
inimigo no ar, por exemplo, é preciso lançá-lo em direção ao ponto em que o avião estará
em determinado instante futuro; ou seja, é preciso calcular e prever a posição futura do
alvo para que o míssil possa atingí-lo. O objetivo de Wiener era o de aumentar o nível de
precisão do sistema, preparando-o para ser eficiente nos casos em que o alvo alterasse sua
velocidade ou direção – corrigindo, assim, sua posição com relação à meta. O que ocorreu
a Wiener é que a performance dos mísseis melhoraria caso fossem dotados de um sistema
de autoregulação, sendo assim capazes de ajustar sua direção com base em seu
deslocamento prévio e o afastamento com relação ao alvo.
É sabido, de acordo com Dupuy, que Wiener participava desde 1933 de um
seminário da Faculdade de Medicina de Harvard, onde travava conhecimento sobre
fisiologia com Arturo Rosenblueth. Suas discussões – acompanhadas por Julian Bigelow –
os levaram a comparações entre o sistema de defesa antiaérea e os processos de ação no
movimento voluntário de um humano. O resultado deste trabalho foi a publicação do artigo
Behavior, Purpose and Teleology 14, que marcou, de acordo com Passos15, o advento de
uma ciência chamada cibernética – que tinha como objetivo sistemas intencionais, de
natureza orgânica ou mecânica.
O sistema nervoso central não nos parece ser apenas um órgão autônomo
que recebe dados de entrada (inputs) dos sentidos e os descarrega nos
músculos. Pelo contrário, algumas de suas atividades mais características
são somente explicáveis como processos circulares, que emanam do
sistema nervoso em direção aos músculos e a ele reingressam através dos
órgãos dos sentidos (quer se trate de proprioceptores ou de órgãos dos
sentidos especiais). Isto nos parece marcar uma nova etapa no estudo
daquela parte da neurofisiologia que se encarrega não só dos processos
14
Publicado, de acordo com Dupuy (1996, p.45), na revista Phylosophy of Science, número 1, volume 10.
Wiener se interessava bastante por psicologia e fisiologia; Bigelow era um engenheiro e um grande
colaborador das pesquisas de Wiener, e Rosenblueth era neurofisiólogo.
15
1992, p.200.
elementares dos nervos e das sinapses mas do funcionamento do sistema
nervoso como totalidade integrada.16
No lugar de uma concepção linear, onde há a entrada do estímulo, seu
processamento pelo sistema nervoso central (SNC) e a saída motora, eles sugeriram uma
concepção circular, onde o SNC envia comandos motores, recebe informações dos
sentidos proprioceptores, e novamente envia comandos para os músculos. Quando este
mecanismo circular de retroalimentação (feedback) está desregulado, o movimento se
apresenta também desregulado – como no caso de uma pessoa que bebe cerveja demais e
volta para casa cambaleando (sabemos que o álcool ingerido intoxica o cerebelo,
interferindo em seu controle da motricidade).
Para o aprimoramento da defesa antiaérea, os mísseis deveriam ter um mecanismo
de feedback – concluíra Wiener. Os sistemas dotados de feedback, sejam eles mecânicos
ou orgânicos, são classificados como sistemas intencionais – pois podem alterar sua
conduta de acordo com informações que recebem do meio. Aqui temos um grande salto:
diferente dos primeiros autômatos que desempenhavam comportamentos “cegos”, os
sistemas intencionais são sensíveis à realidade externa e capazes de se orientar no meio a
partir dessas informações, corrigindo sua conduta e sua direção à meta.17
Esta noção de comportamento difere da interpretação do behaviorismo radical,
onde o comportamento (output) é resultado direto, como uma “ação cega”, de determinado
estímulo (input). Para Skinner18 não importava o que se passava entre o estímulo e a
resposta – na famosa “caixa preta” –, uma vez era possível construir uma psicologia
baseada no par input-output19. Os estudos de Wiener e seus companheiros são exemplo do
crescente interesse pelo conhecimento científico da caixa preta – neste lugar que está na
interface entre o organismo e o meio. Passos coloca que, quando a caixa preta foi aberta
16
Wiener, 1961, p. 8, apud Gardner, 1987, p.36.
Passos, 1992, p.200.
18
Para uma compreensão mais ampla sobre o behaviorismo de Skinner, cf. duas de suas obras: Sobre o
Behaviorismo, São Paulo, Cultrix, 1974; e Ciência e Comportamento Humano, São Paulo, Martins Fontes,
1967.
19
Segundo Dupuy (1996, p.51) esta diferença, contudo, deve ser relativizada. Rosenblueth, ao discutir acerca
da comunicação com Herbert Birch, acusa-o de apelar a noções mentalistas e carentes de sentido, tais como
inteligência, consciência, memória, aprendizagem, antecipação e intencionalidade. Para Rosenblueth estas
noções se remetem ao que passa na mente humana e não podem ser objeto de medição; o único contato
possível entre duas pessoas passa pelo comportamento, que é a única coisa possível de se ver e de julgar.
Assim, aponta Dupuy, a cibernética de Wiener e Rosenblueth tem caráter não-mentalista, e neste ponto é
semelhante ao behaviorismo de Skinner.
Porém, mesmo com esta ressalva de Dupuy, é fato que Wiener abrira definitivamente a caixa-preta,
surpreendendo a assepsia teórica behaviorista inaugurada por Watson e sistematizada por Skinner.
17
para que fosse revelado o processo mental, o que se encontrou lá foram justamente os
símbolos: entidades físicas dispostas em série e submetidas a um princípio de organização.
A noção de símbolo terá importância fundamental para os cibernéticos em sua
compreensão do psiquismo, e para a construção das máquinas da Inteligência Artificial.
Para Turing, raciocinar era o mesmo que calcular, computar; e para completar a metáfora,
dirão os cibernéticos que o pensamento é uma computação de símbolos. Dotados de um
triplo modo de existência, como escreve Dupuy, os símbolos são (1) materiais e sujeitos às
leis da física (encarnados na neurofisiologia, mas, de acordo com as hipóteses correntes, a
neurologia podia ser reduzida à física); (2) têm uma forma, e são regidos por regras
sintáticas; e (3) são dotados de sentido, tendo um valor semântico. Portanto o que se
passava entre a periferia sensória e a resposta motora era justamente o processamento de
símbolos físicos semânticos. E assim era possível encontrar uma equivalência entre o
funcionamento e a organização da mente e de um sistema artificial, como o que rege a
trajetória de um míssil. O comportamento intencional, que parecia pertencer apenas aos
vivos, teve seu fundamento desvendado e poderia ser programado em uma máquina.
Compartilhando das aspirações teóricas de seus contemporâneos, o neuropsiquiatra
Warren McCulloch e o matemático e especialista em lógica Walter Pitts esboçaram em
1943 (mesmo ano da publicação do artigo de Wiener ao qual nos referimos) um modelo
para este processamento de símbolos na mente humana. Buscando, de acordo com a
análise de Dupuy, conhecer através de um processo legitimamente científico os
mecanismos materiais e lógicos que encarnavam a mente, os dois chegaram à seguinte
hipótese: os neurônios transformam inputs em outputs através de operadores lógicos. As
células nervosas, que formam redes, estão ligadas umas as outras através dos dentritos. O
impulso elétrico é transmitido via sinapse, que ocorre caso o limiar de excitação do
neurônio tenha sido atingido. Em outras palavras, a descarga sináptica irá ocorrer nos casos
em que o limiar de excitação tenha sido atingido; caso contrário, a sinapse não ocorre
(princípio do “tudo” ou “nada”). Atribuindo o valor 1 (ou verdadeiro) para quando ocorre a
sinapse e 0 (ou falso) para quando não ocorre, temos o que é preciso para o uso da álgebra
booleana na interpretação da rede neural e para representá-la como uma expressão lógica.
Assim, uma máquina composta por circuitos eletrônicos e a mente humana são
semelhantes com relação ao seu funcionamento. Aliás, McCulloch vai mais longe nesta
comparação, chegando a afirmar que não há diferença: “quanto mais aprendemos sobre os
organismos, mais somos levados a concluir que eles não são simplesmente análogos às
máquinas, mas são máquinas”20. McCulloch concebia uma máquina como qualquer ser
lógico-matemático encarnado na matéria do organismo, e por isto a mente, sendo de
natureza lógico-matemática, era também uma máquina.
A assimilação da mente humana a uma máquina lógica já havia sido anunciada por
Turing, quando este falava de sua máquina e a comparava às faculdades mentais.
McCulloch e Pitts avançam com as comparações e afirmam que não só o cérebro em sua
função (mente), mas também o cérebro em sua estrutura – o cérebro material, biológico e
natural – é assimilável a um mecanismo, a uma máquina de Turing. Portanto, nos termos
de McCulloch, cérebro e mente são uma só coisa: uma máquina. E é assim que o autor
julga resolver o velho problema do corpo e da mente, ou, nos seus próprios termos, do
“embodiment of mind” 21. E já que McCulloch lançou mão desta expressão, aproveitamos a
oportunidade para adiantar que ela será bastante discutida nos dois últimos capítulos do
presente trabalho, onde traremos outras concepções para os termos embodiment e mind.
O objetivo maior de McCulloch era de fazer a psicologia escapar de seu caráter
especulativo, transformando-a numa “epistemologia experimental”. Abstraindo um modelo
lógico de funcionamento do sistema nervoso central, pensava McCulloch, seria possível
reconstruí-lo em outro meio material.
Neste mesmo fecundo ano de 1943, é iniciada a construção da primeira calculadora
eletrônica ultra-rápida, capaz de realizar as quatro operações básicas: o ENIAC. De
tamanho gigantesco, se compararmos com nossos PC’s de hoje em dia, o ENIAC foi
concebido sem que fosse feita uma distinção entre o equipamento (hardware) e o programa
(software). De acordo com Dupuy, foi John von Neumann quem formulou a idéia de que a
concepção lógica da máquina de calcular é distinguível da concepção de seus circuitos:
apesar de estar sempre instanciada em um mecanismo material, a parte lógica pode ser
trabalhada sem que se altere a estrutura física da máquina. Dupuy sugere também que von
Neumann obteve esta idéia a partir da leitura do artigo de McCulloch e Pitts – ao qual já
fizemos referência. Von Neumann observa o ENIAC e abstrai dele, assim como
McCulloch e Pitts fizeram com o cérebro biológico, uma máquina lógica.
A máquina concebida por von Neumann viria a se chamar EDVAC, e funcionaria
de maneira seqüencial, diferente da ENIAC e da máquina “cerebral” de McCulloch. Uma
vez que os neurônios são extremamente numerosos e que funcionam lentamente, um
processamento paralelo se faz necessário para que o processo de informação possa ser
20
21
McCulloch apud Dupuy, 1996, p.53. Grifos no original.
Dupuy, 1996, p.59.
otimizado. Mas, ainda de acordo com Dupuy, o caso dos autômatos artificiais é diferente:
os componentes de uma calculadora artificial são pouco numerosos e alcançam grandes
velocidades, e por isto são montados em série. Von Neumann criara, assim, a arquitetura
básica dos computadores atuais: a máquina em que escrevo agora este texto, por exemplo,
funciona exatamente de acordo com o que este matemático projetara na década de 1940.
Com o desenvolvimento das válvulas eletrônicas – tubos de vácuo que
amplificavam baixos níveis de energia –, as conexões mecânicas consistiam no menor
número possível de elementos, diminuindo a fricção nos dispositivos empregados e
fornecendo um processamento o menos “material” possível. Essa mecânica, que tende à
“desmaterialização”, oferece ao instrumento de cálculo um caráter cada vez mais parecido
com a operação simbólica que ele simula22. As limitações que impediam a concretização
dos projetos de Babbage e de Pascal estavam, a partir do surgimento das válvulas
eletrônicas, com os dias contados. E uma vez que o software era diferente do hardware em
sua natureza, as máquinas de calcular passavam a ser compostas de duas instâncias (uma
lógica e uma física) e, mais do que isto, permitiam que determinadas alterações em uma
não exigissem mudanças na outra.
Em 1942 McCulloch sugerira a Frank Fremont-Smith, diretor médico da fundação
médica filantrópica chamada Josiah Macy Jr, que organizasse um ciclo de conferências
para abordar temas médico-sociais de caráter variado, onde suas hipóteses poderiam ser
discutidas. Esta sugestão ocorreu depois de uma conferência, agenciada pela fundação,
onde McCulloch encontrou-se com seu amigo Rosenblueth – que, lembremos, trabalhava
com Wiener nos sistemas de autoregulação. O ciclo de conferências viria a se realizar
apenas depois da guerra; mas neste intervalo de tempo intensificaram-se, de acordo com
Dupuy, os encontros e intercâmbios entre McCulloch, Pitts, Wiener, Bigelow e
Rosenblueth. Wiener, paralelamente, mantinha freqüentes contatos com von Neumann, que
trabalhava em Princeton.
Foi em 1946 que ocorreu a primeira das Conferências Macy, sob o nome
“Feedback Mechanisms and Circular Causal Systems in Biological and Social Systems” –
que expressa uma referência aos trabalhos de Wiener e McCulloch. O objetivo das
conferências era o de reunir, em intervalos regulares, um pequeno grupo de pesquisadores
que visavam um intercâmbio entre seus trabalhos. A terceira conferência foi realizada em
22
Passos, 1992, pp. 209-210.
1947, ano em que Wiener, segundo Dupuy, forjou a palavra “cibernética”23, para dar uma
unidade ao movimento de idéias.
Ao todo foram realizadas dez Conferências Macy, onde se abordou uma grande
variedade de temas. Seus participantes nunca eram os mesmos, tal o fluxo dos membros
dos encontros “cibernéticos”. Dupuy propõe-nos alguns grupamentos de temas e
participantes, separando os últimos em quatro grupos, e deixando claro o risco que está
assumindo ao fazê-lo24. O primeiro grupo era composto pelos “cibernéticos”: McCulloch,
Wiener, Pitts, Bigelow, Rosenblueth, von Neumann e Claude Shannon, somados a outros
estudiosos que tinham certa relação com a ciência que privilegia a modelização
matemática. Anatomistas, fisiologistas, médicos e naturalistas formavam o segundo grupo,
que, por ter menos afinidade à abstração que os outros, contribuíam ao desempenhar um
papel crítico com relação aos “entusiasmos modeladores” de seus colegas. Havia o grupo
dos psicólogos que, mais numeroso que o dos matemáticos, contava de 15 elementos; e,
por último, um pequeno grupo de representantes da filosofia e das ciências sociais.
O tema central, ou o interlocutor primeiro da cibernética era, segundo Dupuy, as
ciências da mente. No início de cada conferência, o doutor Fremont-Smith fazia questão de
reforçar o caráter interdisciplinar dos encontros, dizendo que “a natureza não conhece
fronteiras”. O objetivo era o de entrelaçar conhecimentos diversos e fundar uma nova
ciência da mente, derrubando as divisórias artificiais entre as disciplinas. Porém, com
tantas disciplinas em discussão, e com um grande número de embates teóricos, a
cibernética não poderia se constituir como uma ciência unificada e monolítica. Foi neste
contexto que, em 1951, Wiener e von Neumann encerraram suas participações, e no ano
seguinte Wiener acabaria por romper definitivamente suas relações com o grupo25. Foi
também em 1952 que McCulloch foi juntar-se a Pitts no MIT. A última das Conferências
Macy foi realizada em 1953.
23
No ano seguinte, de acordo com Gardner (1987, p.37), Wiener publicara um livro com o mesmo nome
(Cybernetics), onde explicava que o termo se referia a todo o campo da teoria do controle e da comunicação,
quer se trate da máquina ou do animal. Nesta obra Wiener reunia alguns avanços na compreensão do sistema
nervoso humano, dos computadores e do funcionamento de outras máquinas, sublinhando sua crença
(conforme o que escrevemos no início deste tópico) de que havia paralelismos decisivos entre o
funcionamento do organismo vivo e das novas máquinas de comunicação.
24
“As conferências Macy tiveram um tal fluxo de participantes e uma tal diversidade de temas de discussão
que toda tentativa de nelas balizar grandes massas fica amplamente fadada à arbitrariedade. Assumimos,
porém, o risco de propor as seguintes repartições, para o conjunto das dez conferências (o que aumenta as
chances de erro, dada a insuficiência de informação quanto às cinco primeiras).” (Dupuy, 1996, p. 92)
25
Dupuy diz que este rompimento se deu por razões mal elucidadas, mas que envolviam rivalidades pessoais
e um escândalo familiar (1996, p.89).
Muito teríamos a discutir sobre os diversos assuntos abordados nas conferências
cibernéticas; entretanto, neste capítulo temos como objetivo traçar uma linha que nos leve
até o nascimento dos primeiros computadores, e uma abordagem detalhada sobre a
cibernética nos afastaria de nosso caminho26.
Marvin Minsky (de quem viremos a falar logo adiante), conforme nos relata
Dreyfus,27 escreve que no início da década de 50 a cibernética se dividiu em três avenidas
principais. Uma rumava em busca dos princípios básicos simples daquilo que era chamado
de Sistemas Auto-Organizantes mínimos, investigando como sistemas dispostos em
determinados ambientes apresentavam comportamentos adaptativos28. A segunda avenida
direcionava-se à simulação dos processos cognitivos, rumando em busca da construção de
modelos operantes que dotassem máquinas de comportamentos semelhantes aos de
indivíduos humanos. A terceira avenida é a Inteligência Artificial (IA) propriamente dita,
representada pela tentativa de construir máquinas inteligentes.
1.2
Inteligência Artificial
No ano de 1956, nos Estados Unidos, um grupo de 10 jovens especialistas em
matemática se reúne no Dartmouth College em Hanover para debater a possibilidade de
produzir programas de computadores capazes de "comportar-se" ou "pensar"
inteligentemente29. Eles se baseavam na hipótese de que é possível descrever precisamente
qualquer aspecto da aprendizagem ou de qualquer outra ação inteligente. Assim, o que o
grupo buscava era estabelecer os meios adequados para simulá-los em uma máquina.
Dentre os participantes deste seminário, quatro em particular desempenharam importantes
papéis no desenvolvimento de um novo campo, que viria a se chamar “Inteligência
Artificial”. John McCarthy, professor de matemática em Dartmouth e fundador, em 1957,
do laboratório de IA do MIT, foi quem cunhou, neste seminário, a expressão “Inteligência
Artificial”. Com ele estavam Marvin Minsky, um jovem membro do departamento de
matemática e neurologia de Harvard (e que mais tarde seria diretor do Laboratório de
26
Teremos, nos próximos capítulos, oportunidade para falar um pouco mais sobre a cibernética. Para um
estudo mais aprofundado sobre o assunto, cf. Dupuy, 1996.
27
1975, p.92.
28
Dupuy afirma que, para Minsky, a teoria dos sitemas auto-organizantes representava um “ramo morto” – a
segunda cibernética. Para maiores detalhes, cf. Dupuy, 1996, p.73.
29
Para um histórico mais detalhado, cf. Gardner, 1987, cap. 6.
Inteligência Artificial do MIT), o matemático Allen Newell e o economista Herbert Simon.
Muitos outros nomes estão vinculados às construções e descobertas científicas no campo
da IA; contudo, enfocaremos, neste momento, o trabalho de Newell, Simon e Minsky, onde
encontramos material interessante para a discussão a que nos propomos.
Em 1955, Allen Newell e Herbert Simon se encontraram em um evento realizado
pela RAND Corporation (centro de pesquisa financiado pelo exército americano), e este
fato marcou o início de um trabalho de sistematização da idéia de que “a inteligência é uma
capacidade de manipulação de símbolos e todo sistema cognitivo se define por um
processo de tratamento de informação passível de simulação mecânica”30. Ao final deste
ano, associados com Cliff Shaw, um programador da RAND Corporation, desenvolveram a
linguagem IPL (Information Processing Language) – primeira linguagem de programação
de “alto nível”, que permitia a manipulação de expressões simbólicas não numéricas. Com
esta ferramenta, mais próxima da linguagem natural31 que as até então desenvolvidas
(sendo dotada de recursos que automaticamente traduziam as operações simbólicas em
linguagem de máquina – “baixo nível”), ficaria mais fácil levar a diante o projeto de
simulação do pensamento humano e, conseqüentemente, permitir ao computador lidar com
situações cotidianas como, por exemplo, jogar xadrez.
Para Simon, um artefato – como um computador, por exemplo – pode ser
considerado como a interface entre um ambiente “interno” (a substância e a organização do
próprio artefato) e um ambiente “externo” (condições em que o artefato funciona). A
artificialidade, segundo ele, inclui “similitude perceptual mas diferença essencial”, ou seja,
a semelhança é mais evidente a partir do exterior que do interior. Portanto,
a semelhança no comportamento de sistemas cujos interiores não são
idênticos é particularmente realizável se os aspectos que nos interessam
derivam da organização dos compontentes, independentemente da maior
parte das propriedades dos componentes em si.32
Baseado neste pensamento é que Simon irá com seu grupo desenvolver artifícios de
organização semelhante à da mente humana, conseguindo, portanto, reproduzir
artificialmente o comportamento inteligente.
30
Passos, 1992, p.224.
Ao falarmos em “linguagem natural”, estamos nos referindo à linguagem propriamente humana, em
oposição à “linguagem de máquina”, própria dos computadores e fundamentada na álgebra booleana.
32
Simon, 1981, p.46.
31
Em 1956, o grupo desenvolveu um programa chamado Teórico Lógico (Logical
Theorist – LT), capaz de demonstrar efetivamente, em um computador batizado como
“JOHNNIAC"33, um bom número de teoremas tomados do Principia Mathematica (1910)
de Alfred North Whitehead e Bertrand Russell34. De acordo com o próprio Simon35, o
Teórico Lógico havia incorporado muitos processos de aprendizagem, descobria provas
para teoremas em lógica, podendo lembrá-las para usos posteriores, e era capaz de
examinar seus métodos com base na sua experiência com os mesmos e modificá-los de
diversas maneiras.
A demonstração com o LT foi realmente notável, impressionando inclusive a
Bertrand Russell, quando este foi informado do feito de Newell e Simon. Entusiasmados
com seu resultado, eles se encarregaram de enfatizar que o LT não apenas efetuava
demonstrações de lógica, mas que resolvia problemas de forma análoga aos humanos.
Dreyfus aponta que no artigo de Newell, Shaw e Simon, intitulado “Empirical
Explorations with the Logic Theory Machine: A Case Study in Heuristics”, fica evidente
que é grande o entusiasmo do grupo com relação à programação de computadores capazes
de demonstrar o comportamento geral na solução de problemas. Neste artigo o LT é
apresentado como “um programa que foi montado para aprender como é possível
solucionar problemas difíceis, tais como provar teoremas matemáticos, descobrir leis
científicas com base em dados, jogar xadrez ou compreender o significado da prosa
inglesa”36.
De acordo com Gardner, ao inventar e pôr em execução o LT, Newell, Simon e
seus colaboradores demonstraram que a confecção de artifícios inteligentes era não apenas
uma possibilidade, mas uma realidade concreta. Duas afirmações, que antes não passavam
de indicações, ganharam força extraordinária: 1) os computadores podiam levar a cabo
condutas que, em caso de ser efetuadas por seres humanos, inequivocamente seriam
consideradas inteligentes; 2) os passos percorridos pelo programa no curso da
demonstração de um teorema guardavam uma semelhança nada trivial com os que seguiam
os seres humanos para resolver problemas em geral.
No ano seguinte, em 1957, Newell, Simon e Shaw desenvolvem um programa mais
aprimorado e mais ambicioso do que o LT: o Solucionador de Problemas Gerais (General
33
O nome foi dado em homenagem a John von Neumann.
Já falamos brevemente sobre Whitehead e Russell que, segundo Gardner (1987), eram lógicos matemáticos
britânicos que procuraram reduzir as leis básicas da aritmética às proposições da lógica elementar.
35
1965, p. 88.
36
Newell, Shaw e Simon, apud Dreyfus, 1975.
34
Problem Solver – GPS). O GPS era um sistema que tinha a tarefa de estar preparado para
lidar com determinados problemas gerais, captando informações relevantes para a
obtenção de um caminho à solução. Este programa era capaz de “raciocinar”, avaliando
seu estado atual em relação a uma determinada meta, detectando a diferença entre a
situação atual e a meta definida, e buscando na memória meios de reduzir esta diferença.
Ele podia efetuar tarefas de aparências tão diversas como a demonstração de teoremas, a
compilação de programas de computador, jogar xadrez e solucionar jogos como o dos
“missionários e canibais”37. Segundo Simon,
O GPS é um programa – inicialmente inferido a partir dos protocolos de
sujeitos humanos resolvendo problemas no laboratório, e
subseqüentemente codificados para a simulação computacional – para
raciocinar em termos de recursos e fins, em termos de metas e submetas,
acerca de uma situação problemática (...) Com base nessa simulação,
podemos dizer que o GPS é uma teoria substancialmente correta do
processo de solução de problema tal como ele ocorre sob essas condições
particulares do laboratório. O quão geral ele é resta a ser determinado38.
O propósito do GPS, entretanto, não era simplesmente achar a solução mais eficaz
destes problemas, mas sim simular os processos que os seres humanos empregam para
resolvê-los. Nesse sentido, segundo Gardner, o GPS obteve um certo êxito, sendo inclusive
considerado o primeiro programa a simular toda uma gama de comportamentos simbólicos
humanos. A abordagem da qual o GPS é fruto intitulava-se Simulação Cognitiva (SC), pois
a técnica geralmente utilizada era a coleta de protocolos realizados por seres humanos,
redigidos de forma a apresentar passo a passo as manipulações simbólicas mentais do
indivíduo em seu caminho em direção à meta estipulada. E, uma vez que para Newell e
Simon a inteligência era sinônimo de manipulação e uso de diversos sistemas simbólicos, o
GPS dava um grande passo rumo ao estabelecimento da IA – já que se constituía de uma
máquina eletrônica dotada de sistema simbólico material, semelhante ao cérebro humano, e
que exibia muitas das propriedades do ser humano cujo comportamento se pretendia
simular: uma memória, um conjunto de operações, dados de entrada e saída, etc.
Apesar de abandonado, porque não possuía o grau de abrangência que seus
criadores desejavam ao desenvolvê-lo, com o GPS Newell e Simon ofereceram uma
37
O jogo consiste em levar três missionários e três canibais de uma margem à outra de um rio, através de
uma canoa que comporta apenas duas pessoas. A dificuldade do jogo está no fato de que nunca pode haver
mais canibais do que missionários em nenhum dos lados, pois assim os missionários seriam devorados pelos
canibais.
38
Simon, 1965, apud Passos, 1992, p.225.
concepção de inteligência artificial, uma teoria sobre o pensamento e todo um programa de
ação para os futuros pesquisadores. Reservaremos para o próximo capítulo uma discussão
detalhada sobre os motivos que levaram ao abandono do GPS; no momento nosso interesse
está voltado àquilo que pôde ser efetivamente realizado pelos estudiosos desta área, e
portanto deixaremos a análise dos obstáculos da IA para depois.
Marvin Minsky e John McCarthy foram orientados em suas pesquisas no MIT por
Claude Shannon, engenheiro eletricista sobre o qual já tivemos oportunidade de falar.
Minsky não publicava seu trabalho tão ativamente quanto Newell e Simon, e também não
há no campo da IA um grande número de resultados relacionado a seu nome. Entretanto,
ele foi mentor de um conjunto de talentosos discípulos, guiando-os, por um caminho
independente, a algumas das idéias sustentadas por Newell e Simon.
Em 1968 Daniel Bobrow, um dos discípulos de Minsky que trabalhava em seu
laboratório, adaptou os trabalhos sobre resolução de problemas ao âmbito lingüístico. O
resultado foi um programa chamado Student, que destinava-se a resolver um certo tipo de
problemas algébricos. Gardner nos apresenta um exemplo bastante ilustrativo, por isto o
traremos na íntegra:
O consumo de meu automóvel é tal que percorre 6 quilômetros por litro
de gasolina. A distância entre Boston e New York é de 370 quilômetros.
Quantos litros de gasolina foram gastos para viajar de New York a
Boston?39
Minsky explica que o programa se baseava em que cada uma destas orações
equivalia a uma equação, e determinadas palavras representavam certas operações entre
estas equações. No Student a palavra “é” foi codificada para representar igualdade, ou seja,
determinava quantidades iguais para ambos os membros da equação. A palavra “por”
significava divisão. Continuemos com o exemplo trazido por Gardner:
A partir da palavra matemática “por” que está na frase “quilômetros por
litro” da primeira oração, o programa pode estabelecer que o número 6 se
obtém dividindo um certo número de quilômetros x por outro certo
número de litros y. Entretanto, o programa não tem nem a mais remota
idéia do que são os quilômetros e os litros, nem sequer do que são
automóveis. A segunda oração parece dizer que há outra coisa
equivalente a 370 quilômetros; em conseqüência, a frase “a distância
entre” é uma boa candidata a ser x. Na terceira oração, pergunta-se algo
acerca de uma quantidade de litros; a frase “quantos litros de gasolina
foram usados para viajar” é candidata a ser y. Nestas orações se propõe
39
Gardner, 1987, p.172. Tradução minha.
uma equação, x = 370, e outra x / y = 6. A partir daí a parte matemática
do programa pode descobrir facilmente que y = 370 / 6. 40
O Student exemplificava com clareza as virtudes e as limitações dos programas da
década de 60. Uma vez que o problema era apresentado de forma que o programa o
pudesse decodificar, a solução dada pelo computador era sem dúvida considerada
inteligente, resolvendo, em poucos segundos, o que um adulto levaria minutos para
realizar. Entretanto, os procedimentos empregados para se chegar à resolução do problema
não se assemelhavam aos que um indivíduo comum utilizava. No exemplo que Gardner
nos forneceu, o indivíduo submetido ao problema pensaria, por exemplo, em uma viagem
de automóvel, na localização geográfica de New York e Boston, nas condições da estrada e
do tráfego, etc. E ainda poderia basear-se em sua experiência, em uma viagem já realizada
entre as duas cidades mencionadas. Já a máquina não teria a mínima noção do que uma
cidade ou uma viagem seriam, e seguiria o mesmo procedimento para o cálculo “dos
centavos que custam os caramelos e dos milhões de dólares que custam os projéteis
balísticos”41. Isto porque a “compreensão” de um computador é puramente sintática. E a
barreira a ser ultrapassada é, portanto, a ambigüidade semântica.
Se o Student fizesse a decomposição das orações do problema em variáveis e
operadores que não levassem a uma equação de solução possível, então as orações eram
decompostas novamente através de novas regras. Todo o esquema funcionava porque a
solução do problema vinha acompanhada de uma coerência nas equações; assim, o
programa do discípulo de Minsky era capaz de dissolver algumas ambigüidades sintáticas
e semânticas com base na coerência algébrica. Acontece que, com esta forte coerção, a
ambigüidade, aspecto indissociável da linguagem natural, acaba por ser eliminada;
conseqüentemente, de acordo com Dreyfus, torna-se impossível o processamento da
linguagem natural.
Um programa assim acha-se tão longe da compreensão semântica
que, como Bobrow admite, a frase ‘o número de vezes que fui ao
cinema’, que deveria ser interpretada como uma série variável, será
interpretada incorretamente como o produto das duas variáveis ‘número
de’ e ‘fui ao cinema’ porque ‘vezes’ é sempre considerada como sendo
operador.42
40
Bernstein, 1981, p. 113 apud Gardner, 1987, p. 173. Tradução minha.
Gardner, 1987, p.173.
42
Dreyfus, 1975, p. 96.
41
A incapacidade ou dificuldade de processar informações ambíguas será fortemente
explorada por Dreyfus; teremos, no próximo capítulo, oportunidade para uma análise
detalhada desta discussão. Continuemos, então, nosso relato sobre os artefatos
processadores de linguagem.
Em 1970, Terry Winograd, que realizava sua tese de doutorado no MIT, criou um
programa chamado SHRDLU. De acordo com Gardner, este sistema continha um
mecanismo de resposta ativado por certas palavras chaves, assemelhando-se a um expert
em compreensão, operando dentro de um domínio bastante limitado. O programador
determinava uma pequena e clara classificação de objetos e propriedades relevantes, e um
conjunto de regras responsável pela relação entre estes objetos e propriedades. Winograd
inventou no SHRDLU um mundo imaginário composto por blocos geométricos simples, e
o programa possuía um conhecimento lingüístico suficiente para “entender” comandos e a
partir destes manipular os blocos, empilhando-os, deslocando-os, etc. O SHRDLU emitia
mensagens que indicavam que os comandos haviam sido entendidos, ou solicitava
esclarecimento quando os mesmos se mostravam ambíguos.
Sua estrutura é bastante diferente da de seus antecessores, justamente por substituir
um processamento central geral por módulos separados e dotados de informações
específicas. Vejamos, nas palavras de Gardner, como funcionava o SHRDLU:
O programa de Winograd era mais aperfeiçoado que todos seus
antecessores por empregar uma série de “experts ou especialistas em
análises”: um especialista sintático, que fragmentava a oração em
sintagmas significativos; um especialista oracional, que determinava de
que forma se vinculava um sintagma nominal com a ação descrita por um
sintagma verbal; e um especialista em estruturação, que compreende de
que maneira as estruturas individuais se vinculam entre si e com toda a
seqüência do relato que em seu conjunto devem transmitir. Por exemplo,
na situação do “mundo de blocos”, o especialista em estruturação deve
manejar todas as referências pronominais (tarefa nada trivial) assim como
a seqüência temporal da totalidade de ações executadas. Alem destes
“experts”que podem interagir flexivelmente e compartilhar informação, o
programa possui também sistemas de crenças, conhecimentos acerca da
resolução de problemas e “especialistas” que verificam se determinada
emissão é uma pergunta, uma ordem ou uma enunciação.43
Minsky, de acordo com Dreyfus, dirigia a Newell e Simon a crítica de que os
métodos que funcionavam bem em problemas específicos e simples não ofereceriam o
mesmo desempenho frente a problemas difíceis. Sua crítica fundamentava-se na intuição
43
Gardner, 1987, p.180, tradução minha.
de que o melhor método para a solução de problemas é aquele que enfoca questões
específicas, e não em problemas de caráter geral. Minsky começa a intuir, devido às
limitações do GPS e o relativo sucesso do Student e do SHRDLU, que havia a necessidade
de “inverter o papel do especialista pelo da criança na escala das performances”44. O GPS
buscava a resolução de questões mais genéricas, pois as tentativas de modelar a
inteligência de um especialista altamente treinado eram vistas como lidando com questões
de fato difíceis e relevantes. Mas na medida em que se tornaram aparentes as limitações
impostas por este método, ficou igualmente aparente que a forma mais profunda e
fundamental da inteligência é a de um bebê, que aprende a falar a língua de seus pais,
reconhece padrões e forma objetos mentais a partir de um imenso bombardeio de estímulos
luminosos45. Assim, apesar de ainda apresentar limitações na compreensão lingüística, o
SHRDLU demonstrou grandes avanços nesta tarefa, apontando para a necessidade dos
sistemas de possuírem um grau considerável de conhecimentos específicos.
A década de 70 marca a passagem dos sistemas generalistas aos especialistas; o
enfoque dos pesquisadores passa do geral para o particular, quando começam, de acordo
com Passos, a se dedicar ao desenvolvimento de programas que concebiam o
comportamento inteligente segundo o esquema que passou a ser identificado como topdown46.
Em 1975, Minsky publica suas idéias acerca da noção de frame – uma estrutura de
conhecimentos específicos acerca de um domínio do saber. Esta estrutura é formada de um
núcleo e de uma série de compartimentos, que correspondem cada um a algum aspecto do
domínio que o frame pretende modelar. Gardner traz-nos outro exemplo ilustrativo:
Se um robô ingressa em um quarto passando por uma porta, ele ativa um
“frame de quarto”, que chega à memória operativa e suscita uma série de
expectativas sobre o que se pode encontrar em um quarto típico. Se o
robô percebe logo uma forma retangular, esta forma, dentro do contexto
do frame do quarto, poderá sugerir-lhe a existência de uma janela. Os
compartimentos podem ser de alto nível – parâmetros fixos que
representam as coisas sempre verdadeiras acerca de uma situação
proposta (por exemplo, um quarto tem sempre quatro paredes) – ou de
44
Varela, Thompson e Rosch, 2003, p.100.
Esta concepção será marcante na vertente conexionista, e bastante explorada por Minsky em seu livro The
Society of Mind (1986).
46
Passos, 1992, p. 226. Passos coloca que, segundo a abordagem top-down, para entender uma situação
problemática e agir corretamente sobre ela o sistema cognitivo (seja ele orgânico ou computacional) tem de
ser capaz de selecionar a estrutura apropriada com a qual é possível decodificar os termos do problema em
sua organização específica. Os conceitos de top-down e botton-up serão bastante discutidos no campo das
ciências cognitivas. Para uma breve introdução ao assunto, cf. EYSENCK, Michael, KEANE, Mark.
Psicologia Cognitiva: Um Manual Introdutório. Porto Alegre: Artes Médicas, 1994.
45
outros níveis menores, com muitos terminais – compartimentos que
precisam ser preenchidos com casos concretos referentes aos dados (por
exemplo, os objetos que são mais prováveis de se encontrar em um
quarto, como janelas). Presume-se que o indivíduo possui muitas
centenas de frames organizadores e interpretativos, e que em cada
situação bastante complexa recorre a combinações destes frames.47
Os frames poderiam ser pensados como uma rede de nós e relações, dotados de
informações que são verdade para qualquer situação (situadas nos top levels), e de níveis
inferiores (slots) que precisam ser preenchidos por exemplos específicos ou dados48.
Com o desenvolvimento da idéia de frames Minsky caminhava rumo a uma nova
concepção de funcionamento da mente e, conseqüentemente, fornecia substrato para novas
propostas de programação. Conforme Gardner, Minsky propõe o abandono da imagem de
um programa composto por um processador central e simples, através do qual deveriam
passar todas as informações, e de uma mente organizada e unificada que centraliza e
supervisiona toda a atividade, para que se adote uma concepção de atividade psíquica
composta por diversos agentes, cada qual especialista em algo. Minsky irá então propor a
idéia da “mente como uma sociedade”, composta por diversos “agentes” capazes de
manejar simultaneamente diferentes tipos de conhecimento, atuando em conjunto com os
outros agentes. Teremos, no próximo capítulo, oportunidade de falar sobre a abordagem
conexionista, que apresenta bastante sintonia com a idéia de Minsky acerca dos frames.
Apresentamos neste capítulo um breve histórico das máquinas de calcular, que
culminaram em softwares capazes de desempenhar tarefas complexas e bastante
sofisticadas. Desde a década de 1980 até os dias de hoje muito avançou a inteligência
artificial e a tecnologia da informação; porém, todos os computadores ainda são compostos
de circuitos eletrônicos, a informação continua sendo codificada em dígitos binários e os
softwares sempre correspondem a algoritmos estruturados por programadores. Além disto,
a concepção de que o homem se assemelha a uma máquina altamente desenvolvida ainda
perpassa os estudos no campo da IA que buscam simular artificialmente a cognição
humana. Assim, apesar dos avanços das últimas décadas, os princípios ainda permanecem
os mesmos – fato que constitui os projetos iniciais na área da inteligência artificial de
material suficiente para o objetivo deste trabalho. Passemos então ao próximo capítulo,
onde traremos algumas considerações sobre as ciências cognitivas – campo do qual a IA
47
48
Gardner, 1987, p. 187. Tradução minha.
Para uma explicação mais detalhada, cf. Minsky, Frame-system theory, 1975, p. 355.
fazia parte e cujo enfoque principal é um estudo científico da cognição humana –, e
discutiremos as avaliações de Hubert Dreyfus sobre os softwares inteligentes
desenvolvidos até a década de 1980.
2
O que os computadores não podem fazer
Bastante tempo foi necessário para que o homem chegasse às maquinas capazes de
apresentar um comportamento inteligente. A demora se deu, em grande parte, por falta de
mecanismos tecnológicos suficientes para o processamento de um grande número de
informações. Mas depois de encontrado o modelo apropriado para a construção dos
computadores, a tecnologia avança a passos largos, oferecendo um processamento cada
vez mais veloz para um volume de informações cada vez maior. Logo ficou evidente,
entretanto, que não bastava um equipamento potente para que fosse possível criar
artificialmente comportamentos semelhantes ao do humano. Outro problema, de outra
ordem e natureza, ainda permanecia: era necessário desvendar os mecanismos mentais e
psicológicos do homem para que fosse possível implementá-los49 em máquinas.
O emaranhado teórico que formavam as discussões cibernéticas (que, por questões
práticas, apresentamos superficialmente) expressava a dificuldade de traduzir o sujeito da
experiência em termos científicos. Questões que perpassam a filosofia desde tempos
antigos, tais como “o que é o pensamento?”, ou “como o homem conhece?”, ainda
permaneciam sem uma resposta final, atrasando assim o progresso das máquinas capazes
de aprender e se comportar como humanos. Os cibernéticos convocaram os construtos de
diversas áreas de conhecimento, de modo a estabelecer um modelo adequado para a
representação dos processos mentais. Vimos, porém, que o movimento se dispersou,
deixando em aberto uma série de ricas possibilidades de crescimento e desenvolvimento50.
2.1
Ciências Cognitivas
O final da década de 1940 marcaria o momento propício para o surgimento de um
novo campo de discussões acerca dos processos cognitivos, fundamentalmente
49
“Implementação” é um termo utilizado no âmbito da informática para designar o ato de programar, de
construir um software.
50
Varela et al., 2003, p. 53.
caracterizado pela transdisciplinaridade. Aproximando várias ciências, como a psicologia
cognitiva, a lingüística, as ciências sociais, as neurociências, a epistemologia e a
inteligência artificial, estabeleciam-se as ciências cognitivas.51 E oferecendo-se como uma
ferramenta capaz de simular determinados processos cognitivos, ao mesmo tempo
propiciando material para um modelo teórico sobre estes mesmos processos, os
computadores passam a ocupar posição central no campo das ciências cognitivas.
Em 1956 nascia, segundo Varela, o cognitivismo – vertente fundamentada na
intuição central de que a inteligência (humana ou artificial) assemelha-se à computação de
informações, e a cognição a computações de representações simbólicas52. Em outras
palavras, para os representantes deste movimento a inteligência consistia na habilidade de
operar símbolos que representavam o mundo externo, formando internamente uma imagem
adequada do mundo – o que se chamava de representação interna ou mental. A cognição,
por sua vez, passara a ser concebida como o estabelecimento destas representações mentais
do ambiente, manipuladas a partir de determinadas regras e resultando em comportamentos
específicos.
Poderíamos resumir o programa de pesquisa cognitivista da seguinte forma:
•
Cognição é o processamento de informações: manipulação de símbolos com base em
regras.
•
A cognição funciona através de qualquer artefato que possa dar suporte e manipular
elementos separáveis: símbolos. O sistema interage somente com as formas dos
símbolos, e não com seus significados.
•
O sistema cognitivo funciona adequadamente quando os símbolos representam algum
aspecto do mundo real, e o processamento de informações conduz à solução efetiva do
problema apresentado ao sistema.53
Em 1956 também nascia, como vimos no capítulo anterior, a inteligência artificial –
lugar onde as manifestações do cognitivismo eram mais visíveis, a ponto de representar,
para Varela e seus colaboradores, a implementação literal da hipótese cognitivista.
Encarnando fisicamente as construções teóricas do cognitivismo, o computador devolve
51
Passos, 1992, p. 190.
Varela et al., 2003, p. 55.
53
Ibidem, p. 58.
52
material teórico aos vários setores a partir dos quais fora pensado, levando a uma nova
modelagem da visão sobre o cérebro. Temos uma ilustração deste fato na área da
neurobiologia, em que a noção de que o cérebro processa informações perpassou boa parte
dos estudos e um grande número de evidências empíricas. Para citar um exemplo, estudos
sobre o córtex visual relataram ser possível classificar os neurônios corticais como
“detentores de aspectos”, que respondem a apenas certos atributos do objeto apresentado
aos olhos – como sua textura, cor, contraste, etc. –, que são coletados na retina,
processados e encaminhados a outras áreas cerebrais também para processamento –
categorização conceitual, memória associativa, etc.54 Em suma, os neurônios corticais
processariam informações, desencadeando a formação de representações mentais dos
objetos apresentados aos olhos.
A perspectiva cognitivista apresenta, porém, importantes limitações em sua
compreensão da cognição. Destacaremos duas: (1) a informação simbólica é
predominantemente baseada em processamento seqüencial, onde as regras são aplicadas
uma a uma, o que representa uma grande limitação quando a tarefa em questão requer um
elevado número de operações seqüenciais. (2) O processamento simbólico é localizado:
caso haja a perda ou danificação de informações de qualquer parte do sistema cognitivo, há
um colapso total do sistema.
Já nas Conferências Macy os cibernéticos discutiam sobre a questão de que o
cérebro não parecia seguir regras, nem ter processadores lógicos centrais, nem locais
específicos para o armazenamento de informações. Ao contrário, o que parecia mais
plausível era que o cérebro operava com base em massivas conexões, onde os grupos de
neurônios tinham suas conexões modificadas a partir da experiência do sujeito no mundo.
Dentre as várias críticas dirigidas ao modelo proposto por McCulloch em 1943, uma fazia
referência ao fato de que o cérebro tem um número extremamente grande de funções e que
os genes não teriam capacidade suficiente para especificar plano de conexão entre todos os
neurônios do sistema cerebral. Uma alternativa seria considerar que as operações são
distribuídas pelo cérebro – conferindo certa equipotencialidade ao sistema e imunidade
relativa a perdas de informação. As redes neuronais também teriam de ser aleatórias – nas
quais as conexões são obtidas ao acaso –, pois assim haveria espaço para a intervenção da
cultura, da experiência e da aprendizagem na modelização do próprio sistema.
54
De acordo com Varela et al., 2003, p. 59.
Como conseqüência das limitações do cognitivismo, que não fornecia explicação
para determinadas funções cognitivas dos sistemas biológicos, surgiu a abordagem da
auto-organização. Nela o sistema cognitivo se compõe como uma rede, existindo uma
cooperação global que emerge espontaneamente quando o estado de todos os neurônios (ou
elementos) participantes se torna mutuamente satisfatório, sem a necessidade de uma
unidade central de processamento para guiar determinada operação. Esta abordagem,
também chamada de conexionista, descarta a descrição do cérebro como processador serial
de informações, para privilegiar a visão dos neurônios como membros de grandes coleções
que continuamente fazem surgir e desaparecer suas interações cooperativas. Ao invés de
descrições simbólicas abstratas, o ponto de partida é um exército de componentes simples
que, conectados adequadamente, apresentam propriedades globais interessantes. Estas
conexões são obtidas a partir de algumas regras como a de Hebb, proposta por ele em
1949, que sugere que se dois neurônios tendem a se ativar juntos, a conectividade entre
eles é reforçada e, caso contrário, ela diminui. Assim, a conectividade do sistema se torna
inseparável de sua história de transformações e fica relacionada ao tipo de tarefa realizada
pelo sistema. 55
Resumindo brevemente o programa conexionista, seguindo o esquema de Varela et
al., teríamos:
•
Cognição é a emergência de estados globais em uma rede de componentes simples.
•
A cognição funciona através de regras locais de operação individual e regras de
mudança na conectividade entre os elementos.
•
O sistema cognitivo funciona adequadamente quando as propriedades emergentes (e a
estrutura resultante) podem ser vistas como correspondendo a uma capacidade
cognitiva específica – uma solução bem-sucedida para uma determinada tarefa.56
A abordagem conexionista fornece um método mais eficiente para sistemas com
propriedades cognitivas complexas, como o reconhecimento de imagens, por exemplo. Foi
55
Varela et al., 2003, cap. 5, e Dupuy, 1996, pp.197-199. É importante ressaltar que, de acordo com Dupuy,
tanto o cognitivismo top-down (que concebe a cognição como um movimento descendente, que vai das
propriedades do sistema como um todo às dos elementos e de suas conexões) quanto o conexionismo bottomup (que parte, em um movimento ascendente, dos elementos e conexões, constituindo as propriedades da
totalidade do sistema) já trazem de antemão em seu modelo regras (como a de Hebb, por exemplo) para as
conexões entre os elementos do sistema. Esta proposta do estabelecimento aleatório das conexões somente
seria de fato explorada pelos neoconexionistas – onde o sentido da totalidade particular gerada pelas
conexões seria dado a posteriori. Para maiores detalhes, cf. Dupuy, 1996.
56
Varela et al., 2003, p. 111.
inspirado nesta concepção que Frank Rosenblath construiu em 1958 o Perceptron: um
aparelho composto por uma rede baseada no modelo de McCulloch e Pitts arrumada em
camadas superpostas de neurônios e capaz de aprendizagem – pois tinha a propriedade de
mudar a conectividade entre seus componentes a partir do contato com o meio externo.
Porém, logo se tornou evidente para muitos pesquisadores da IA que mesmo as
ações cognitivas mais simples exigem uma quantidade extremamente grande de
conhecimento. No homem este conhecimento já está estabelecido mas, nos computadores,
deveria ser inserido pedacinho por pedacinho pelo programador. Este fato os levaria a
desistir de solucionadores de problemas em geral – como veremos logo adiante –, e
focalizar problemas específicos e bem delimitados. Mas, mesmo assim, outro problema
permaneceria: nos seres humanos, o conhecimento está sempre relacionado a determinado
contexto, e sua ação é sempre situada, relacionada a cada momento de sua existência. Esta
concepção de conhecimento como algo diferente de um espelho da natureza traria a
necessidade adicional de inserir nos computadores informações acerca dos contextos onde
determinados conhecimentos são empregados.
Existem várias nuances, críticas e detalhes com relação aos programas cognitivista
e conexionista, mas não teremos tempo para uma discussão mais detalhada57. O que nos
importa ressaltar no momento é que, tanto para o cognitivismo quanto para o
conexionismo, a cognição é tida como a propriedade de um sistema, seja ele humano ou
artificial, dotado de regras que determinam seus elementos e conexões. Esta concepção
expressa o forte caráter científico do campo dos estudos da cognição, e de seu estreito
vínculo com os computadores – cujos softwares, invariavelmente, são resultado de uma
série estruturada de regras (algorítmos). Portanto, o sucesso dos programas da inteligência
artificial, uma vez que tinham como referência a inteligência humana, dependia
necessariamente de avanços no campo do qual participava – o das ciências cognitivas.
2.2
Críticas à razão artificial
A maioria dos programas iniciais na área da inteligência artificial – especialmente
os softwares capazes de solucionar problemas e participar de jogos – foi desenvolvida ou
57
Para maiores detalhes, cf. Varela et al., 2003.
inspirada no trabalho de Newell, Shaw e Simon, na RAND Corporation e no Carnegie
Institute of Technology. Por conceberem a inteligência como o processamento de símbolos
baseado em regras, as pesquisas na área da IA utilizavam prioritariamente a técnica da
Simulação Cognitiva (SC) como modo de mapear estas regras, partindo de protocolos
gerados por humanos – relatórios verbais de um sujeito em processo de solução de um
problema.58
Hubert Dreyfus, atento a todas as aspirações da inteligência artificial, desde o início
tinha a intuição de que o projeto fatalmente fracassaria. Baseado nos estudos de Edmund
Husserl, Martin Heidegger, Merleau-Ponty e Ludwig Wittgenstein, Dreyfus sabia que
grande parte de nossos comportamentos, como o de andar de bicicleta ou o de dirigir um
automóvel – e até mesmo jogar xadrez –, não se baseiam puramente em regras conscientes
e precisas. Conseqüentemente, a técnica dos protocolos não seria suficiente para a
compreensão destes comportamentos, pois nenhum sujeito teria a capacidade de verbalizar
todos os processos mentais (e corporais) envolvidos em suas ações. Além disso, para a
solução de problemas simples do cotidiano, como entender o significado de uma pequena
frase, os humanos precisam de um grande número de conhecimentos de senso-comum –
que teriam de ser alimentados “de colherinha” em um computador de modo a habilitá-lo a
desempenhar satisfatoriamente estas funções. Isto justifica e esclarece, para o autor, o
motivo pelo qual os projetos iniciais da IA, como o desenvolvimento de tradutores
mecânicos e de solucionadores gerais, logo de início chegaram à estagnação. De fato
podemos dizer que, até hoje, não existe nenhum software que opere satisfatoriamente na
compreensão da linguagem natural e na tradução de textos.
Os cibernéticos muito discutiam sobre a comparação entre o funcionamento de
relés eletrônicos e dos processos sinápticos, estipulando a hipótese de que os neurônios
funcionariam através de operadores lógicos e do princípio do “tudo ou nada”. Jerome
Lettvin considera que McCulloch edificou o que é ainda hoje a única teoria do sistema
nervoso59. Mesmo assim, sabemos que as hipóteses de McCulloch estavam muito mais
próximas de um mecanismo computacional que do funcionamento neuronal – tanto que, de
58
O protocolo de um sujeito resolvendo o problema dos missionários e canibais poderia ser: “bem, estou
vendo que há três canibais e três missionários de um lado do rio. Sei que tenho que passá-los para a outra
margem, sem que haja mais canibais que missionários em qualquer um dos lados. Vou passar dois canibais
primeiro. Bem, agora um dos canibais fica e o outro volta com a canoa. Agora há três missionários e dois
canibais. Vou passar um missionário e um canibal. Não, não dá, porque ao chegarem no outro lado haveria
um canibal a mais e eu perderia o jogo. Será que posso passar dois missionários? Não, também não daria
certo. E dois canibais? Acho que sim. Vamos ver...”
59
De acordo com Dupuy (1996, p.70). Segundo ele Lettvin é neurobiologista e um dos colaboradores de
McCulloch.
acordo com Dupuy, o artigo que ele escrevera com Pitts em 1943 acabou servindo de um
ótimo atalho para Von Neumann em seu caminho rumo ao EDVAC.
Alguns estudiosos da inteligência artificial logo começaram a perceber que as
comparações entre a estrutura física do computador (hardware) e a estrutura do cérebro já
não eram mais necessárias; Simon apostava que a chave para a construção de um artefato
inteligente estava localizada na interface entre o organismo e o ambiente, no ponto de
encontro entre o meio interno e o meio externo60. Assim, mais importava a organização dos
componentes que suas propriedades físicas, e é neste ponto que o computador deve ser
semelhante ao homem. Para Simon, tanto o computador quanto o cérebro e a mente
humana são sistemas simbólicos físicos: sistemas de processamento de informação que
operam sobre estruturas simbólicas e que procuram realizar determinados objetivos. A
inteligência, para ele, é justamente o resultado do funcionamento destes sistemas
simbólicos. E, uma vez que a aparente complexidade do comportamento era em grande
parte reflexo da complexidade do ambiente61, bastaria encontrar (com o uso de técnicas
como a análise de protocolos humanos) as leis gerais simples que governam o
processamento no sistema humano para que fosse possível implementá-las em uma
máquina – sem descartar, é claro, a necessidade de avanços tecnológicos na estrutura do
hardware. A reprodução integral da inteligência humana em um mecanismo artificial era,
para Simon, apenas uma questão de tempo e complexidade.
Desde a máquina de Turing até o General Problem Solver de Newell e Simon
pouco tempo se passou e, inversamente, muito crescera o campo da IA. Seria portanto
exigir muito dos pesquisadores, simples humanos, que não apresentassem grandes doses de
euforia e fantásticas hipóteses para um futuro próximo.
Não é meu propósito surpreendê-lo ou chocá-lo ... Mas o melhor resumo
que posso fazer é dizer que existem, agora, no mundo, máquinas que
pensam, que aprendem e que criam. Ademais, sua capacidade de fazer
essas coisas estará aumentando rapidamente até que – num futuro visível
– a gama de problemas de que podem ocupar-se terá as mesmas
dimensões da gama a que se tem aplicado a mente humana.
(...) dentro de dez anos o computador digital será o campeão mundial de
xadrez, a menos que as regras existentes o eliminem da competição. (...)
Dentro de dez anos, a maior parte das teorias psicológicas tomará a forma
60
Simon, 1981, p.29.
p. 106. Arriscaríamos dizer que Simon levara algum tempo para chegar à conclusão de que a maior parte
da complexidade está no ambiente, e que esta noção ainda não estava clara para ele à época em que
trabalhava sobre o GPS (Simon publicou o livro a que nos referimos em 1969, doze anos após o nascimento
do GPS). Talvez tenham sido justamente os fracassos do GPS em lidar com ambientes complexos, como o da
linguagem natural ou o do jogo de xadrez, que ajudaram Simon a chegar a esta conclusão.
61
de programas de computador ou de demonstrativos qualitativos acerca
das características dos programas dos computadores. 62
No espaço de vinte anos, as máquinas serão capazes de realizar todas as
tarefas, sejam elas quais forem, que os homens podem realizar.63
Dreyfus não iria perdoá-los. O “feroz crítico da inteligência artificial”, como o
chama Dupuy, acompanhava de perto tudo o que se passava no MIT e na RAND
Corporation – da qual, inclusive, recebia apoio e financiamento para suas pesquisas. Para
ele, as previsões acima não passavam de um sonho pueril, que estava obviamente baseado
em pressupostos frágeis e infundados e que, entre outras questões, desrespeitavam a
diferença ontológica entre um homem e uma máquina. Seu livro64 é recheado destas
previsões e expectativas, sempre seguidas de árduas críticas. Mas seríamos ingênuos se
considerássemos que Minsky, Newell, Simon e outros sonhavam o tempo todo com o
breve surgimento destas máquinas inteligentes e antropomórficas. Os obstáculos que
incessantemente se interpunham no caminho destes incansáveis pesquisadores mostravamse como provas reais da diferença entre um homem e uma máquina. Conseqüentemente, a
euforia inicial iria perder seu fôlego e as analogias seu espaço. A arquitetura de Von
Neumann, em seu modelo de processamento digital serial, já estava dada – e até hoje
compõe a estrutura básica dos computadores pessoais (PC’s), com chips de silicone no
lugar de válvulas eletrônicas65. Porém, o cérebro e a mente resistiam a funcionar desta
forma, sempre escorregadios, escapando dos herméticos modelos científicos e
tecnológicos. Dreyfus teria classe o suficiente para reconhecer o caráter autocrítico dos
pesquisadores da IA, dando em seu livro espaço para algumas declarações que mostravam
sua compreensão do cérebro como uma máquina extremamente complexa e, por que não
dizer, demasiadamente humana.
O psicanalista Jacques Lacan sabiamente constata a diferença ontológica entre um
computador e um ser humano – que é, segundo ele, óbvia. Mas o que não é tão óbvio, e
portanto o que resta a saber, é quão humano o homem é:
62
Simon apud Dreyfus, 1975, p. 34. Esta declaração foi feita por Simon em 1957, entusiasmado com os
resultados de seu GPS – que parecia inaugurar a era da inteligência artificial.
63
Simon, 1965, apud Dupuy, 1996, p.37
64
Dreyfus lança em 1971 O que os Computadores Não Podem Fazer. Em 1979 ele lança uma edição
revisada, acrescentando à primeira parte do livro dois capítulos onde são avaliados os projetos em
inteligência artificial desenvolvidos de 1971 a 1979. O que os Computadores Ainda Não Podem Fazer é
lançado em 1992 pela MIT Press, constituindo-se de uma reedição do livro de 1979 acrescida de uma nova
introdução de aproximadamente quarenta páginas.
65
Varela et al., 2003, p.54.
Nada de sentimento. Não venham dizer que a máquina é uma malvada e
atrapalha nossa existência. Não se trata disto. A máquina é unicamente a
sucessão dos pequenos 0 e os pequenos 1 e, além disto, o problema de se
é ou não humana está totalmente resolvido: não o é. Resta saber se o
humano, no sentido em que você o entende, é tão humano assim.66
Esta dúvida, ao invés de representar um problema, serve de incentivo para os
pesquisadores da IA: uma vez que não se sabe até que ponto a razão artificial pode ser
levada, mais interessante e produtivo do que colocar antecipadamente limites às pesquisas
é continuar o desenvolvimento na área e ir o mais longe possível. Mesmo que uma
máquina seja ontologicamente diferente de um homem, seria possível encontrar um nível
cada vez mais próximo entre a organização de seus componentes; assim, pode-se chegar ao
ponto em que a habilidade do homem de fabricar uma fraude exceda sua habilidade de
detectá-la67 e, ainda mais, de ter suas próprias habilidades superadas pela fraude.
Na década de 1970, no MIT, Minsky projetara o HAL 900068 – computador do
filme “2001, uma odisséia no espaço” –, que representava o que na época se concebia para
a passagem do século XX ao XXI: o mundo seria composto por robôs capazes de
conversar, mentir, vencer humanos no jogo de xadrez e até ler os lábios de pessoas
enquanto conversam. Dreyfus conta que Stanley Kubrick, diretor deste filme, consultou os
mais avançados especialistas em computadores da época a fim de não cometer nenhuma
gafe e equivocar-se quanto ao que seria possível de se realizar em 30 anos. As declarações
de Minsky também espelhavam o fato de que, para eles, a imaginação era o limite para o
que os computadores poderiam um dia fazer.
66
“Nada de sentimiento. No vaya a decir que la máquina es una malvada y estorba nuestra existencia. No se
trata de eso. La máquina es únicamente la sucesión de los pequeños O y los pequeños 1, y además, el
problema de si es humana o no está totalmente resuelto: no lo es. Sólo que también hay que averiguar si lo
humano, en el sentido en que usted lo entiende, es tan humano.” Lacan, Seminário 2 – O Eu na Teoria de
Freud e na Técnica da Psicanálise. Edição eletrônica com as obras completas de Lacan. 1 CD-ROM.
Tradução minha.
67
Esta frase foi dita por Victor Taransky, personagem de Al Pacino no filme Simone. Simone (nome que
resulta da contração de “Simulation One”) era uma atriz virtual, totalmente criada por computador, capaz de
enganar a audiência e até ganhar dois prêmios Oscar. Andrew Niccol, roteirista, diretor e produtor do filme,
comenta que “Simone traçou uma linha entre a verdade e a ficção. Com o advento da tecnologia não sabemos
mais o que é real e o que é falso. E talvez não damos importância a isso”. Estas e outras informações estão
disponíveis nos extras do DVD do filme.
68
Nome composto pelas letras que antecedem o I, o B e o M no alfabeto, o que parece ser uma brincadeira
com o nome da empresa International Business Machine (IBM). Porém, David G. Stork afirma que tudo não
passou de uma coincidência e, ao perceber a referência à IBM, Kubrick quis mudar o nome da máquina e
filmar novamente as cenas em que ela aparecia – o que não foi possível devido aos altos custos com a
produção. HAL significa, na verdade, Heuristically programmed Algorithmic computer. Para mais detalhes,
cf. o site <www.research.ibm.com/deepblue/learn/html/e.8.1.html>.
A princípio, as máquinas possuíam simples garras. Logo, passaram a ter
articulações fantasticamente graciosas. Os olhos dos computadores,
outrora, só podiam sentir um orifício num cartão. Agora eles reconhecem
formas sobre simples fundos. Cedo eles competirão com o homem na
análise ambiental. Outrora, os computadores somavam meramente
colunas de algarismos. Agora, eles participavam de jogos, com boa
atuação, compreendem conversas simples, avaliam diversos fatores numa
decisão. O que virá a seguir?
Hoje, as máquinas resolvem problemas em consonância básica com os
princípios que introduzimos nelas. Não vai demorar, estaremos
aprendendo como pô-las a trabalhar no problema bem especial de
melhorar sua própria capacidade de solucionar problemas. Uma vez que
se ultrapasse determinado limiar, isto poderá levar a uma espiral de
aceleração e talvez seja difícil aperfeiçoar um “governador” de confiança
para controlar o processo.69
Dreyfus comenta estas afirmações de Minsky dizendo que, ao que parece, não
haverá limites para o alcance e o brilho de um computador devidamente programado. Os
moralistas e teólogos estão atentos para os comportamentos altamente sofisticados, como
escolha moral, amor e descobertas criadoras, que estariam além do alcance de qualquer
máquina, representando a singularidade do homem e a fronteira entre o artifício e o
humano. E tanto estes pensadores quanto os da filosofia da ciência, provavelmente
inebriamos pela impressão – alimentada tanto pela imprensa quanto pelas declarações de
Simon, Minsky e outros pesquisadores da inteligência artificial – de que os computadores
já realizavam ou estariam em breve aptos a realizar tarefas altamente sofisticadas,
deixariam de formular uma questão preliminar: as máquinas podem demonstrar habilidades
elementares, tais como participar de jogos, resolver simples problemas e ler frases
simples?70 Em outras palavras, as otimistas alegações que faziam referência à habilidade
dos computadores levavam a especulações sobre o que teríamos em um futuro próximo, e
faziam parecer desnecessárias análises sobre o que de fato já podia ser realizado pelas
máquinas.
É justamente esta tarefa que Dreyfus toma para si: avaliar e examinar estas
alegações, compará-las aos resultados concretos obtidos pelo time da inteligência artificial,
e demonstrar a gigantesca distância entre o sonho e a realidade – entre aquilo que parecia
um dia ser possível e aquilo que se realizou efetivamente. Agora acompanharemos um
pouco do percurso de Dreyfus, em sua análise dos primeiros softwares inteligentes. Assim
teremos preparado o terreno para as discussões do próximo capítulo, que envolvem as
69
70
Marvin Minsky, Machines Are More Than They Seem, apud Dreyfus, 1975, p.33.
Ibidem, p. 34.
avaliações deste autor sobre aquilo que seriam os quatro pressupostos fundamentais dos
projetos da IA, e abrem espaço para Merleau-Ponty e sua visão fenomenológica sobre o
sujeito, a ciência e o corpo próprio.
2.3
A breve história do solucionador de problemas gerais
O Teórico Lógico, desenvolvido em 1956 por Newell, Shaw e Simon na RAND
Corporation, era capaz de resolver problemas da lógica de forma análoga aos humanos.
Mas, lembremos, seu campo de ação era restrito. Buscando uma versatilidade maior para
softwares solucionadores de problemas, eles aproveitaram o modelo heurístico utilizado no
Teórico Lógico para a demonstração de teoremas, aplicaram-no a uma gama de problemas
semelhantes e, em 1957, criaram o GPS. Este, como já tivemos oportunidade de ver, era
capaz de “raciocinar” e calcular a melhor forma de chegar à solução de determinados
problemas. Quando o GPS resolveu o problema dos missionários e canibais, seus
progenitores, de acordo com Dreyfus, concluíram que os computadores digitais tinham
recebido as regras necessárias para converter o raciocínio em cálculos. Este fato fez com
que Newell e Simon sentissem que já estava na hora de anunciar a era das máquinas
inteligentes:
Começamos a aprender como utilizar os computadores para a solução de
problemas, onde não temos algorítmos computáveis sistemáticos e
eficientes. E agora sabemos, pelo menos numa área limitada, não só
como programar computadores para executarem com êxito tais atividades
de solução de problemas; sabemos também como programar os
computadores para aprenderem a fazer essas coisas.
Em suma: possuímos, agora, os elementos de uma teoria heurística (em
contraste com a algorítmica) no tocante à solução de problemas, e
podemos utilizar essa teoria tanto para apreender os processos heurísticos
humanos como para simular tais processos com os computadores digitais.
A intuição, a introspecção e o aprendizado não mais são possessões
exclusivas dos seres humanos; qualquer computador de grande porte e de
alta velocidade pode ser programado para demonstrá-las também.71
Mais do que uma série estruturada de regras e comandos (algoritmo), que levam um
programa a realizar determinados cálculos, a teoria heurística permitia ao software realizar
operações que se assemelhavam ao raciocínio humano. Assim, no momento em que a
71
Newell e Simon apud Dreyfus, 1975, pp.30-31.
razão pode ser programada em um computador, estabelece-se uma inteligência artificial, e
é a própria definição de homem que é posta em cheque. Dreyfus lembra-nos que
Aristóteles definiu o homem como um animal racional e, desde então, a razão vem
representando a própria essência do homem. Se um computador também pode raciocinar,
então seremos forçados a considerá-lo humano ou, na melhor das hipóteses, reformular
nossa compreensão acerca de nós mesmos. Mas se ficar provado que a inteligência
artificial é impossível, como diz Dreyfus, então teremos que distinguir a razão (natural)
humana da razão artificial – o que também implicaria na necessidade de re-avaliarmos a
visão que temos de nós mesmos.
É por isto que Dreyfus não pouparia esforços para combater as declarações dos
“artificialistas”, por estar convencido de que eles estavam muito longe do estabelecimento
de uma razão artificial.
É vital conservarmo-nos atentos de início que, não obstante as predições,
o noticiário da imprensa e as advertências, a inteligência artificial é uma
promessa e não um fato consumado. Somente então poderemos começar
nosso exame da situação real e das esperanças futuras da inteligência
artificial a um nível suficientemente rudimentar. 72
De fato, Dreyfus não encontraria muita dificuldade para provar que suas hipóteses
estavam corretas. Os próprios obstáculos seriam contundentes o suficiente para forçá-los a
admitir que suas previsões estavam equivocadas. Em 1967, prazo final para as previsões de
Simon, Newell anuncia o abandono do GPS:
Uma séria limitação da esperada performance do GPS é o porte do
programa além do porte de sua razoável estrutura de dados elaborados. O
próprio programa ocupa significante porção da memória do computador e
a produção de novas estruturas de dados perante a solução do problema
exaure rapidamente a memória remanescente. Conseqüentemente, o GPS
é projetado apenas para solucionar problemas modestos cuja
representação não é muito elaborada. Ainda que as memórias de
computadores maiores atenuassem as extravagâncias do uso da memória
do GPS, permaneceriam as dificuldades conceituais.73
O grande consumo de memória e dificuldades conceituais impediam que o GPS
apresentasse a performance esperada por Newell, Shaw e Simon. Já nesta declaração
Newell deixa claro que mesmo o aumento da memória da máquina não seria suficiente
72
73
Dreyfus, 1975, p.38.
Newell apud Dreyfus, 1975, p. 51.
para fazer com que o GPS pudesse dar conta do grande número de processamentos
necessários para a solução de problemas de larga escala. Hoje em dia, temos computadores
com memórias que são gigantescas se comparadas com as disponíveis em 1967 e, mesmo
assim, ainda não chegamos perto de um solucionador de problemas em geral nos moldes
do projeto do time da RAND Corporation. De fato, o maior problema estava em sua
concepção de um solucionador de problemas artificial e da maneira como os humanos
lidam com os problemas do dia-a-dia.
Uma das grandes dificuldades conceituais dizia respeito ao reconhecimento de
padrões. Esta, segundo Dreyfus, impedia o desenvolvimento dos programas na
participação em jogos, na tradução de idiomas e na solução de problemas. O homem está
continuamente exposto a um turbilhão de dados oriundos de seus sentidos, dos quais
abstrai padrões pertinentes a sua atividade em determinado momento, como solucionar
problemas, compreender e estruturar frases, e transitar pelo mundo. Assim, enquanto os
softwares não forem capazes de perceber padrões, as conquistas na área de solução de
problemas serão apenas resultado de triunfos técnicos isolados.74 Para ensinar um robô a
dirigir um carro, por exemplo75, seria necessário instruí-lo a respeito da mecânica básica de
um automóvel, da relação entre o freio, a embreagem e o acelerador, a baixar o freio de
mão para arrancar, nunca ultrapassar o sinal vermelho, quando se deve ultrapassar um sinal
amarelo, limites de velocidade das vias, significado de todas as possíveis placas de
sinalização, dar preferência à passagem de um pedestre, sempre olhar no retrovisor antes
de efetuar uma curva, diminuir a velocidade em dias de chuva, utilizar o freio motor ao
descer uma ladeira, pagar a taxa de pedágio, desviar de buracos, estar atendo à distração
dos outros motoristas, manter distância regulamentar, nunca ultrapassar pela esquerda, dar
dinheiro ao flanelinha para que não arranhe a lataria do carro estacionado, não reagir e
entregar o carro em um assalto, etc. E para tudo isto, o software precisaria ser capaz de
reconhecer o que é um acelerador, um freio, uma embreagem, uma caixa de câmbio
(sabendo diferenciar um câmbio normal de um automático), a diferença entre uma direção
comum e uma hidráulica, distinguir uma via primária de uma secundária e de uma
terciária, reconhecer os diferentes tipos de letras das mensagens escritas nas placas de
sinalização, distinguir um buraco de uma mancha de óleo na pista, reconhecer os diferentes
74
Selfridge e Neisser apud Dreyfus, 1975, p.52.
Ao inventarmos este exemplo tínhamos apenas o intuito de expressar a complexidade dos comportamentos
mais corriqueiros dos humanos. Com ele não estamos fazendo referência a nenhum dos projetos da
inteligência artificial.
75
tipos de linha que dividem as vias, saber quando é noite ou dia para o uso dos faróis, a
quantidade de chuva necessária para o acionamento dos limpadores de pára-brisa, etc.
Este exemplo ilustra que atividades corriqueiras, como dirigir um automóvel,
necessitam do reconhecimento de um grande número de padrões e demandam o
conhecimento de uma série de informações. Assim, para que um computador possa
apresentar comportamento inteligente semelhante ao do humano ao resolver problemas, os
programadores devem necessariamente alimentá-lo com todos os conhecimentos,
conscientes e inconscientes76, de um homem que dirige, por exemplo. É por isto que os
softwares apresentavam um bom desempenho em situações bastante específicas, onde se é
possível encontrar um número limitado e ao mesmo tempo suficiente de informações
acerca do ambiente e passá-las para a linguagem de máquina.
2.4
O desempenho dos computadores em jogos de xadrez
Jogos simples como o “jogo da velha”, ou o jogo de damas, possuem apenas
algumas regras e um número limitado de jogadas possíveis. Este fato permitiu que os
programadores obtivessem êxito ao implementá-los em computadores; no jogo da velha,
logo conseguiram fazer a máquina ganhar ou no mínimo empatar em todas as partidas
contra jogadores humanos. No jogo de damas eles verificaram que havia meios seguros de
se determinar o provável valor de cada pedra do tabuleiro, em função de certos parâmetros
como o controle da posição central, avanços, etc. Uma vez que neste jogo as pedras se
bloqueiam reciprocamente, e as capturas são forçadas, foi possível circunscrever os
movimentos plausíveis em um número de vinte possibilidades, o suficiente para um jogo
excelente.77 O mesmo já não se aplica ao jogo de xadrez. Apesar de haver um número
relativamente pequeno de regras, e movimentos determinados para cada tipo de peça, o
número de jogadas possíveis a partir de determinada configuração do tabuleiro cresce
exponencialmente. Aquele que está familiarizado com o jogo sabe que um bom jogador,
antes de efetuar o movimento de uma peça, deve prever as conseqüências de sua jogada –
quais os possíveis movimentos de seu adversário, e seus possíveis movimentos em função
76
Utilizaremos doravante a palavra inconsciente algumas vezes, sempre fazendo menção àquilo que não está
disponível à consciência em determinado instante. Optamos por simplificar o sentido deste termo,
descartando qualquer significado de cunho psicanalítico, de modo a não fugir do escopo deste trabalho.
77
Dreyfus, 1975, pp. 56-57.
dos dele, o que lhe exige uma grande quantidade de cálculos para o movimento de apenas
uma peça.
Os deslocamentos alternativos multiplicam-se tão rapidamente que não
podemos sequer explorar todas as possibilidades ramificadas o suficiente
para formar um critério válido quanto a se determinada ramificação é
suficientemente promissora para merecer maior exploração. Newell
observa que se levaria demasiado tempo para achar um movimento
interessante se a máquina tivesse de examinar os movimentos possíveis
de cada uma das pedras do tabuleiro, umas após as outras. Ele também
está ciente de que, se isso não for feito, a máquina poderá omitir, alguma
vez, uma combinação importante e original. “Não queremos que a
máquina gaste todo o seu tempo examinando futuros atos de homens
comprometidos; entretanto, se ela jamais tivesse de fazer isso, poderia
estar desprezando oportunidades reais.”78
Um ser humano, segundo Dreyfus, é capaz de considerar até 200 movimentos. Um
programa chamado “MacHack”79, ao buscar a melhor jogada para uma difícil partida de
um torneio que participava, considerou, calculando durante quinze minutos, 26.000
alternativas. MacHack não considerou todos os movimentos possíveis – pois fora
programado com um gerador de movimentos plausíveis, que limitava-os em função de
outros mais promissores –, mas foi capaz de realizar uma excelente jogada. Porém,
qualquer mestre poderia ter feito melhor e, com certeza, precisaria considerar um número
muito menor de possibilidades. Isto indica que seres humanos, ao jogar xadrez, fazem algo
diferente do que apenas considerar alternativas; mas que ação é esta que eles praticam que
os permite, “enquanto consideram 100 ou 200 alternativas, descobrir movimentos mais
brilhantes do que o computador, mesmo trabalhando este com 26.000 alternativas?”80
Geralmente, os mestres em xadrez olham para o tabuleiro e as boas possibilidades
simplesmente “brotam” – e aí então é que começam a avaliar. Fica claro, portanto, que a
heurística do homem é completamente diferente da dos computadores. Mas a pergunta
ainda não foi respondida; vejamos qual a solução que Dreyfus irá propor:
O jogador humano, do qual estamos examinando o protocolo, não está
ciente de ter considerado explicitamente, ou excluído explicitamente de
consideração nenhuma das centenas de possibilidades que ele deveria ter
enumerado para chegar, por meio de cálculos, a uma determinada área
relevante do tabuleiro. Contudo, a porção específica do tabuleiro que
finalmente atraí a atenção do sujeito depende da posição global. Para
78
Ibidem, p. 57.
Dreyfus não especifica a data em que foi criado o software, mas já fala dele no livro que lançou em 1971.
Assim, o MacHack provavelmente foi criado no final da década de 60.
80
Ibidem, p. 59.
79
entender como isto é possível, devemos considerar o que William James
chamou de “as bordas da consciência”: o tic-tac de um relógio que
percebemos somente se ele pára oferece um simples exemplo deste tipo
de percepção marginal. Nossa vaga consciência de rostos numa multidão
quando procuramos por um amigo é um outro caso, mais complexo e
mais apropriado.81
Quando um homem joga xadrez, ele não precisa avaliar todas as jogadas possíveis e
imagináveis para movimentar uma peça, e é isto que a análise dos protocolos demonstra.
Ele simplesmente “sabe” que muitas possibilidades não precisam ser levadas em
consideração, e que outras podem levar a um bom lance. E isto não parece ser resultado de
um grande número de cálculos, sejam eles realizados conscientemente pelo jogador ou
resultado de processos inconscientes. Tudo indica que a ação de considerar determinada
jogada como promissora envolva um tipo de percepção marginal, na qual existem vários
elementos dos quais não estamos explicitamente conscientes. Muitas funções humanas
utilizam informações que não são focalizadas explicitamente, e isto parece assinalar uma
diferença fundamental entre um homem e uma máquina: as operações mais fundamentais
dos computadores digitais são de natureza binária, portanto todas as funções que a máquina
pode executar devem ser suficientemente específicas e explícitas para ter resposta “sim” ou
“não”.
Esta diferença essencial é justificativa para a baixa performance dos computadores
no jogo de xadrez que, mesmo a partir da “força bruta” – ou seja, através de um gigantesco
número de cálculos –, nunca foram capazes de vencer bons jogadores humanos. Porém, a
partir de 12 de maio 1997 esta justificativa teria necessariamente de ser reavaliada: neste
dia Garry Kasparov, o melhor enxadrista do mundo, perdera para Deep Blue – um
supercomputador construído pela IBM especialmente para a participação em partidas de
xadrez. O torneio composto de seis partidas teve resultado de 3½ a 2½ para Deep Blue:
duas vitórias do computador, uma de Kasparov e três partidas empatadas. Capaz de avaliar
200.000.000 de posições por segundo – aproximadamente 7 milhões de vezes mais rápido
que o MacHack, e mais de 210 milhões de vezes mais veloz do que Kasparov (que
81
“The human player whose protocol we are examining is not aware of having explicitly considered or
explicitly excluded from consideration any of the hundreds of possibilities that would have had to have been
enumerated in order to arrive at a particular relevant area of the board by counting out. Nonetheless, the
specific portion of the board which finally attracts the subject’s attention depends on the overall position. To
understand how this is possible, we must consider what William James has called “the fringes of
consciousness”: the ticking of a clock which we notice only if it stops provides a simple example of this sort
of marginal awareness. Our vague awareness of the faces in a crowd when search for a friend is another,
more complex and more nearly appropriate, case.” Dreyfus, 1999, p. 103. Tradução minha.
conseguia considerar no máximo três movimentos por segundo) –, através de um número
brutal de cálculos Deep Blue desbancou o campeão mundial humano, e estabeleceu um
marco para a humanidade82.
Mas se um computador foi capaz de derrotar o melhor dos humanos em um jogo,
poderíamos dizer que Dreyfus estava errado? Segundo ele, não: “eu nunca disse que tal
vitória era impossível (...) eu ainda afirmo que nada do que escrevi ou disse sobre o xadrez
estava errado”83. Seus argumentos, em última análise, sempre buscavam demonstrar que os
homens funcionam de maneira diferente das máquinas, e que suas funções nunca poderiam
ser simuladas integralmente em computadores. De fato, Deep Blue utilizava métodos
completamente diferentes dos de Kasparov para elaborar suas jogadas. Foi preciso inserir
em seu banco de dados milhares de jogadas realizadas por grandes mestres de xadrez,
muitas informações sobre o valor das peças no tabuleiro, sobre a eficiência de
determinados movimentos, sobre aberturas e finais de jogos, estratégias de grandes
campeões – como as do próprio Kasparov –, para que o Deep Blue pudesse calcular qual a
jogada que, matematicamente, seria a melhor. Para tal empresa a equipe de
desenvolvimento da máquina contou com o auxílio de um grande mestre de xadrez
chamado Joel Benjamim – três vezes campeão júnior dos Estados Unidos, campeão norte
americano em 1987, e três vezes campeão da Harvard Cup, na qual mestres de xadrez
jogavam contra computadores. O Deep Blue foi resultado de muito esforço, estudo e
trabalho; mesmo assim, a abertura do jogo (primeiros movimentos) tinha de ser escolhida
por seus criadores, humanos – que, observando a situação da partida com relação ao
torneio como um todo, estabeleciam a estratégia inicial de Deep Blue.
Foi através de uma heurística completamente diferente da humana que o
computador venceu o campeão mundial de xadrez. E assim Dreyfus, que mesmo diante dos
fatos ainda demoraria a se convencer de que realmente a máquina era melhor que o homem
82
Informações obtidas no site <http://www.research.ibm.com/deepblue/home/html/b.html>. Diversas
informações, como entrevistas com Kasparov, com os criadores do Deep Blue, e detalhes sobre a célebre
partida de 1997 podem ser encontradas neste endereço.
83
De acordo com um documento escrito pelo autor e endereçado a Daniel Denneth em 27 de maio de 1997.
“But I have never said that such a chess victory was impossible or even "almost certainly impossible." I said
that a chess master looks at only a few hundred plausible moves at most, and that the AI people would not be
able to make a program, as they were trying to do in the 60s and 70s, that played chess by simulating this
ability. I still hold that nothing I wrote or said on the subject of chess was wrong. The question of massive
brute-force calculation as a way of making game playing programs was not part of the discussion, and
heuristic programs without brute force did seem to need, and still seem to need, more than explicit facts and
rules to make them play better than amateur chess. But I grant you that, given my views, I had no right to talk
of necessity”. Hubert Dreyfus, disponível em <http://slate.msn.com/id/3650/entry/23906/>.
no xadrez84, podia afirmar que seus argumentos permaneciam válidos. Afinal, Deep Blue
ainda não pensava, e muito menos entendia alguma coisa sobre o jogo de xadrez.
2.5
O teste de Turing
Já que, com base nas afirmações de Dreyfus, falamos que o Deep Blue não
pensava, o momento se faz oportuno para uma referência ao teste elaborado por Alan
Turing em 1950, pouco antes de seu suicídio. Imaginemos o seguinte jogo85, do qual
participam três pessoas: um homem (A), uma mulher (B) e um interrogador (C) – que pode
ser de qualquer sexo. A e B ficam em uma sala separada de C que, não vendo nem ouvindo
os dois primeiros, tem a tarefa de descobrir quem é o homem (X) e quem é a mulher (Y).
Para isto C interroga A e B, elaborando perguntas sobre suas características pessoais –
como o comprimento do cabelo, das unhas, tamanho do pé, etc. O fundamental para a
realização deste teste é que o interrogador não tenha nenhum tipo de contato com A e B;
conseqüentemente, as respostas devem ser sempre fornecidas de maneira neutra, através de
um teletipo, repetidas por um intermediário ou então datilografadas (estes eram os recursos
disponíveis na época, e que hoje poderiam muito bem ser substituídos por um monitor,
uma CPU e um teclado). O objetivo de A no jogo é o de induzir C ao erro, ou seja, de leválo a identificar-lhe ao final do teste como sendo uma mulher (Y) e B como homem (X).
Inversamente, o participante B tem o objetivo de ajudar ao interrogador a identificá-lo
como Y. Agora façamos a seguinte pergunta: o que aconteceria se colocássemos uma
máquina no lugar do participante B? O interrogador seria capaz de facilmente identificar
quem é o homem e quem é a máquina? Em 1950 ainda não havia meios de programar em
um computador o teste de Turing, mas a questão já estava lançada: se uma máquina fosse
capaz de “enganar” um humano, fazendo-o errar em seu julgamento, então poderíamos
afirmar que as máquinas são capazes de pensar? Se na maioria das vezes o interrogador
errar na identificação, é porque fora então incapaz de diferenciar um homem de uma
84
“There is a growing consensus among chess masters that Kasparov may well have thrown the match in
order to promote a tiebreaker. We'll know for sure if Deep Blue is really better if there is a playoff”. Hubert
Dreyfus, disponível em <http://slate.msn.com/id/3650/entry/23906/>.
85
Para mais detalhes sobre o teste de Turing, cf. TURING, Alan M. Computing Machinery and Intelligence.
1950. Disponível em <http://www.abelard.org/turpap/turpap.htm>.
máquina. Em outras palavras, diríamos que o computador foi capaz de se passar por um
homem.
Este mesmo teste ganha uma nova versão quando, em um jogo de xadrez pelo
computador, a tarefa passa a ser a de identificar se o oponente é um software ou um
humano. Ou seja: um sujeito que joga uma partida de xadrez contra um oponente do qual
desconhece a natureza, deve adivinhar, a partir dos movimentos deste, se ele é um homem
ou uma máquina. Caso a máquina várias vezes engane o homem, seja no “teste de Turing”
ou no “teste de xadrez de Turing”, somos conduzidos à seguinte questão: podem as
máquinas pensar?86
Professor Jefferson, de acordo com Turing, afirma que enquanto uma máquina não
for capaz de compor um concerto com base em pensamentos e sentimentos, tendo ciência
de que escrevera um concerto, não poderíamos aceitar sua equivalência com o cérebro
humano87. Computadores não sentem prazer ao obter sucesso, não se culpam por seus erros
e não se deprimem por não conseguirem o que querem. Alan Turing utiliza-se
estrategicamente deste argumento para dizer que em sua base está a noção de que
precisaríamos ser uma máquina para sabermos se uma máquina sente ou não. De acordo
com esta perspectiva, continua Turing, a única maneira de saber se o homem pensa é ser
um homem em particular – o que constitui um ponto de vista solipsista. Levando esta
noção ao extremo, apenas seriamos capazes de ter certeza sobre nosso próprio pensamento,
e nunca poderíamos afirmar que determinada pessoa pensa, pois para isto precisaríamos
estar em sua pele. Desta forma não sairíamos do lugar, e a alternativa mais elegante é
assumirmos que todos os homens pensam. Isto levou Turing a afirmar que “a maioria
daqueles que mantém o argumento da consciência deveria ser persuadida a abandoná-lo,
do que ficar em uma posição solipsista”.88
Marvin Minsky também nos aconselha a desistir da discussão acerca da
consciência:
86
Existem diversos tipos de máquinas, e por isto Turing (1950) disse que usaria o termo para referir-se
apenas aos computadores digitais. Com relação ao teste de xadrez de Turing, se fosse feito nos dias de hoje
provavelmente teríamos uma situação contrária, onde, quanto mais elaboradas fossem as jogadas, mais certo
estaríamos de que o oponente se tratava de uma máquina – uma vez que estamos acostumados a ser
superados por elas na maioria dos jogos de versão eletrônica.
87
"Not until a machine can write a Bonnet or compose a concerto because of thoughts and emotions felt, and
not by the chance fall of symbols, could we agree that machine equals brain-that is, not only write it but
know that it had written it. No mechanism could feel (and not merely artificially signal, an easy contrivance)
pleasure at its successes, grief when its valves fuse, be warmed by flattery, be made miserable by its
mistakes, be charmed by sex, be angry or depressed when it cannot get what it wants." Professor Jefferson
apud Turing, 1950, pp.445-446.
88
“I think that most of those who support the argument from consciousness could be persuaded to abandon it
rather than be forced into the solipsist position.” Ibidem. Tradução minha.
Até as pessoas mais sofisticadas tecnicamente afirmam que, seja a
consciência o que for, ela tem uma qualidade que a coloca
categoricamente fora do reino da ciência, a saber, uma marca subjetiva
que a torna completamente privada e inobservável. Por que tantas pessoas
acham que a consciência não pode ser explicada nos termos científicos
atuais?
Ao invés de discutir sobre este assunto, tentemos entender a fonte desta
atitude cética. Constatei que muitas pessoas afirmam que, mesmo que
uma máquina seja programada para se comportar da mesma maneira que
o homem, ela ainda não teria uma experiência subjetiva. Mas não seria
esta uma estranha crença, se considerarmos que você precisaria ser uma
máquina para saber tal coisa? (...) uma clássica questão na filosofia é
pedir uma prova de que nossos amigos têm mentes; talvez eles sejam
meras máquinas sem sentimento. Mas então deveríamos perguntar como
é que eles sabem mentir.89
2.6
O quarto chinês de John Searle
John Searle, cogitando sobre a capacidade de pensar e compreender dos
computadores, elaborou a “célebre experiência de pensamento” chamada “o quarto
chinês”:
Imaginemos, sugere ele, que eu, que não entendo nada de chinês, seja
trancado num quarto com, à minha disposição, um reservatório de
caracteres chineses e um programa, escrito em minha língua materna (o
inglês ou o francês), de manipulação dos ditos caracteres; graças às
instruções de meu programa, forneço-lhes respostas sob a forma de outras
seqüências, que mando para fora do quarto. O sistema entrada-saída que
funcione desta maneira é, colocado sob o véu do jogo da imitação,
indistinguível de um chinês que respondesse às perguntas que lhe são
propostas compreendendo o que faz. É, porém, claro que nem eu nem o
sistema constituído pelo quarto podemos pretender ter pensado o que
89
Even the most technically, sophisticated people maintain
that whatever consciousness might be, it has a quality that
categorically places it outside the realm of science,
namely, a subjective character that makes it utterly private
and unobservable. Why do so many people feel that
consciousness cannot be explained in terms of anything
science can presently do?
Instead of arguing about that issue, let's try to understand the source of that skeptical attitude. I have found
that many people maintain that even if a machine were programmed to behave in a manner indistinguishable
from a person, it still could not have any subjective experience. Now isn't that a strange belief -- considering
that unless you were a machine yourself, how could you possibly know such a thing? (…) a classic question
in philosophy is asking for proof that our friends have minds; perhaps they are merely unfeeling machines.
But then one must ask how they'd know how to lie. Marvin Minsky, Conscious Machines, disponível em
<http://kuoi.asui.uidaho.edu/~kamikaze/doc/minsky.html>. Tradução minha.
fazíamos. A manipulação ordenada dos símbolos poderá no máximo
simular a produção e a comunicação de sentido; jamais poderá realizálas. 90
Retomemos agora a questão anterior, à qual faremos um adendo: podem as
máquinas pensar e compreender? Dreyfus afirmaria, categoricamente, que não. Para ele,
funções mentais como o pensamento e a compreensão envolvem diversos fatores além do
processamento simbólico, e não faz sentido falar delas sem que se considere o papel
essencial do contexto em qualquer ação humana. Mesmo que Deep Blue consiga derrotar o
melhor homem do mundo no jogo de xadrez, tudo o que ele faz é resultado de uma
programação – uma série estruturada de regras. Da mesma maneira, um software capaz de
decodificar instruções verbais ou escritas não compreende de fato o que lhe é dito: apenas
identifica strings – séries de caracteres alfanuméricos – previamente armazenadas em seu
banco de dados. Softwares não compreendem de fato as palavras utilizadas; simplesmente
estão construídos de tal modo que determinadas palavras-chave desencadeiam respostas
fixas e previamente estipuladas pelos programadores91.
2.7
Processamento de informação semântica
A posição de Dreyfus com relação à compreensão lingüística dos computadores
pode ser ilustrada a partir de seus comentários sobre o Student – software concebido por
Bobrow (do qual já falamos no capítulo anterior), que era capaz de “compreender” a
linguagem humana. O autor comenta que o sentido dado por Bobrow à palavra
“compreender” permite afirmar que uma máquina que apenas respondesse “sim” à
pergunta “você está ligada?” estaria entendendo inglês.92 Mas Bobrow é cauteloso o
suficiente para admitir que programas capazes de compreender grandes segmentos da
língua inglesa levariam tempo para serem escritos. Contudo, para ele, o Student
comprovava a possibilidade de construir máquinas dotadas de compreensão93, constituindo
um primeiro passo em direção a uma comunicação de linguagem natural com
computadores.
90
John Searle, Minds, Brains and Programs, apud Dupuy, 1996, p.40. Grifos no original.
Gardner, 1987, p.177.
92
Dreyfus, 1975, nota 31, p. 300.
93
Daniel Bobrow, Natural Language Input for a Computer Problem Solving System, p. 194, apud Dreyfus,
1975.
91
Dreyfus diz que o otimismo com relação à capacidade lingüística das máquinas
baseia-se no pressuposto metafísico fundamental, no que tange à natureza da linguagem e
ao comportamento humano inteligente, de que qualquer comportamento ordenado pode
ser, em princípio, formalizado e processado por computadores digitais. A partir desta
perspectiva todas as dificuldades são encaradas como resultado de limitações tecnológicas,
como a pequena capacidade de armazenamento de informações, e que um dia seriam
naturalmente superadas.
Marvin Minsky – que não achava produtivo tentar definir palavras como
“significar” e “compreender”94 – era extremamente otimista com relação ao avanço da
tecnologia e à dissolução dos obstáculos da IA:
dentro de uma geração ... poucos compartimentos do intelecto
permanecerão fora do domínio da máquina – o problema de criar a
“inteligência artificial” será substancialmente solucionado.95
Dreyfus repetidamente iria afirmar que os seres humanos não lidam com uma
massa de fatos isolados, como os computadores digitais, e não precisam de regras
heurísticas para lidar com o cotidiano. As dificuldades com as quais se deparam os
pesquisadores da simulação cognitiva e da IA não existem para o homem que transita no
mundo, pois este não é um processador digital de informações. Sistemas como o Student
são hábeis ao lidar com “micro-mundos” – ambientes restritos dos quais se é possível
especificar um grande número de componentes. Mas a passagem de um micro-mundo para
o mundo real exige muito mais do que os engenheiros da IA costumavam desejar.
Qualquer humano que seja apto a conversar tem de estar preparado para a
imprevisibilidade de uma conversa e para os sentidos ambíguos e figurados das palavras.
Isto não costuma se constituir de um grande obstáculo para nós; porém, para a IA, tornar
isto programável é justamente um dos maiores desafios. A capacidade de criar sistemas
capazes de lidar com micro-mundos não era o foco das críticas de Dreyfus, que dirigiam-se
prioritariamente às falsas esperanças de que as conquistas com relação a softwares
especialistas indicavam que os programas generalistas logo estariam por nascer.
94
Then dare we say that STUDENT "understands" those words? Why bother. Why fall into the trap of
feeling that we must define old words like "mean" and "understand"? It's great when words help us get good
ideas, but not when they confuse us. Marvin Minsky, Why People Think Computers Can’t, disponível em
<http://web.media.mit.edu/~minsky/papers/ComputersCantThink.txt>.
95
Marvin Minsky, Computation: Finite and Infinite Machines, p.2, apud Dreyfus, 1975, p. 111.
Papert e Minsky consideraram o SHRDLU (do qual também falamos no primeiro
capítulo) como um grande avanço em direção à compreensão artificial da linguagem
natural. Lembremos que este programa simulava um braço mecânico que era capaz de
manipular blocos a partir de instruções humanas. Uma vez que era capaz de estabelecer um
“diálogo” com o humano que o operava, lidando com sintaxe, semântica e uma série de
informações a respeito de blocos, Winograd, assim como Bobrow, afirmava que seu
programa também era capaz de compreender a linguagem em seu domínio específico.
Dreyfus diz que
se um grande avanço quer dizer ser mais geral que seus predecessores,
então SHRDLU, uma vez que não mais depende para sua análise da
linguagem natural de limitações externas do tipo que era essencial para o
Student de Bobrow, é sim um grande avanço (...) Mas se “um grande
avanço” significar que um passo fora dado com relação às estruturas
cognitivas básicas necessárias para a compreensão do dia-a-dia (...) então
nenhum progresso pode ser anunciado96.
O mecanismo de “compreensão” lingüística de SHRDLU era muito mais
sofisticado que o do Student, impondo menos restrições às instruções dadas pelos
humanos. Ele emitia respostas como “OK” quando “compreendia” as instruções, ou pedia
esclarecimento quando lhe pareciam ambíguas, como “eu não entendi a qual bloco você
está se referindo”. Também respondia “eu não sei” para perguntas fora de seu domínio, e
“eu não posso”, quando determinada instrução não podia ser realizada.
Tanto Bobrow quanto Winograd afirmavam que seus programas eram capazes de
compreender a linguagem humana porque, para eles, existem vários níveis de compreensão
– as máquinas não possuíam o alto grau de entendimento de um ser humano, mas podiam
compreender uma série de informações relacionadas aos “micro-mundos” para os quais
foram concebidas. A questão parece estar, portanto, no sentido da palavra “compreensão”.
Para Dreyfus não cabe a nenhum dos dois lados do debate estabelecer o que
significa compreender. E, antes de falar sobre graus de compreensão, deve ficar claro que
este termo necessariamente está vinculado a ações do tipo “perguntar”, “responder”,
“saber”, etc., que existem, ou não existem – não há graus para o estabelecimento de uma
pergunta: ela é feita, ou não. Da mesma forma, o sujeito responde ou não, sabe ou não
96
If being a major advance means being more general than its predecessors, then SHRDLU, since it no
longer depends for its analysis of language on external constraints of the sort essential to Bobrow’s
STUDENT, is a major achievement (…) If, however, “a major advance” means that a step has been made in
dealing with the basic cognitive structures needed to cover everyday understanding (…) then no progress at
all can be claimed.” Dreyfus, 1999, pp. 7-8.
sabe. Assim, apesar do SHRDLU emitir respostas, ele não compreende o que fez, não sabe
o que está de fato respondendo a uma pergunta. Além disto, o fato deste software ser capaz
de operar sobre um micro-mundo – composto por elementos extremamente simples – não é
suficiente para indicar suas habilidades com relação ao mundo real.
Dissemos no capítulo anterior que a década de 1970 marca a passagem de sistemas
generalistas para os especialistas; agora completaremos esta afirmação dizendo que a
noção de micro-mundo está intimamente relacionada a esta mudança (os frames de
Minsky, por exemplo, nada mais são do que micro-mundos). Os softwares somente podem
operar sobre elementos previamente estipulados, uma vez que são sempre programados.
Quando ocorre determinada entrada de dados que não havia sido prevista pelo
programador, o programa simplesmente “trava”, pois não tem instruções sobre como lidar
com tais informações. Uma vez que o ambiente com o qual o homem está em contato em
sua vida diária é extremamente rico e complexo, seria necessário dividí-lo em uma série de
micro-ambientes, que pudessem ser analisados isoladamente do mundo. As teorias físicas
do universo, por exemplo, são construídas a partir da análise de sistemas simples e
isolados, dos quais se faz modelos cada vez mais complexos e integrados. Isto é possível,
segundo Dreyfus, porque todos os fenômenos são presumivelmente resultado de um
conjunto de elementos básicos organizados a partir de uma determinada série de leis.97
Assim, à medida que estas estruturas básicas fossem agrupadas em sistemas cada vez mais
complexos, os softwares gradualmente ficariam mais abrangentes e aptos a lidar com um
maior número de micro-mundos.
Porém, Dreyfus alerta que em nossa vida diária estamos em contato com vários
“sub-mundos”, como o do trabalho, do teatro, da matemática, da casa, do clube, etc., mas
cada um destes é na realidade apenas um “modo” de nosso mundo diário. O mundo do
homem não é o resultado da soma de todos os sub-mundos; o todo fenomenológico é
sempre maior do que a soma das partes. Neste ponto as considerações de Martin Heidegger
em Ser e Tempo servem como uma luva, principalmente as que compõem o terceiro
capítulo, intitulado “a mundanidade do mundo”. Resumidamente, o termo mundo admite
alguns significados: (1) usado como conceito ôntico ele representa a totalidade dos entes
que podem se dar dentro do mundo; (2) em seu sentido ontológico, pode determinar uma
região específica na qual está uma multiplicidade de entes, como o caso do “mundo da
matemática” que é habitado por entes como números, expressões, fórmulas e teoremas; por
97
Ibidem, p. 13.
fim, (3) mundo designa o conceito existencial-ontológico da mundanidade: diferente dos
outros entes, o homem é mundano, é impregnado de mundanidade, o que faz com que
Heidegger o chame de Dasein (literalmente “ser-aí” ou “ser-no-mundo”).98
O mundo como resultado da soma de micro-mundos poderia ser concebido apenas
nos sentidos ôntico e ontológico; a mundanidade se reserva apenas para o Dasein, pois ele
é, segundo Heidegger, o único ente propriamente dotado de existência99. Esta diferença é
marca da perspectiva fenomenológica, da qual partilham autores como Heidegger e
Merleau-Ponty, que serão, no capítulo que se segue, convidados a participar de nosso
debate. Antes de trazermos as contribuições da fenomenologia, sintetizaremos a discussão
apresentada até aqui com uma breve exposição das concepções básicas dos projetos da IA,
e com uma análise de Dreyfus sobre o que ele concebe como os quatro pressupostos
fundamentais da inteligência artificial com relação à mente, o cérebro e ao conhecimento
destes.
98
De acordo com Heidegger, 2002, pp.105-106. Voltaremos a falar sobre o conceito de mundo para
Heidegger.
99
Cf. os itens (N2), (N3), (N4) e (N5) das páginas 310 e 311 de Ser e Tempo.
3
Duas formas de conhecer o homem e o mundo: a ciência e seus
modelos, a fenomenologia e o ser-no-mundo
Galileu e seus sucessores pensam a ciência como capaz de
descobrir a verdade global da natureza. Não somente a
natureza é escrita numa linguagem matemática decifrável
pela experimentação, como essa linguagem é única; o
mundo é homogêneo: a experimentação local descobre
uma verdade geral. Os fenômenos simples que a ciência
estuda podem desde logo entregar a chave do conjunto da
natureza, cuja complexidade não é mais que aparente: o
diverso reduz-se à verdade única das leis matemáticas do
movimento.100
Desde a época de Galileu temos a tentativa de explicar a natureza a partir de um
paradigma mecanicista, aposta que deu início à ciência física moderna. Os fenômenos
naturais passaram a ser explicados em função de leis formais, descobrindo-se a linguagem
matemática a partir da qual o mundo fora escrito.
Hoje a ciência, encarnada em artefatos tecnológicos, tem forte voz de autoridade
em nossa cultura. Nenhuma outra prática ou instituição humana até hoje apresentou
tamanha confiabilidade em suas demonstrações e publicações. No caso das ciências
cognitivas, esses artefatos são máquinas capazes de “pensar” e agir, cada vez mais
sofisticadas, e com o potencial de transformar a vida cotidiana muito maior do que o dos
livros de filosofia e ciências sociais.101
A ciência prossegue firme e resoluta por causa desse seu elo pragmático com o
mundo dos fenômenos. Sua validação é, na realidade, derivada da eficácia deste elo. A
tecnologia, dentre outras coisas, age como um amplificador de seus construtos, e não se
poderia separar as ciências cognitivas e a tecnologia cognitiva sem roubar de uma ou de
outra seu elemento complementar vital. Através da tecnologia temos uma exploração
100
101
Prigogine, 1984, p.32.
De acordo com Varela et al., 2003, capítulos 1 e 2.
científica da mente bem mais ampla que a proporcionada pelo filósofo ou psicólogo, ou
qualquer outro pesquisador que utilize insights como modo de avaliação da própria
experiência.
Durante milênios os seres humanos tiveram uma compreensão espontânea de sua
própria experiência; agora, entretanto, essa compreensão popular espontânea tornou-se
inextricavelmente ligada à ciência, e transformada por suas explicações.102 Os postulados
científicos são hoje tão dominantes que concedemos a eles a autoridade de explicar nossa
experiência cotidiana, imediata – mesmo quando negam exatamente aquilo que nos é mais
direto.
Com isso, a maior parte das pessoas tomaria como verdade fundamental a
explicação científica da matéria/espaço em termos de coleções de
partículas atômicas, enquanto trataria o que é dado na sua experiência
imediata, com toda a sua riqueza, como algo menos profundo e menos
verdadeiro. Ainda, quando relaxamos no imediato bem-estar físico de um
dia ensolarado ou da tensão física de uma corrida ansiosa para pegar um
ônibus, essas explicações de matéria/espaço esvanecem no background
como abstratas e secundárias103.
3.1
Os modelos na ciência
Para Dupuy104, se o cientista é um Homo faber, é porque ele é quem concebe e
fabrica modelos. Segundo este autor, um modelo é uma forma abstrata, que vem encarnarse ou realizar-se nos fenômenos, permitindo representar, imitar, repetir e reproduzir o
mundo fenomenal. Simon afirmava que o propósito de uma ciência natural é de “trivializar
o maravilhoso: mostrar que a complexidade, corretamente observada, não é mais que um
disfarce da simplicidade; encontrar o padrão escondido no caos aparente”105. Assim, o
projeto da ciência seria o de revelar a simplicidade da constituição dos fenômenos, com o
auxílio de modelos.
Entretanto, alguns autores106 nos alertam do caráter mais produtivo que reprodutivo
do procedimento científico. A partir desta concepção – de que há, mais do que um
102
Ibidem, pp. 23-24.
Ibidem, p. 30.
104
Dupuy, 1996, p.23.
105
Simon, 1981, p.21.
106
Com o exemplo de Bruno Latour, Ilya Prigogine e Isabelle Stengers.
103
desvelar, um fazer na atividade científica107 – os modelos podem ser vistos como resultado
de um ato construtivo subjacente ao procedimento científico.
Campos muito diferentes da realidade fenomenal, como a hidrodinâmica
e a eletricidade, a luz e as vibrações sonoras podem ser representados por
meio de modelos idênticos, o que estabelece entre eles uma relação de
equivalência. O modelo é a classe de equivalência correspondente. Isso
lhe confere uma posição de sobrepujança, como uma Idéia platônica cujo
real não é mais que a pálida cópia. Mas o modelo, na ciência, é o que o
homem faz. Aí está como se dá a sobreposição do imitante e do imitado.
O modelo científico é uma imitação humana da natureza que o cientista
logo toma como “modelo” – no sentido comum – desta. 108
Os modelos, que abstraem do mundo sistemas de relações formais e funcionais –
que são consideradas pelos cientistas como as únicas pertinentes –, pondo “entre
parênteses” tudo o que não depende desse sistema, acabam por adquirir certa vida própria,
uma dinâmica autônoma desligada da realidade fenomenal. Em sua atividade
modelizadora, de acordo com Dupuy, o cientista projeta sua mente no mundo das coisas,
estabelecendo algo que é tão mais puro, tão melhor controlável do que o próprio mundo
dos fenômenos.
Devido a sua clareza na exposição desta característica do exercício científico,
traremos mais uma vez as palavras de Dupuy:
Conhecer é produzir um modelo do fenômeno e efetuar sobre ele
manipulações ordenadas. Todo conhecimento é reprodução, representação,
repetição, simulação. Isso, como vimos, caracteriza o modo científico, racional
de conhecimento. As ciências cognitivas fazem desse modo o modo único de
todo conhecimento. Para elas, todo “sistema cognitivo” se relaciona com o
mundo como o cientista com o seu objeto. Não é de espantar que a noção de
representação ocupe um lugar central na ciência da cognição. A analogia,
porém, é ainda mais profunda. Seja um sistema cognitivo material: cientista,
homem, animal, organismo, órgão, máquina. O que faz que esse sistema
conheça por modelos e representações deve ele próprio ser modelizado,
abstraindo-se do substrato matéria, diferente a cada vez, o sistema de relações
funcionais responsável pela faculdade de conhecer. (...) Isso lhe confere um
controle que ele não ousaria pretender sobre os próprios fenômenos. Controle
explicativo e preditivo, em primeiro lugar, graças ao poder da ferramenta
matemática. Esta dá à exploração das propriedades do modelo – exploração
que assume a forma de experiências de pensamento – uma eficiência, uma
rapidez e uma elegância que a experimentação feita sobre o mundo fenomenal
nunca alcançará.109
107
Conforme Dupuy, 1996, p.22.
Ibidem, p.23-27.
109
Ibidem, p.23.
108
Os cibernéticos estavam à procura de um modelo funcional da mente – McCulloch,
por exemplo, buscava um modelo capaz de estabelecer relações de equivalência entre os
neurônios e os relés eletrônicos. O pessoal da IA procurava um modelo – computacional –
para a inteligência humana, a partir do qual seria possível construir artifícios dotados desta
mesma faculdade. Herbert Simon – como vimos, um dos fundadores da IA –, norteara
tanto sua vida profissional quanto pessoal pelo princípio de que o melhor modelo para o
pensamento é o computador digital.
Em uma de suas principais obras, As Ciências do Artificial, Simon coloca que o
mundo em que vivemos hoje é muito mais artificial – fabricado pelo homem – que natural:
a temperatura é controlada por refrigeradores de ar, a umidade é acrescentada ou retirada
do ar que respiramos, e as impurezas que inalamos são na maior parte produzidas ou
filtradas pelo homem110. O autor define artificial como tudo aquilo que é
produzido mais pela arte que pela natureza; não genuíno ou natural;
afetado; não pertencente à essência do objeto. (...) Sinônimos: afetado,
factício, manufaturado, fingido, simulado, falsificado, forjado, não
natural; (...) antônimos: real, genuíno, honesto, natural, verdadeiro,
sincero. (...) Uso o termo “artificial” de forma tão neutra quanto possível,
significando “fabricado pelo homem” por oposição a natural.111
Diferente de uma ciência do natural, que se constitui de um corpo de
conhecimentos acerca de uma classe de seres do mundo, ocupando-se de suas
características e propriedades, Simon propõe uma ciência do artificial: conhecimento
acerca de fenômenos e objetos artificiais. Esclarecendo a distinção entre o natural do
artificial, o autor coloca que (1) as coisas artificiais são sintetizadas pelo homem, (2)
podendo ter a aparência de naturais e carecendo em muitos aspectos da realidade destas;
(3) os objetos artificiais podem ser caracterizados em termos de objetivos, funções,
adaptações, e (4) são normalmente discutidos, particularmente durante a concepção, em
termos imperativos assim como descritivos.
No capítulo anterior vimos que, para Simon, um artefato é o ponto de encontro, a
interface, entre um ambiente interno – a substância e organização do próprio artefato – e
um ambiente externo – as condições em que o artefato funciona. O aspecto funcional dos
objetos artificiais – o cumprimento de determinado propósito ou a adaptação a certo
objetivo – envolve uma relação de três termos: “o propósito ou objetivo, o caráter do
110
111
Simon, 1981, p. 23.
Ibidem, p. 25.
artefato, e o ambiente em que ele funciona”112. Para as ciências naturais, o que é relevante
na análise do objeto são os ambientes externo e interno; já para uma ciência do artificial, é
justamente a interface entre a substância e o meio que será o foco de análise. As ciências
naturais têm bastante a contribuir no estudo dos objetos artificiais, uma vez que fornecem
meios de conhecer sua composição e o ambiente onde funcionam. Simon ilustra esta
afirmação com o seguinte exemplo: “dado um avião, ou dada uma ave, podemos analisálos pelos métodos das ciências naturais sem qualquer atenção especial a propósitos ou
adaptações, sem referência à interface entre o que chamamos de ambiente interno e
externo”113. De igual maneira, o modo de pensar os artefatos é também aplicável a muitas
coisas não fabricadas pelo homem, pois esta perspectiva demonstra-se útil na compreensão
de todas as coisas consideradas adaptadas a situações. Com um conhecimento mínimo do
ambiente interno, e com o conhecimento do ambiente externo e dos objetivos do sistema,
diz Simon, é possível estabelecer modelos e prever alguns comportamentos: aviões e aves,
completamente diferentes em seu meio interno, realizam objetivos semelhantes em
ambientes externos semelhantes – voam no céu.
Da afirmação acima, chegamos ao objetivo maior de Simon: desenvolver máquinas
capazes de, em ambientes externos semelhantes – mesmo que dotadas de um ambiente
interno completamente diferente –, realizar comportamentos adaptados e semelhantes ao
do homem. De acordo com ele, para muitos de nós a parte mais significativa do ambiente
consiste principalmente em seqüências de artefatos chamados símbolos, que recebemos
pelos olhos e ouvidos – na forma de linguagem escrita ou falada –, e que introduzimos no
ambiente – falando e escrevendo. Foi sua concepção de que a inteligência é uma
computação de símbolos, e que tanto o homem quanto o computador são sistemas
simbólicos físicos, que inspirou sua caminhada rumo à constituição de autômatos artificiais
inteligentes. A artificialidade inclui uma similitude perceptual e uma diferença essencial;
assim, homens e computadores, que são essencialmente diferentes, poderiam, como
aspirara Simon, apresentar comportamentos semelhantes. Devido a seu caráter abstrato e à
generalidade da sua manipulação de símbolos, o computador digital alargou grandemente a
classe de sistemas cujo comportamento pode ser imitado. Simon afirmou que
a semelhança no comportamento de sistemas cujos interiores não são
idênticos é particularmente realizável se os aspectos que nos interessam
derivam da organização dos componentes, independentemente da maior
112
113
Ibidem, p.28.
Ibidem, p.30.
parte das propriedades dos componentes em si”. (...) Nenhum artefato
concebido pelo homem é tão conveniente para este tipo de descrição
funcional como o computador digital. As propriedades organizacionais
são quase as únicas detectáveis no seu comportamento (quando funciona
bem!) (...) Além disso, quase nenhuma asserção interessante que se possa
fazer sobre um computador em funcionamento tem alguma relação
particular com a natureza específica do hardware.114
Simon acreditava que “um homem, considerado como sistema de comportamento, é
muito simples. A complexidade aparente do seu comportamento ao longo do tempo é em
grande parte um reflexo da complexidade do ambiente em que se encontra.”115 Da mesma
forma, o comportamento dos computadores é em grande parte governado por leis gerais e
simples, e o que parecia ser uma complexidade do programa era, uma porção considerável,
complexidade do ambiente a que o programa procurava adaptar o seu comportamento. O
fracasso de seu General Problem Solver foi conseqüência da grande complexidade dos
ambientes aos quais era exposto, e por isto a programação passou a buscar a construção de
programas capazes de lidar com ambientes menores, mais simples e mais delimitados.
Dividindo o ambiente em micro-mundos, teríamos a possibilidade de estabelecer
conhecimentos mais específicos e determinados, e assim desenvolver softwares mais
especializados e adaptados aos ambientes aos quais eram expostos.
À medida que a tecnologia avançava, tanto no desenvolvimento do hardware
quanto do software, os computadores tinham aumentada sua capacidade de apresentar
comportamento inteligente e, neste sentido, aumentava também sua semelhança com o
homem. A diferença entre o hardware de um computador e o hardware do cérebro não
impedia que um largo espectro de formas do pensamento humano fosse encarnado em
computadores. Esta “descorporização” da mente resultava da concepção de que tanto o
computador quanto o cérebro, quando entregues à atividade de pensar, são sistemas que
procuram se adaptar ao ambiente. 116 Sendo assim, os conhecimentos da neurofisiologia –
campo que, como diz Simon, estuda o ambiente interno do sistema adaptativo chamado
Homo Sapiens – são mais úteis para a compreensão dos limites de adaptação do homem –
como a pequena capacidade da memória de curto prazo, por exemplo –, que para a
explicação da organização e estrutura da mente. Portanto a psicologia, como uma ciência
do artificial117, não precisaria esperar pelos avanços da neurobiologia para a explicação
114
Ibidem, pp. 46-47.
Ibidem, p.148.
116
Ibidem, p.150.
117
Ibidem, p.107.
115
dos fenômenos psíquicos – por mais interessantes e significativos que possam ser os
estudos da constituição e funcionamento dos neurônios. Esta hipótese de Simon dá aos
computadores o estatuto de um utensílio óbvio para a exploração de teorias psicológicas.
O computador se apresentará como esquema de explicação-duplicação do
sujeito cognoscente sem que com isso se incorra nem no naturalismo nem
no reducionismo materialista. Pois, dessa máquina depreende-se somente
a sua organização informacional. Ela duplica a capacidade cognitiva do
homem na medida em que as suas operações cibernéticas produzem o
mesmo efeito de significação das operações mentais. Em ambos os
casos, tem-se o funcionamento de um sistema simbólico que se mantém
idêntico, esteja ele instanciado em bases neurológicas ou eletrônicas.
Compreendendo como funciona a organização de um computador, chegase, conseqüentemente, a uma explicação do processamento cognitivo.118
A partir desta concepção sobre o computador e a cognição humana, retratada nas
palavras de Passos, não parece exagerada a previsão de Simon de que em pouco tempo as
teorias psicológicas tomariam a forma de programas de computador ou de demonstrativos
qualitativos acerca das características dos programas dos computadores119.
A maioria dos envolvidos diretamente nos projetos da IA partilhava desta
perspectiva frente aos homens e às máquinas. Assim, avaliando retrospectivamente,
podemos considerar que os computadores são resultado de uma concepção teórica que
assume os fenômenos mentais como objetos naturais e, conseqüentemente, “escritos” a
partir de um modelo lógico-matemático, aliada a avanços tecnológicos que permitiram a
implementação desta concepção em máquinas.
Temos com a fenomenologia uma outra perspectiva acerca dos fenômenos mentais,
e da maneira como o homem pode conhecê-los. Veremos que, a partir desta abordagem,
podemos compreender que o corpo desempenha um papel fundamental nos processos
psíquicos120; desta forma, o corpo humano passa a ter uma conotação bastante diferente da
que é corrente no campo da IA. Dreyfus nos conduzirá até nossos interlocutores
fenomenólogos; antes de chegarmos neles, porém, agruparemos os pressupostos que
fundamentavam as pesquisas iniciais da área da inteligência artificial, adicionando algumas
118
Passos, 1992, p.208.
Discutiremos mais a respeito deste assunto ainda neste capítulo, no tópico o pressuposto psicológico.
120
Neste caso, estamos nos referindo prioritariamente à fenomenologia de Merleau-Ponty. Há uma série de
diferenças teóricas entre as obras de Husserl, Heidegger, Merleau-Ponty e outros autores da fenomenologia;
há também uma série de variações conceituais ao longo das obras de cada um destes autores, o que permite,
por exemplo, dividir a obra de Merleau-Ponty em duas partes ou fases. Uma abordagem mais detalhada sobre
estas diferenças fugiria do escopo deste trabalho; assim, ao falarmos da fenomenologia, estaremos nos
referindo às semelhanças entre as considerações destes autores, que a constituem de uma vertente teórica.
119
considerações que apontam para a contribuição da fenomenologia na compreensão das
limitações dos trabalhos nesta área.
3.2
Os quatro pressupostos fundamentais da inteligência artificial
Conceber o cérebro como um mecanismo de processamento de informações
implica, segundo Dreyfus, em:
1. Presumir a tese biológica de que em algum nível de operação – no nível neuronal, geralmente –
o cérebro processe informações em operações distintas por intermédio de um agente biológico
que liga ou desliga interruptores;
2. presumir a tese psicológica de que a mente pode ser interpretada como um mecanismo que
opera à base de bits de informação, e de acordo com regras pré-estabelecidas;
3. conceber a tese epistemológica de que todo o conhecimento pode ser formalizado e expresso
em termos de relações lógicas (através da álgebra booleana);
4. assumir o pressuposto ontológico de que toda informação pertinente sobre o mundo é, em
princípio, analisável como um conjunto de elementos isoláveis do contexto em que se
encontram.121
Estes quatro pressupostos, que são considerados por Dreyfus como a base teórica
das pesquisas no campo da IA, são apenas hipóteses sobre o conhecimento e o
funcionamento cerebral; todavia, eles são tomados como axiomas, e por isto raramente são
questionados. Nenhum deles, de acordo com o autor, fornece um modelo suficiente para a
compreensão da inteligência e da mente humana, e por isto constituem a fonte dos
problemas encontrados pelos pesquisadores da inteligência artificial. Vejamos agora, com
um pouco de detalhes, cada um destes pressupostos.
3.2.1
O pressuposto biológico
Uma vez que o cérebro é, há muito tempo, considerado o sítio das funções mais
elevadas do homem – entre as quais inclui-se, naturalmente, a inteligência e a cognição –,
121
Dreyfus, 1975, p.120.
parece justo que os organismos artificiais estejam baseados no modelo de funcionamento
do sistema nervoso. Esta hipótese “neurocomputacional”122, que assimila o cérebro a uma
máquina, e a sinapse à uma operação sobre bits, baseia-se em um pressuposto biológico de
identidade funcional entre cérebro e máquina; assim, poderíamos comparar o homem a
uma máquina composta de um hardware (seu cérebro) robusto e um software (sua mente)
altamente sofisticado. Dreyfus não falará apenas uma vez que um dos maiores pecados dos
“cientistas do artifício” é o de tomar uma hipótese por axioma, e submeter o organismo
humano a um modelo de máquina – a fim de provar suas afirmações e tornar possível o
projeto da simulação. É importante ressaltar que em relação à concepção do cérebro como
um processador de informações não há, para Dreyfus, nenhum problema; o que não lhe
parece adequado é que o cérebro desempenhe suas funções à mesma maneira de um
computador.
De modo a dar mais consistência teórica às suas objeções a este pressuposto, o
autor traz algumas considerações feitas em 1966 por Walter Rosenblith, pesquisador do
MIT, e um dos pioneiros no uso de computadores nos estudos de neuropsicologia:
Não sustentamos mais a antiga crença generalizada de que a denominada
lei de tudo-ou-nada proveniente de impulsos nervosos torna legítimo
pensar em relés como modelos adequados para neurônios. Além disso,
tornamo-nos cada vez mais impressionados com as interações que
ocorrem entre os neurônios: em alguns casos uma seqüência de impulsos
nervosos pode refletir as atividades de literalmente milhares de neurônios
numa forma requintadamente graduada. Num sistema cujos numerosos
elementos interagem tão acentuadamente uns com os outros, o
funcionamento do sistema não é necessariamente melhor compreendido
agindo-se numa base de neurônio por neurônio, como se cada um tivesse
uma personalidade independente... Comparações pormenorizadas da
organização dos sistemas e cérebros de computadores demonstrariam
igualmente ser frustrantes e inconclusivas.123
Tivemos oportunidade de ver que já entre os cibernéticos este pressuposto
biológico era questionado; até mesmo a Von Neumann parecia que o sistema nervoso
humano, para dar conta de mecanismos complexos como a interpretação de estímulos
sensoriais, de condições físicas e químicas, controle de atividades motoras, e o
armazenamento e busca de informações na memória, necessariamente empregava
princípios e procedimentos diferentes das máquinas. Assim, Dreyfus coloca que este ponto
122
123
Termo utilizado por Passos, 1992, p.217.
Rosenblith apud Dreyfus, 1975, p.127
de vista é uma hipótese empírica que já teve sua importância, e que a natureza fortemente
interativa da organização do cérebro, contrastada com o caráter não-interativo da
organização da máquina, explicita a impossibilidade de utilizar computadores digitais para
produzir inteligência124.
3.2.2
O pressuposto psicológico
A questão sobre a semelhança entre o funcionamento do cérebro e do computador
está, para Dreyfus, no âmbito da neurofisiologia; já a comparação da mente com um
computador digital deve ser avaliada no campo da psicologia.
Simon havia previsto em 1957 que no prazo de dez anos a maior parte das teorias
psicológicas tomaria a forma de softwares, e seu trabalho na simulação cognitiva buscava
viabilizar a construção destes programas a partir das regras subjacentes ao comportamento
inteligente. Apesar dos escassos resultados nesta área, Simon, de certa forma, havia
concretizado parcialmente sua previsão. Muitos psicólogos e filósofos aliaram-se a ele e
começaram a apresentar seus problemas a partir da metáfora computacional do
funcionamento da mente. Este movimento expressa um significante deslocamento do
behaviorismo – que desconsiderava os processos mentais que se passavam dentro da
“caixa-preta” – para o mentalismo na psicologia, representado pelo cognitivismo
computacional.
Newell e Simon acreditavam que seu trabalho de simulação cognitiva fornecia uma
estrutura geral para a compreensão do comportamento humano na solução de problemas,
revelando com grande clareza que poderíamos compreendê-lo como o produto de um
complexo, porém finito e determinado, conjunto de leis.125 E, se tanto o computador
quanto a mente são sistemas simbólicos físicos, tendo seus elementos organizados de
forma semelhante, as simulações por computador teriam um papel extremamente
importante – sendo um meio de conseguir uma compreensão mais profunda do
comportamento humano.
124
Dreyfus faz pouca referência, nas obras a que tivemos acesso, sobre o modelo do conexionismo, que
considera a interação entre os elementos da rede cognitiva como o ponto de partida das funções mais
elevadas. Varela et al. (2003, p.30) dizem que Hubert Dreyfus parece aceitar a identidade entre ciências
cognitivas e cognitivismo; conseqüentemente, ficamos aqui limitados à sua análise de um modelo do tipo
top-down particular ao cognitivismo. Esta posição, de acordo com eles, parece ter mudado, pelo menos no
ensaio que escreveu com seu irmão Stuart Dreyfus: Making a mind versus modeling the brain – quando
aderiu ao conexionismo recente.
125
Dreyfus, 1975, p. 136.
Para Dreyfus, porém, mesmo que a mente processasse informações, não haveria
motivo para supor que o faria de acordo com um programa, organizado a partir de uma
estrutura hierárquica e regido por um determinado número de regras. Simon afirmou que
“os computadores trouxeram os sistemas simbólicos do céu platônico das idéias para o
mundo empírico dos processos reais executados por máquinas ou cérebros, ou por uns e
outros trabalhando em conjuntos”126. Platão defendia a idéia de que toda a ação realmente
sensata – ou seja, não-arbitrária e estruturada racionalmente – poderia ser expressa em
termos de uma teoria, e qualquer pessoa estaria, ao optar por tal ação, seguindo, mesmo
que implicitamente, esta mesma teoria – tomada como um conjunto de regras. A teoria
platônica da reminiscência concebia que estas instruções já estavam na mente das pessoas,
pré-programadas em uma vida anterior, e que podiam ser tornadas explícitas uma vez que
se aplicasse o método certo – uma série de perguntas adequadas.127 Dreyfus diz então que,
para Platão, uma teoria do comportamento humano que nos permite compreender o que é
realizado por certo segmento desse comportamento é ao mesmo tempo uma explicação de
como tal comportamento é produzido. Esta noção de compreensão, bem como a
equivalência entre compreensão e explanação, leva-nos à mesma hipótese (ou axioma) do
pessoal da simulação cognitiva: que uma completa descrição do comportamento é um
preciso conjunto de instruções e regras, que pode ser programado em computadores,
tornando-os capazes de reproduzir tal comportamento.
Se somente compreendemos algo quando somos capazes de explicar seu
funcionamento e composição, então Newell e outros psicólogos estariam certos ao afirmar
que uma psicologia seria possível somente se expressa em termos de um programa de
computador. Sendo a mente humana um objeto de estudo, e o cérebro um mecanismo que
transforma sinais de entrada (estímulos) em sinais de saída (comportamento) a partir de
determinadas regras estabelecidas a priori, o papel da psicologia é de encontrar meios
científicos para compreender e explicitar todo este processo. A psicologia cognitiva se
constitui de um grande exemplo deste “modelo kantiano” de processamento mental – onde
a razão fundamenta as regras para o tratamento dos estímulos de entrada.
O objeto [o homem] pode ser considerado como um mecanismo de
processamento de informação e as leis entendidas segundo o modelo
kantiano, como razões, que são regras na mente aplicadas por ela ao
126
Ibidem, p.56.
Sócrates demonstra a teoria da reminiscência no diálogo intitulado Menon, conduzindo através de
perguntas um escravo – completamente leigo em geometria e matemática – a inferir corretamente que a
diagonal é o lado de um quadrado de área dupla. Para mais detalhes, cf. Platão, 1999, pp.56-61.
127
estímulo. Em psicologia essa escola foi chamada de idealista,
intelectualista, ou mentalista, e agora é chamada de “psicologia
cognitiva”.
Até o advento do computador, a escola empirista ficou à margem, pois o
ponto de vista intelectualista nunca foi bem sucedido ao tratar o homem
como um objeto calculável. Sempre havia um sujeito, “um ego
transcendental” aplicando as regras, o que simplesmente retardava uma
teoria científica do comportamento ao instalar um homenzinho
(homúnculo) na mente para guiar suas ações. Os computadores,
entretanto, oferecem a atração irresistível de operar segundo regras, sem
apelar para um ego transcendental ou homúnculo. (...) Em suma, há agora
um mecanismo que pode servir como um modelo para a perspectiva
mentalista”.128
O computador, ainda com poucos anos de existência, já recebera a delicada tarefa
de simular e explicitar os mecanismos mentais de processamento de informações –
herdando o pressuposto de que se é possível reduzir o pensamento em elementos simples e
isolados, e encontrar as regras que gerenciam a organização destes elementos na
consciência.
Porém, esta maneira de compreender o pensamento e o sujeito cognoscente
desconsidera, necessariamente, seu nível fenomenológico, no qual faz sentido falar que o
pensamento, a inteligência, as emoções, as ações e a percepção são mais do agrupamentos
de elementos isolados regidos por regras. Para Dreyfus, as ações são sempre ações
representativas, inseridas em contextos e sobrecarregadas de sentido. Sempre que vemos
um objeto, este se apresenta como um todo, e não como um agrupamento de estímulos
luminosos: por exemplo, não costumo perceber a xícara de café que está sobre minha mesa
como um objeto composto de propriedades materiais (apesar de que esta forma de
observação do objeto seja também possível) como o vidro, a cafeína, glicose, H2O,
estímulos luminosos que chegam à retina e são processados no lobo occipital, estímulos
128
“... the object can be treated as an information-processing device ant the laws can be understood on the
Kantian model, as reasons, which are rules in the mind applied by the mind to the input. In psychology this
school was called idealist, intellectualist, or mentalist, and is now called “cognitive psychology”.
Until the advent of the computer the empiricist school had the edge because the intellectualist view never
succeeded in treating man as a calculable object. There was always a subject, a “transcendental ego”,
applying the rules, which simply postponed a scientific theory of behavior by installing a little man
(homunculus) in the mind to guide its actions. Computers, however, offer the irresistible attraction of
operating according to rules without appeal to a transcendental ego or homunculus. (...) In short, there is now
a device which can serve as a model for the mentalist view”. Dreyfus, 1999, p.178. Tradução minha.
Estamos cientes de que existem diferenças entre as concepções de Kant e do empirismo com relação à
maneira como os elementos são organizados na consciência. Porém, ambas vertentes têm caráter mentalista,
uma vez que estabelecem conhecimentos sobre os processos que ocorrem na “caixa-preta”, situados entre o
estímulo e a resposta. Deixaremos de lado as diferenças conceituais entre estas duas perspectivas, uma vez
que, no momento, o nosso interesse volta-se ao caráter mentalista da psicologia cognitiva e à dimensão
prática fornecida a ela pelos computadores. Para uma introdução à filosofia de Kant e ao empirismo inglês,
cf. Morente, 1980, pp. 179-265.
olfativos que penetram as fossas nasais, etc. O que percebo, de início e na maior parte das
vezes, é o próprio cafezinho; seu cheiro e aspecto me convidam a tomá-lo – o que vou
fazer agora antes que esfrie.129
3.2.3
O pressuposto epistemológico
As afirmações de que (a) se é possível formalizar – estruturar em regras – todo o
comportamento não arbitrário (herança platônica), e que (b) o formalismo pode ser
utilizado para reproduzir o comportamento em questão, constituem, segundo Dreyfus130, o
pressuposto epistemológico da IA. Suas críticas procuram demonstrar que a afirmação (a)
é uma generalização infundada a partir da ciência da Física, e que a afirmação (b) baseia-se
na hipótese de que uma teoria da competência seria a mesma coisa que uma teoria do
desempenho. Vejamos com um pouco mais de detalhes estas críticas e afirmações.
A afirmação (a), antes de constituir um axioma, é a expressão de uma certa
concepção de entendimento que está profundamente arraigada em nossa cultura ocidental,
da qual falamos no início deste capítulo, mas que não é válida para todos os campos do
conhecimento. A área da Física comporta perfeitamente este modo formalista de
conhecimento, e deve a ele a origem das leis gerais que compõem suas teorias. Mas o
formalismo se apresenta insuficiente para o total conhecimento do comportamento humano
e dos fenômenos mentais, que não se esgotam em nenhuma abordagem científica – uma
vez que não se compõem do mesmo material físico que os objetos da Física e das ciências
naturais. É possível estabelecer e verificar a lei que diz que a água ferve a 100º ao nível do
mar, e que todo corpo terrestre está sob efeito da gravidade; porém, não é possível elaborar
um conjunto de leis e normas capaz de descrever o que determinado humano fará em todos
os conjuntos de circunstâncias sociais concebíveis.
A título de ilustração, Dreyfus traz-nos o exemplo de Michael Polanyi de um
homem que anda de bicicleta, e que mantém seu equilíbrio pelo deslocamento de seu peso,
como compensação de sua tendência à queda. Quando ele começa a tombar para a direita,
vira a direção para a direita de forma que o curso da bicicleta seja defletido ao longo de
uma curva para o lado direito. Sua ação poderia ser expressa de acordo com a seguinte
129
Com este exemplo estou querendo demonstrar o envolvimento do homem com as coisas do mundo, que
não é apenas representativo, mas vivencial. Esta característica do ser-no-mundo ficará mais clara logo
adiante, nas palavras de Heidegger e Merleau-Ponty.
130
Ibidem, p. 158.
regra: “percorrer uma série de curvas cuja curvatura é inversamente proporcional ao
quadrado da velocidade”131. Poderíamos também expressá-la formalmente como “a
resultante de uma força centrífuga que impulsiona o ciclista para a esquerda e compensa a
força da gravidade que o impele para a direita. Esta manobra em seguida desequilibra o
ciclista para a esquerda, o que ele neutraliza virando a direção para a esquerda,
continuando assim a equilibrar-se realizando uma série de curvaturas acentuadas.”132. Mas,
apesar de esclarecedoras, estas explicações nos dizem exatamente como andar de bicicleta?
Certamente não. Assim, tanto o ciclista não segue as regras da física para pilotar sua
bicicleta, quanto estas regras não são suficientes para explicar como se anda de bicicleta.
A afirmação (b) pressupõe que seja possível estabelecer formalmente regras para a
competência; em outras palavras, para tornar uma máquina competente no campo da
lingüística, por exemplo, bastaria instruí-la com as regras da linguagem. Mas instruções
sobre a competência não garantem o desempenho: saber-o-que-fazer (knowing-that) não
garante o saber-como-fazer (knowing-how). Este know-how necessariamente está
vinculado a um envolvimento tácito com contexto, do qual é impossível uma representação
descolada de uma situação atual. Todos sabemos como falar a língua portuguesa, mas
precisamos sempre do contexto para articular as palavras. Nosso conhecimento da língua
não é apenas teórico, mas prático; quando conversamos não estamos apenas aplicando à
fala as regras sintáticas e semânticas que aprendemos na escola, mas agindo no mundo,
produzindo significado – às vezes tropeçando com as palavras, brincando com elas,
falando sozinho, etc. Infringimos as regras gramaticais diversas vezes ao dia, por melhores
falantes de português que possamos ser. Como um computador seria capaz disto? Somente
se fosse instruído a também desrespeitar estas regras. Para tanto, deveria ser capaz de
reconhecer o contexto no qual as regras devem ser aplicadas e, da mesma forma, identificar
as situações em que devem ser quebradas. Porém, para isto, teria que ser capaz de
reconhecer cada um dos interlocutores, suas intenções, o tom da conversa (se amigável, ou
ríspida, ou descontraída...), também baseado em regras para este reconhecimento. Mas se
fossem necessárias outras regras para a aplicação destas, e também regras anteriores a estas
regras, cairíamos então em um retrocesso infinito. Já o falante humano, de acordo com
Wittgenstein133, geralmente não usa a linguagem de acordo com regras estritas, e também
não é ensinado a falar através destas regras.
131
Ibidem, p. 158.
Michael Polanyi apud Dreyfus, Idem, nota 44, p. 303.
133
Ludwig Wittgenstein, The Blue and Brown Books, apud Dreyfus, 1999, p.203.
132
3.2.4
O pressuposto ontológico
Dreyfus diz que não há motivo para supor que os dados acerca do mundo humano
possam ser isolados, explícitos e determinados; porém, para que computadores digitais
possam operar como homens, sendo capazes de perceber, falar e comportar-se de modo
inteligente, faz-se necessário decompor o mundo fenomenal em elementos singulares e
isolados, para que estes dados possam ser traduzidos em linguagem de máquina. É o
pressuposto ontológico de que tudo o que é essencial para o comportamento inteligente
deve, em princípio, ser inteligível em termos de um conjunto de elementos independentes
determinados, que permite aos pesquisadores da IA ignorar esta característica do mundo
humano: de ser anterior a qualquer modelo ou análise científica. Este pressuposto, que
constitui a base de todo o pensamento da IA, é de fato somente uma hipótese, que reflete
dois mil anos de tradição filosófica, e que é reforçada por uma interpretação errônea do
êxito das ciências físicas. 134
David Hume acreditava que toda a experiência é formada por impressões, por
átomos de experiência, isoláveis e determinados. A consciência seria, portanto, o
agrupamento destes elementos, a soma destas pequenas partes do mundo. Na
contracorrente desta concepção elementarista temos a fenomenologia, que será
representada aqui por Heidegger e Merleau-Ponty. Deixaremos agora, por alguns instantes,
a inteligência artificial de lado e os computadores desligados, para passarmos às
considerações teóricas destes autores.
3.3
Heidegger e o ser-no-mundo-com-os-outros
Para Heidegger, este pressuposto de que tudo o que existe pode ser tratado como
um conjunto de átomos de fatos é a expressão de um “pensamento calculista” (rechnende
Denken)135, que confia ao homem o projeto de se tornar senhor e proprietário de todas as
coisas. Em uma revista publicada em 1976, Heidegger dizia que “a cibernética é a
134
135
Dreyfus, 1975, pp.177-178.
Heidegger apud Dreyfus, 1975, p. 184.
metafísica da era atômica”136 – fazendo referência ao pressuposto transcendental de que a
explicação do mundo se encontra fora dele, nas leis abstratas da física e da matemática. A
tecnologia, com sua insistência sobre “a completa calculabilidade dos objetos”, é a
culminância inevitável da Metafísica – preocupação exclusiva com os entes, e o
esquecimento da diferença ontológica entre o Ser e o ente.137
Em Ser e Tempo, Heidegger sente a necessidade de explicitar algumas
características da discussão em torno da questão do ser, ou seja, sobre o sentido. Para
discutir sobre o sentido das coisas, Heidegger utilizou dois termos, um para sentido, e
outro para as coisas: ser e ente, respectivamente. Ele define ente como qualquer coisa que
pertença ao mundo de nossa experiência, tudo aquilo com o que podemos entrar em
contato, com o que nos relacionamos de alguma forma. Tudo aquilo que é alguma coisa, é
um ente. Ente é, portanto, tudo aquilo que é, tudo aquilo em relação a que podemos
predicar. Uma mesa é um ente, pois eu posso dizer, por exemplo, que “essa mesa é de
madeira”, ou “a mesa é um ente”; a cadeira, o livro, a grama, o animal, o homem, o céu, a
ciência, o pensamento e o sonho também são entes, pois posso dar um sentido para cada
uma destas coisas, eu posso dizer o que cada uma delas é. O sentido de uma coisa, ou seja,
aquilo que uma coisa é, é justamente o ser. Ser é o que dá sentido ao ente – é aquilo que
faz com que o ente seja. Se eu digo que a mesa é de madeira, estou fazendo referência ao
ente mesa de ser de madeira. Ser é, então, o que determina o ente como ente, como o ente
é sempre já compreendido. Nas palavras do autor: “Ente é tudo de que falamos, tudo que
entendemos, com que nos comportamos dessa ou daquela maneira, ente é também o que e
como nós mesmos somos. Ser está naquilo que é e como é, na realidade, no ser
simplesmente dado”.138 Resumindo apressadamente, diríamos que “o ser é aquilo que o
ente é”. Porém, uma mesma coisa pode ser vista de várias maneiras, como por exemplo, o
ente inteligência pode ser compreendido como algo exclusivo de um animal racional, ou
como o resultado de computações simbólicas. Posso conceber o homem e suas faculdades
de várias formas, pois o ser do homem é inesgotável. A vaca, por exemplo, é concebida
por um homem ocidental de forma bastante diferente de um habitante da Índia. O ser do
ente vaca depende de quem está em relação com ele. Isto leva Heidegger a afirmar que o
homem está sempre em relação de sentido com os entes. Ao viver em um mundo repleto de
entes, ao estar-no-mundo-com-os-outros, o homem relaciona-se com eles, e esta relação é
136
Heidegger apud Dupuy, 1996, p.139.
Dreyfus, 1975, p.184.
138
Heidegger, 2002, p.32.
137
permeada por determinado sentido. Assim, o ser de determinado ente desvela-se na relação
do homem com este ente, nunca se esgotando, pois outras relações de sentido são sempre
possíveis.
Uma vez que o ser de determinado ente não está neste próprio ente, mas na relação
de sentido do Dasein139 com este ente, Heidegger apresenta-nos a seguinte questão: “por
onde devemos iniciar a discussão a respeito do ser?”. A resposta está, segundo ele,
justamente na própria pergunta, ou melhor, naquele que esboça esta pergunta: no Dasein. O
homem é o único ente que se interroga sobre o ser, portanto ele é o ponto de partida para a
discussão sobre o ser. A situação do Dasein de estar em um mundo, cercado de entes, e de
estar em relação de sentido com estes entes, faz com que esta disposição de cuidado140 do
Dasein seja o foco inicial para a compreensão do ser. Em outras palavras, Heidegger
mostra-nos o que realmente está em jogo no movimento cotidiano do ser-no-mundo: há
sempre um homem conhecendo algo, e o sentido deste algo está sempre na relação entre o
homem e o objeto de conhecimento. Não há, segundo Heidegger, a possibilidade de
conhecer o ente por completo e assim chegar a um esgotamento de todas as possibilidades
do ser, excluindo a participação do próprio sujeito que está conhecendo. Portanto, qualquer
relação com o ser, ou seja, qualquer modo de conhecimento sobre o mundo, partirá sempre
desta condição de possibilidade do Dasein que é a de estar no mundo, de ser-no-mundocom-os-outros em relação de cuidado.
3.4
Merleau-Ponty e a reflexão sobre o irrefletido
A afirmação que encerra o parágrafo acima, resultante da análise fenomenológica
de Heidegger frente ao conhecimento, é continuada de forma muito bela pelo filósofo
Maurice Merleau-Ponty, que partilhava com Heidegger e Husserl da abordagem
139
Lembremos que Dasein significa “ser-aí”, “ser-no-mundo”, ou “pre-sença” – termo utilizado por
Heidegger para se referir ao homem.
140
Sorge, em alemão. Este termo foi utilizado para fazer referência à característica ontológica do Dasein de
estar sempre referido aos entes, de estar voltado às coisas que o cercam. É importante marcar que há uma
importante diferença entre a noção de sorge e o sentido corriqueiro do termo “cuidado”, utilizado para
traduzí-lo. Sorge não significa que o Dasein está sempre cuidando das coisas, como alguém que cuida de seu
cachorro e de sua casa todos os dias, mas que o Dasein está sempre voltado para algo, sempre em contato
com os entes, sempre em relação com o mundo. Quando cuidamos de algo, estamos necessariamente
voltados para determinado ente – é nesta dimensão da palavra cuidado que encontramos uma semelhança
com o termo sorge. Heidegger utiliza também as palavras besorgen (ocupar-se) e fürsorge (preocupar-se)
para circular esta noção. Para uma maior compreensão acerca destes três termos, cf. Ser e Tempo, pp. 312313.
fenomenológica e a utilizava como método para seu trabalho. No prefácio de
Fenomenologia da Percepção, obra que vem servindo de referência para a discussão sobre
a percepção humana em diversas áreas de análise141, o autor explica que a fenomenologia é
o estudo das essências, uma filosofia que busca a compreensão da essência do homem e do
mundo a partir de sua facticidade, segundo a qual o mundo está sempre ”aí” antes de
qualquer reflexão. Todo o conhecimento científico é construído sobre o mundo vivido; e
tudo o que sabemos do mundo, mesmo o que é devido aos modelos científicos, sabemos a
partir de nossa experiência do mundo, de nossa visão pessoal sem a qual os símbolos da
ciência nada significariam. O homem pode ser (e é) objeto de estudo da inteligência
artificial, neurologia, psicologia, psiquiatria, da sociologia e da filosofia; porém, todo o
ramo de conhecimento é conseqüência do fato de que o homem está no mundo,
direcionado a este mundo que está aí antes de qualquer análise, e seria portanto artificial
derivá-lo de qualquer síntese intelectual.
O mundo está ali antes de qualquer análise que eu possa fazer dele, e
seria artificial fazê-lo derivar de uma série de sínteses que ligariam as
sensações, depois os aspectos perspectivos do objeto, quando ambos são
justamente produtos da análise e não devem ser realizados antes dela (...)
Eu comecei a refletir, minha reflexão é reflexão sobre um irrefletido, ela
não pode ignorar-se a si mesma como acontecimento, logo ela se
manifesta como uma verdadeira criação (...) O mundo não é um objeto do
qual possuo comigo a lei de constituição; ele é o meio natural e o campo
de todos os meus pensamentos e de todas as minhas percepções
explícitas. A verdade não “habita” apenas o “homem interior”, ou, antes,
não existe homem interior, o homem está no mundo, é no mundo que ele
se conhece.142
Corroborando esta idéia, Henri Bergson, ao falar sobre a tentativa de dividir a
mente em categorias psicológicas, diz que “seria de crer (...) que o espírito caiu do céu com
uma subdivisão de funções psicológicas das quais ele tem simplesmente que constatar a
existência” 143.
Tudo o que podemos conhecer, portanto, é sempre posterior à nossa condição
inicial de estarmos lançados no mundo. Toda reflexão teórica é conseqüência do fato de
estarmos no mundo, voltados para os entes, refletindo sobre o ser. Mas a ciência, em seu
esforço de objetivação, representa o organismo humano como um sistema físico, que está
141
Com o exemplo de Francisco Varela, Hubert Dreyfus, Drew Leder e Charles Taylor, que avaliam e
utilizam a noção de corporeidade (embodiment) em suas obras.
142
Merleau-Ponty, 1999, pp.5-6.
143
Henri Bergson, 1974, p.134.
em contato com estímulos definidos por suas propriedades físico-químicas. Sobre esta base
ela reconstrói a percepção efetiva, e fecha o ciclo do conhecimento científico descobrindo
as leis a partir das quais se produz o próprio conhecimento – fundando, assim, uma ciência
objetiva da subjetividade144. Entretanto, Merleau-Ponty lembra-nos do fato de que a
estrutura do organismo depende de variáveis, como o sentido biológico da situação, que
não são variáveis físicas, e portanto escapam aos instrumentos de análise físico-química,
abrindo-se em um outro tipo de inteligibilidade. Nas palavras de nosso interlocutor, a
ciência
introduz sensações que são coisas ali onde a experiência mostra que já
existem conjuntos significativos, ela sujeita o universo fenomenal a
categorias que só são exigidas no universo da ciência (...) É ora a
aderência do percebido a seu contexto e como que sua viscosidade, ora a
presença nele de um indeterminado positivo, que impedem os conjuntos
espaciais, temporais e numéricos de se articularem em termos
manejáveis, distintos e identificáveis. É este domínio pré-objetivo que
precisamos explorar em nós mesmos se queremos compreender o
sentir.145
Para Merleau-Ponty, a teoria admite os postulados do empirismo, deduzindo o dado
daquilo que pode chegar pelos órgãos dos sentidos e, conseqüentemente, escondendo os
fenômenos ao invés de compreendê-los. Ao retornarmos aos fenômenos, encontramos um
conjunto já pleno de sentido, irredutível a elementos isolados. Em lugar de conceber a
percepção como uma pura operação do conhecimento, uma captação de estímulos e
qualidades isoladas – como pretendem os projetistas da inteligência artificial –, podemos
compreendê-la como a experiência de “ver jorrar de uma constelação de dados um sentido
imanente” 146, pois “há uma significação do percebido que não tem equivalente no universo
do entendimento, um meio perceptivo que ainda não é o mundo objetivo, um ser
perceptivo que ainda não é o ser determinado”147.
O ser-no-mundo é anterior a qualquer análise que se faça dele. Devido à
complexidade dos fenômenos subjetivos, fica difícil reduzí-los a elementos simples,
neutros, objetivo-naturais, essenciais e invariantes, e encontrar assim uma definição última
e suficiente para cada um desses fenômenos. Este reducionismo da subjetividade a
144
Ibidem, p. 32.
Ibidem, p. 33.
146
Ibidem, p. 47.
147
Ibidem, p. 77.
145
elementos simples – e em particular da inteligência humana – fica bastante nítido na
proposta elementarista das ciências cognitivas e da inteligência artificial. Através de
métodos como o da simulação cognitiva os pesquisadores estariam avaliando
analiticamente o pensamento de sujeitos, procurando analisá-lo da forma mais neutra e
impessoal possível, decompondo-o, buscando nele suas regras e elementos mais simples.
Mas justamente pelo fato de não haver pensamento isolado de um sujeito que percebe, de
acordo com Merleau-Ponty nunca atingiremos um conhecimento neutro e isolado sobre
qualquer faculdade humana. Qualquer estudo da inteligência partirá da própria inteligência
do sujeito; da mesma forma, por estarmos “presos” ao mundo, não chegamos a um estado
de descolamento no qual alcançaríamos uma consciência neutra deste mundo.
3.4.1
A corporeidade
Para que possamos compreender de forma ampla os fenômenos subjetivos, não
podemos deixar de lado o modo como o sujeito é no mundo: o homem é um ser
essencialmente corporal. Em outras palavras, estamos no mundo corporalmente, somos
dotados de uma corporeidade (embodiment), o corpo é o nosso meio geral de ter um
mundo. Portanto, não há como entender a inteligência, a consciência, a percepção e a
interação com o meio sem colocar o corpo que percebe em um “aqui” e um “agora”. Ao
estar no mundo, o corpo está ‘morando’ no tempo e no espaço, e nossas características
corporais são determinantes no processo de percepção, de relação de sentido, estando
refletidas em tudo o que vemos. Assim, a cognição e a inteligência humana não podem ser
concebidas apenas como uma soma de fatos psíquicos, ou como representações mentais de
um mundo exterior estabelecidas a partir de uma série estruturada de regras; da mesma
forma, o corpo não pode ser compreendido apenas como um receptor ‘neutro’ de estímulos
oriundos do meio ambiente. Para Merleau-Ponty o corpo é nosso ‘ancoradouro’ no mundo;
a experiência emerge da interação do corpo com o meio, brotando do contato do homem
com o contexto onde se encontra, não estando apenas dentro deste, nem tampouco sendo
apenas o resultado de estímulos oriundos do ambiente. Nas palavras do autor:
O homem concretamente considerado não é um psiquismo unido a um
organismo, mas este vaivém da existência que ora se deixa ser corporal e
ora se dirige aos atos pessoais. Os motivos psicológicos e as ocasiões
corporais podem-se entrelaçar porque não há um só movimento em um
corpo vivo que seja um acaso absoluto em relação às intenções psíquicas,
nem um só ato psíquico que não tenha encontrado pelo menos seu germe
ou seu esboço geral nas disposições fisiológicas. Não se trata nunca do
encontro incompreensível entre duas causalidades, nem de uma colisão
entre a ordem das causas e a ordem dos fins. Mas, por uma reviravolta
insensível, um processo orgânico desemboca em um comportamento
humano, um ato instintivo muda e torna-se sentimento, ou inversamente
um ato humano adormece e continua distraidamente como reflexo.148
Merleau-Ponty diz que há uma certa energia que pulsa na existência, que emerge
como fios intencionais que ligam o corpo ao seu ambiente, ajustando-o a um sentido da
situação e oferecendo uma significação prática que é reconhecida corporalmente. Ter um
corpo é integrar-se com o meio ambiente, confundir-se com ele, aderindo de forma prépessoal ao mundo dos fenômenos.
A crítica de Merleau-Ponty à psicologia científica – que é com quem ele dialoga na
discussão apresentada acima – expressa a posição da fenomenologia frente ao
conhecimento, vertente que busca uma compreensão das coisas através de sua condição
primeira, a de estar no mundo, espacial e temporalmente, onde qualquer análise será
sempre segunda, posterior à experiência de estar no mundo. Qualquer fenômeno que diga
respeito ao humano estará sempre vinculado à sua história e constituição corporal; tudo o
que se pode saber sobre si e sobre o mundo parte de uma visão própria, pessoal, de uma
experiência do mundo. Portanto, a partir da perspectiva da fenomenologia, não teríamos
uma ampla compreensão da subjetividade, da inteligência e da cognição, se não
levássemos em conta o fato de que estes fenômenos ocorrem em um corpo humano, que
habita corporalmente um mundo, que tem uma história pessoal, hábitos e costumes
próprios.
A fenomenologia é o estudo das essências, e todos os problemas, segundo
ela, resumem-se em definir essências: a essência da percepção, a essência
da consciência, por exemplo. Mas a fenomenologia é também uma
filosofia que repõe as essências na existência, e não pensa que se possa
compreender o homem e o mundo de outra maneira senão a partir de sua
“facticidade”. É uma filosofia transcendental que coloca em suspenso,
para compreendê-las, as afirmações da atitude natural, mas é também
uma filosofia para a qual o mundo já está sempre “ali”, antes da reflexão,
como uma presença inalienável.149
148
149
Ibidem, p. 130.
Ibidem, p. 1.
Tudo o que conhecemos parte de nossa experiência; tudo o que sabemos sobre o
mundo é fruto de nossa experiência no mundo. Assim, teríamos uma visão um tanto
reducionista da subjetividade se a considerássemos apenas como o correlato psíquico do
mecanismo anátomo-cerebral-funcional do corpo, ou como o resultado de um processo de
tratamento de informações simbólicas e representações mentais. Todo sistema teórico é um
modelo, uma espécie de descrição estruturada de experiências com objetos, redigida por
sujeitos que habitam o mundo e buscam nele sua essência. Mesmo o conhecimento
científico, caracterizado pela objetividade e neutralidade, é construído sobre o mundo
vivido, a partir da experiência de pesquisadores cientistas. Portanto, toda descrição e
explicação são sempre posteriores ao contato com o objeto explicado, que já está “aí”,
segundo Merleau-Ponty, antes de qualquer reflexão.
Distinções entre os aspectos físicos e mentais do homem são, portanto, artificiais;
uns confundem-se nos outros, e não há como determinar uma fronteira entre o somático e o
psíquico. Podemos separá-los apenas teoricamente. Assim, de acordo com o autor, não
devemos conceber o fenômeno psicofísico à maneira cartesiana, partindo-o em dois: é
justamente a existência que encontramos primeiro no homem, não um corpo e uma mente.
Mente e corpo são dimensões da mesma coisa, do ser-no-mundo, que é anterior às
divisões, que tem sua “mente incorporada150”.
Concebendo o homem desta forma, Merleau-Ponty fornece-nos, segundo Varela et
al., um entre-deux, uma perspectiva não-dualista sobre os fenômenos corporais e
subjetivos. O homem é, ao mesmo tempo, corpo e a subjetividade, composto de estruturas
físicas e de estruturas experienciais vividas.
É por isto que, ao descartar esta dimensão do corpo humano de seus estudos –
quando consideram apenas o cérebro, ou concebem o corpo apenas como um receptor de
estímulos e um executor de movimentos –, os pesquisadores da inteligência artificial
acabavam por jogar fora um componente fundamental de qualquer fenômeno mental.
Sabemos, de acordo com o que nos dizem Merleau-Ponty e Dreyfus, que o corpo responde
ao mundo com reações motoras sem o uso de cálculos, desempenhando uma série de
processos dos quais não temos consciência e conhecimento explícito151. Esta
150
Embodied mind. Esta é uma noção bastante atual e esclarecedora, fornecendo uma interessante visão
acerca da questão do dualismo mente-corpo. Nosso maior exemplo é o Livro de Varela et al., cujo título é
justamente este – The Embodied mind –, onde a noção de que a mente é essencialmente incorporada é
explorada ao longo da obra.
151
Ibidem, p.154.
intencionalidade152 própria do ser humano, que “não se efetua na transparência de uma
consciência”, que é anterior à objetivação científica, parece ser um dos maiores obstáculos
da IA. Uma vez que todo e qualquer software é resultado de algorítmos – séries
estruturadas de regras –, seria necessário encontrar as regras a partir das quais o corpo se
conecta com o mundo e a ele responde inteligentemente, para que um computador pudesse
simular tal comportamento. Mas vimos, a partir de Dreyfus e Merleau-Ponty, que tais
regras não existem – ou, se existem, não são do tipo que os programadores precisam para
escrever programas. O que pode existir é um modelo de funcionamento, criado por
homens, que invente e estabeleça tais regras – e que, caso seja bem sucedido, proporcione
o desenvolvimento de um artifício capaz de imitar o comportamento inteligente humano.
Uma vez que era o comportamento inteligente que se pretendia simular, passemos
ao quarto e último capítulo desta dissertação, onde circularemos a noção de corporeidade
para Merleau-Ponty e outros estudiosos, ressaltando sua utilidade para uma compreensão
alternativa do comportamento humano e dos problemas encontrados pelo pessoal da IA.
152
Este termo, bastante utilizado por Brentano, Husserl, Heidegger e Merlau-Ponty, apresenta uma série de
nuances, que não teremos tempo para abordar neste trabalho. Para uma noção acerca das diferenças na
concepção deste termo, cf. Dupuy, 1996, pp. 119-138, e Varela et al., 2003, pp.33-34. Consideraremos
intencionalidade como a característica do homem de estar sempre voltado ao mundo, em constante relação
com os entes. Diferente de uma intenção, que se constitui de um ato de consciência, faremos referência à
intencionalidade como uma forma inconsciente e pré-objetiva de se estar ligado às coisas.
4
O corpo
Desde o início Dreyfus percebera que alguma coisa estava faltando aos softwares
inteligentes: um corpo. A inteligência artificial, que já se mostrara prodigiosa desde o
nascimento, concretizando o que o homem sonhava havia décadas, logo atraiu o olhar e o
investimento de diversas instituições – como universidades e departamentos militares.
Observando todo este movimento em torno da IA, Dreyfus sentia-se inconformado. Afinal,
que sentido fazia investir uma grande monta de capital em um programa de pesquisa em
degeneração?153
Dreyfus tinha uma dura tarefa pela frente. Afinal, munido apenas de suas palavras,
ele teria de desbancar uma série de resultados concretos. Suas críticas e considerações
acerca da IA, mesmo convergindo com o que diziam outros autores154, pareciam não surtir
muito efeito. Sua bagagem filosófica não intimidava os pesquisadores e não impunha
nenhum limite prático às pesquisas. Sua preocupação era justa: entre outras coisas, Dreyfus
estava em defesa da seriedade e integridade de temas profundos da filosofia. Mas ninguém
da área da IA dava-lhe ouvidos; e então, o que começara como uma avaliação crítica e
transparente de uma linha de pesquisa em expansão, tomou um colorido bastante pessoal.
O tom de suas afirmações expressa o fato de que Dreyfus não estava apenas comprometido
com uma análise imparcial sobre uma teoria:
Porque presumem aqueles em busca da Simulação Cognitiva que os
processos de informação de um computador revelam os processos de
informação oculta de um ser humano? E porque presumem aqueles
trabalhando na Inteligência Artificial que deve haver uma maneira digital
de executar as tarefas humanas? Que eu saiba, ninguém neste campo
parece ter formulado essas perguntas a si próprio. De fato, a inteligência
153
Dreyfus (1999, p. Ix – tradução minha) diz que, de acordo com a definição de Imre Lakatos, “um
programa de pesquisa em degeneração é uma empresa científica que começa como uma grande promessa,
oferecendo uma abordagem nova e que leva a resultados impressionantes em determinado contexto. Quase
inevitavelmente os pesquisadores tentarão ampliar a aplicação desta abordagem, começando com problemas
que são de alguma forma similares ao original. Enquanto obtém êxito, o programa de pesquisa expande e
atrai seguidores. Se, contudo, os pesquisadores começam a encontrar inesperados e importantes fenômenos
que insistentemente resistem às novas técnicas, o programa irá estagnar, e os pesquisadores irão abandoná-lo
assim que uma abordagem alternativa se torna disponível”. Este era, para Dreyfus, o caso da Good OldFashioned AI (GOFAI) – a IA em seus primeiros anos.
154
“What strikes me, and has struck other writers reviewing the history of the field, is how my views and
those of workers interested in the theoretical issues in AI have gradually converged.” Ibidem, p. 3.
artificial é o campo menos autocrítico no cenário científico. Deve haver
uma razão por que esses homens inteligentes quase unanimemente
reduzem ao mínimo ou deixam de reconhecer suas dificuldades, e
continuam dogmaticamente a afirmar sua fé no progresso. Certa força em
suas suposições, e claramente não o seu êxito, deve permitir-lhes ignorar
a necessidade de justificação. Devemos agora tentar descobrir por que,
em face de crescentes dificuldades, os que se dedicam à inteligência
artificial revelam uma confiança tão inabalável.155
Depois de cinqüenta anos de esforços, contudo, está claro a todos, exceto
para alguns “cabeças-duras”, que esta tentativa de produzir inteligência
geral falhou.156
Não demorou muito para que Dreyfus se tornasse uma figura indesejada pela
comunidade da IA. Convencido que estava de que o corpo desempenha um papel
fundamental no comportamento inteligente, e que os seres humanos ocorrem em processos
que ultrapassam nossa possibilidade de explicá-los, Dreyfus proferia palavras ríspidas e às
vezes agressivas contra seus adversários que insistiam em traduzir a inteligência em
computações simbólicas.
Estava então configurado um interessante combate. De um lado, Dreyfus
empunhava suas críticas de caráter fenomenológico; de outro, o exército da IA avançava
munido de um número cada vez maior de softwares e resultados contundentes. Em um
confronto direto, poucas chances teria Dreyfus – já que precisaria ser mais forte, usando
apenas de palavras, que uma série de resultados concretos e factíveis. E apesar de contar
apenas com a teoria, a que escolhera era fundamentalmente abstrata, muito menos
pragmática que outras teorias existentes. Ele próprio reconhecia sua desvantagem:
Tenho perfeita consciência de que esta “explicação” é mais vaga e menos
experimental do que as fornecidas, tanto pelos behavioristas como pelos
intelectualistas, as quais deveria suplantar.157
Varela e seus colaboradores dizem que a maior parte das críticas lançadas contra as
descrições fenomenológicas enfocava sua falta de pragmatismo. Desde os escritos de
Husserl, passando pela fenomenologia existencial de Heidegger, e pela fenomenologia da
vida de Merleau-Ponty, mesmo quando se enfatizava o contexto incorporado pragmático
da experiência humana, estes autores o faziam de forma puramente teórica.
155
Idem, 1975, p.115.
Idem, 1999, p. ix.
157
Idem, 1975, p. 208.
156
Na nossa tradição ocidental, a fenomenologia foi e ainda é a filosofia da
experiência humana, o único edifício remanescente do pensamento que
aborda essas questões de forma firme e direta. Mas, sobretudo, foi e ainda
é filosofia como reflexão teórica. Em grande parte da tradição ocidental
desde os gregos, a filosofia tem sido a disciplina que busca encontrar a
verdade, incluindo a verdade sobre a mente, apenas por meio do
raciocínio teórico abstrato. Mesmo os filósofos que criticam ou
problematizam a razão o fazem somente por meio de argumentos,
demonstrações e – especialmente em nossa chamada era pós-moderna –
exibições lingüísticas, ou seja, por meio do pensamento abstrato. A crítica
de Merleau-Ponty à ciência e à fenomenologia, de que elas são atividades
teóricas após o fato, pode igualmente ser aplicada à maior parte da
filosofia ocidental como reflexão teórica. Dessa forma, a perda da fé na
razão, tão visível no pensamento atual, torna-se simultaneamente uma
perda de fé na filosofia.158
Já que Dreyfus não tinha armas suficientes para combater a IA no campo dos
resultados práticos, se quisesse vencer, teria de adotar uma outra estratégia. Uma vez que
seu forte era a teoria, seu melhor alvo seria, obviamente, os fundamentos teóricos da IA.
Atacando fulminantemente as bases dos projetos na área, Dreyfus teria chances de abalar
suas estruturas. De fato, no campo teórico, o pessoal da IA sabia que Dreyfus era um
adversário de valor:
Quando fui convidado para fazer uma análise de duas publicações
recentes de Minsky, Papert e Winston para a Creative Computing, o
editor ao mesmo tempo convidou Seymour Papert para fazer uma crítica
ao meu livro, de modo a balancear a apresentação. De acordo com o
editor, Papert respondeu ameaçando que se a Creative Computing
publicasse minha crítica, haveria reprovação pela comunidade da IA, e
represálias por parte da MIT Press. Além disto, ele prometeu que se
Creative Computing rejeitasse minha crítica, ele iria enviar um artigo que
o editor estava tentando em vão obter dele, e também iria fornecer artigos
adicionais escritos por seus alunos.159
Se Dreyfus estava certo, então não demoraria muito para que a IA se degenerasse.
Os próprios fracassos dos projetos em busca da inteligência geral fortaleciam as críticas do
filósofo – às quais, de acordo com a citação acima, Papert tentava escapar.
158
Varela et al., 2003, pp. 36-37.
When I was invited to review two recent publications of Minsky, Papert, and Winston for Creative
Computing, the book review editor at the same time invited Seymour Papert to review my book, so as to
balance the presentation. According to the book review editor, Papert replied by threatening that if Creative
Computing published my critique there would be disapproval from the AI community and reprisals from MIT
Press. Moreover, he promised that if Creative Computing rejected my review, he would submit an article
which the editor had been trying in vain to get from him, as well as furnish additional articles by his students.
Dreyfus, 1999, p. 307, nota 6.
159
Além de todas as falhas apontadas por Dreyfus, que já vimos nos capítulos
anteriores, o descaso com relação ao caráter fenomenológico do corpo humano tinha para o
autor um sabor especial. Ele sabia da importância do corpo nos processos cognitivos e na
relação do homem com o mundo, e que o comportamento inteligente humano é,
essencialmente, incorporado. Como conceber um ente adaptado ao meio, capaz de lidar
com situações novas, que não esteja em um corpo?
Um cérebro dentro de uma garrafa, ou um computador, poderia ser
incapaz de reagir a novas espécies de situações porque a nossa
capacidade de estar numa determinada situação não dependeria apenas da
flexibilidade do nosso sistema nervoso, mas, antes, da nossa capacidade
de executar atividades práticas. Após algumas tentativas de programar tal
máquina, poderíamos chegar à conclusão de que aquilo que distingue as
pessoas das máquinas, não importa quão engenhosamente construídas
estas possam ser, não é uma alma imaterial, distante, universal, mas o
corpo material que envolve e é capaz de se mover por si próprio. De fato,
é o aspecto corpóreo do comportamento inteligente que tem causado mais
problemas à inteligência artificial.160
Simon, de acordo com Dreyfus, acreditava que a automação de um sistema
locomotor levaria mais tempo para ser realizada que a de um sistema nervoso central. Em
outras palavras, a tecnologia dos computadores fornecia meios para simular algumas
funções racionais superiores, como relações lógico-abstratas, mas se mostrava ainda
insuficiente para a espécie de inteligência que partilhamos com os animais, como o
reconhecimento de padrões.161
Porém, nada impede que, com o avanço da tecnologia, seja possível construir uma
máquina com um mecanismo locomotor semelhante ao dos homens. Se o corpo é tão
importante para a cognição e à inteligência, este problema estaria resolvido assim que
houvesse tecnologia suficiente para construir uma máquina que ande, corra e pule como os
humanos. Mas, de acordo com os apontamentos de Merleau-Ponty, o corpo não se resume
em um mecanismo complexo.
160
161
Idem, 1975, pp. 210-211.
Ibidem, p. 211.
4.1
O resgate de uma noção problemática de corpo
Não é apenas no campo das ciências cognitivas que a dimensão fenomenológica e
“não-formalizável” do corpo não encontra espaço, nem tampouco foi nele que teve origem
sua desvalorização. Já desde o início da era moderna, os estudos do corpo humano
focalizam sua dimensão natural, biológica e anatômica, explorando-o a partir de aparatos
tecnológicos cada vez mais avançados, e estabelecendo sobre ele uma série de
conhecimentos técnicos. A dimensão vivida do corpo, que vimos exposta nas palavras de
Merleau-Ponty, costuma ser deixada de lado pelos cientistas que, em busca de saberes
extensivos a todo sujeito humano, descartam aquele tipo de conhecimento que pode ser
obtido apenas pela experiência imediata do próprio sujeito. As descrições dos processos
corporais, tal como aquelas dos fisiologistas, médicos e neurocientistas, visam estabelecer
conhecimentos normativos do corpo; assim, os modelos descritivos da corporeidade e dos
fenômenos corporais são tratados como ultrapassados e obsoletos, e deixam de ser objeto
para a ciência.
Michel Foucault, em seu livro O Nascimento da Clínica162, diz que na passagem da
época clássica para a moderna vimos nascer o corpo moderno, constituído
predominantemente pelas definições da química e da anátomo-clínica. É na própria
observação médica que este corpo que é criado, e sua realidade passa a ser o produto das
descrições que a medicina faz sobre ele.
Na idade média, o sujeito era o corpo misturado com o mundo e o com o cosmos;
ele não tinha um corpo, ele era um corpo. A noção de que temos um corpo surgiu com a
modernidade, quando nos separamos de uma totalidade maior e passamos a ter um corpo
individualizado. Perdemos todo o encanto, todo o mistério profundo e insondável que jazia
debaixo da pele e dentro dos órgãos intocados, e passamos a ter um corpo objetivado,
superficializado, manipulado. Deixamos de ser algo que Deus criou, para adquirir o
estatuto de mais uma classe entre os objetos naturais, compostos por mecanismos anátomofisiológicos regidos por leis que a ciência fica responsável por decifrar. Um homem morto
passa a ser um objeto de estudo; seu corpo é dissecado, seus órgãos transformam-se em
peças, que são isoladas, removidas e minuciosamente analisadas.
162
Michel Foucault, O Nascimento da Clínica. Rio de Janeiro: Forense-Universitária, 1980.
Vimos que é uma noção problemática acerca do corpo humano, que admite uma
multiplicidade de olhares – e que não se subsumem à visão soberana dos cientistas –, que
Merleau-Ponty visa resgatar, em oposição a uma concepção monolítica própria da ciência,
que adota uma estratégia discursiva e com ela pretende esgotar as possibilidades de
compreensão daquilo que é eleito como objeto de estudo. Os fantásticos avanços da ciência
médica são de grande valia para a sociedade, e deve ficar claro que não estamos, de modo
algum, desvalorizando qualquer ramo da ciência. Os conhecimentos médicos sobre o corpo
– enquanto a organização material daquilo que se constitui como um suporte biológico
para a existência de uma vida psicológica e cultural – são extremamente úteis para práticas
terapêuticas e profiláticas. O ponto crítico está justamente no valor ontológico que se quer
estipular, em sua concepção reducionista, que pretende subsumir com seu olhar todos os
olhares possíveis. Ter um ponto de vista sobre o corpo, que priorize sua dimensão
biológica e anatômica, respondendo a fins pragmáticos, é uma estratégia extremamente útil
para o homem em sua vida no mundo. Benilton Bezerra Jr. expressa muito bem esta noção,
comentando a expressão naturalismo pragmático sugerida por Ramberg:
Naturalismo pragmático indica a perspectiva que parte da premissa de
que todos os fenômenos da vida humana são naturais e que se separamos
alguns deles em “naturais” e “culturais”, “mentais” ou “físicos”, o
fazemos por razões pragmáticas e não porque sejamos obrigados a
reconhecer algum abismo ontológico entre os domínios nomeados por
essas categorias. As distinções existem porque historicamente as criamos
como estratégia teórica opcional, da qual nos valemos quando queremos
atingir fins específicos para os quais esses vocabulários são melhores. É o
que fazemos, por exemplo, quando – diante da experiência de sofrimento
de uma mesma pessoa – adotamos descrições neurofisiológicas para
fundamentar escolhas medicamentosas, psicanalíticas para orientar uma
psicoterapia ou psicossociológicas para intervir em suas condições de
vida. (...) Adotar essa perspectiva é também assumir uma forma de
admitir que tudo o que podemos saber da vida e do mundo depende de
um ponto de vista, a partir do qual o mundo, a vida e o próprio
observador se constituem como objetos de conhecimento.163
Porém, mais do que instituir um ponto de vista sobre o corpo, a ciência médica, no
período a que estávamos nos referindo, pretendia estabelecer um sentido absoluto sobre o
corpo humano, decifrando a linguagem através do qual fora escrito.
Ao final da década de 1980, de acordo com Thomas Csordas, esta predominante
noção de que o corpo é um ente fixo e por direito um objeto das ciências biológicas é
163
Benilton Bezerra Jr., 2001, pp. 15-16.
contrastada com uma noção problemática164 acerca do corpo humano. No cenário dos
estudos culturais interdisciplinares, surge um “novo corpo”, que deixa de ser apenas um
fato bruto da natureza para passar a ter uma história; o corpo humano perde a rigidez de
seus contornos e transborda para o campo da cultura – e abre-se, assim, um fecundo espaço
para diversas formas de compreensão do corpo.
Nas últimas décadas, muitas vozes vêm discutindo o papel do corpo e da
corporeidade na constituição do sujeito; pela força de suas palavras, Merleau-Ponty tornase um autor central nas discussões que priorizam esta dimensão fenomenológica do corpo.
Vejamos agora mais alguns apontamentos, de Merleau-Ponty e outros autores, que
ressaltam esta característica do homem como ser-no-mundo, como um agente incorporado,
e que fornecem um ponto de vista interessante sobre nós mesmos.
4.2
O ser-no-mundo como agente incorporado
Para Charles Taylor, se tivéssemos que resumir o legado filosófico de MerleauPonty em uma frase, diríamos que ele, mais do que ninguém, nos ensinou o que significa
entender o homem como um agente incorporado (embodied agent)165. Taylor afirma que
esta expressão representa o fato de que (1) o sujeito está inescapavelmente em um mundo –
um campo de significados –, (2) está nele como um agente e, essencialmente, (3) o sujeito
é um agente incorporado. Assim, toda e qualquer relação que o homem possa estabelecer
com o mundo estará sempre permeada por estas condições. Os fenômenos perceptivos e
cognitivos ocorrem na abertura deste sujeito que se move no mundo; portanto, estão
necessariamente vinculados à idéia de uma ação. Pelo fato de sermos sujeitos engajados no
mundo, colados a ele corporalmente166, nossa relação com os entes depende
164
“The kind of body to which we have been accustomed in scholarly and popular thought alike is typically
assumed to be a fixed, material entity subject to the empirical rules of biological science, existing prior to the
mutability and flux of cultural change and diversity and characterized by unchangeable inner necessities.
The new body that has begun to be identified can no longer be considered as a brute fact of nature. In the
wake of Foucault, a chorus of critical statements has arisen to the effect that the body is “an entirely
problematic notion.” Thomas Csordas, Embodiment and Experience, 2001, p.1.
Csordas não deixa de fazer menção aos fatores sócio-econômicos que influenciaram no abandono da noção
de corpo como “a bounded entity”. Ele também escreve uma certa reinvenção do corpo, que passa a se
constituir também de um objeto de design, e submete-se a novas técnicas de manipulação. Podemos
encontrar nas próteses de silicone e nas tatuagens que cobrem grandes regiões do corpo um exemplo deste
fato.
165
Charles Taylor, Embodied Agency, 1989, p. 1.
166
Ibidem, pp.2-3.
necessariamente do estado de nosso corpo: se meus olhos não estão em boas condições, eu
não posso enxergar direito. Muitas doenças, por exemplo, restringem a ação do sujeito no
mundo, limitando sua relação com as coisas, diminuindo sua abertura a elas.
Taylor também ressalta a influência da estrutura corporal humana, que funda um
modo de estar no mundo. Se observarmos nossa própria constituição, veremos que somos
seres que caminham para frente e mantém uma postura vertical. A cabeça fica no topo do
corpo, voltada para frente; andamos nos equilibrando e alinhando nossa postura com a
gravidade; temos a noção de “cima” e “baixo”, “perto” e “longe”. Em função de nossa
constituição corporal há uma esfera de objetos que podemos alcançar, uma zona de lugares
que podemos atingir facilmente, e áreas mais longe que são menos acessíveis, e assim por
diante (e as fronteiras destas podem variar com a condição em que estamos, bem ou
doente, enérgicos ou cansados); existem coisas ao meu redor que podem ser movidas, e
outras que são fixas.
Se fossemos cobras, caranguejos ou formigas, nossa relação com o mundo seria
completamente diferente: para cobras e formigas a relação com a força gravidade é
completamente diferente da nossa, já que as cobras são répteis e se arrastam no chão, e as
formigas facilmente sobem paredes e são capazes de carregar objetos que, comparados às
suas dimensões, são extremamente grandes e pesados. Caranguejos andam de lado, e seus
olhos estão preparados para enxergar mesmo quando estão enterrados na lama ou na areia.
Estes exemplos sugerem que nosso campo perceptual tem uma estrutura própria, e que é
experienciada como um campo potencial de ação: percebemos o mundo através de nossa
capacidade de agir nele.167
Mesmo quando temos uma relação abstrata com os entes – como, por exemplo,
quando estou parado e sentado em uma cadeira pensando sobre eventos distantes, ou
divagando por caminhos teóricos sobre as coisas –, esta relação é possível justamente por
estamos abertos a um mundo que pode ser explorado, apreendido e teorizado através de
nossa percepção, que é nossa abertura primária a este mundo.
4.2.1
Percepção como ação no mundo
A noção de que a cognição e a percepção não são apenas atitudes passivas de
recepção e representação de estímulos fica bastante enfatizada nas palavras de Drew
167
Ibidem, p.4-5.
Leder.168 Este autor afirma que a percepção é ela própria uma atividade motora, sendo
artificial a distinção entre percepção e movimento. Por exemplo, o toque é uma maneira de
chegar até o objeto, de correr a mão sobre sua superfície. Quando olhamos, viramos nossa
cabeça e deixamos nossos olhos passearem na paisagem. Não somos, a partir desta
perspectiva, apenas receptores passivos de estímulos, prontos a decodificá-los e representálos mentalmente. Somos agentes incorporados, engajados no mundo, atuando
perceptivamente no ambiente em que nos encontramos. Vejamos o que nos diz Mark
Johnson sobre este assunto:
Seres humanos são criaturas da carne. O que podemos “experienciar” e
como concebemos aquilo que experimentamos depende do tipo de corpo
que temos e dos modos como interagimos com os diversos ambientes que
habitamos. É através de nossos corpos que podemos entender e agir no
mundo, com variados graus de sucesso.
(...) nossas teorizações e raciocínios são embasados em nossa
corporeidade, isto é, em nossas orientações, manipulações e movimentos
corporais, na medida em que agimos no mundo. Não importa o quão
sofisticadas nossas abstrações se tornem, para que sejam significativas
elas precisam manter laços íntimos com nossos modos incorporados de
raciocinar e conceituar. Podemos apenas experimentar o que nossa
corporeidade nos permite. Somente podemos teorizar usando sistemas
conceituais apoiados em nossa experiência corporal.169
Johnson faz alusão à característica de sermos, antes de tudo, seres dotados de um
corpo. Portanto nada daquilo que podemos experimentar, mesmo de forma abstrata, pode
escapar desta condição. É exatamente a esta noção que Merleau-Ponty se refere quando diz
que o corpo é o veículo do ser no mundo, é o pivô do mundo. Sabemos que os objetos têm
várias faces, por exemplo, porque poderíamos fazer a volta em torno deles; isto demonstra
que temos consciência do mundo por meio de nosso corpo e das ações que podemos
desempenhar170.
168
Drew Leder, 1990.
“Human beings are creatures of the flesh. What we can experience and how we make sense of what we
experience depend on the kinds of bodies we have and on the ways we interact with the various environments
we inhabit. It is through our bodies that we are able to understand and act within this world with varying
degrees of success.
(…) our conceptualization and reasoning are grounded in our embodiment, that is, in our bodily orientations,
manipulations, and movements, as we act in our world. No matter how sophisticated our abstractions
become, if they are to be meaningful to us, they must retain their intimate ties to our embodied modes of
conceptualization and reasoning. We can only experience what our embodiment allows us to experience. We
can only conceptualize using conceptual systems grounded in our bodily experience”. Mark Johnson,
Embodied Reason, p. 81.
170
Merlau-Ponty, 1999, p. 122.
169
Samuel Todes também é um autor fortemente influenciado pela fenomenologia de
Merleau-Ponty, e em sua obra Body and World há várias referências à noção de
corporeidade como fundamental para a compreensão do modo de ser do homem no mundo.
O prefácio e a primeira introdução deste livro é de autoria de Hubert Dreyfus, onde ele
apresenta alguns pontos que são discutidos por Todes ao longo da obra. Todes, de acordo
com Dreyfus, também valoriza a relação entre ação e percepção, dizendo que nossa
percepção das coisas que nos cercam é uma resposta à nossa insatisfação de se estar
perdido no mundo. Ao nos movermos para organizar o campo espaço-temporal, nos
fazemos “sentir em casa” no mundo, buscando uma certa familiaridade com as coisas. Em
nosso contato com o ambiente, nesta abertura que é a percepção, somos levados ao
movimento de forma a reduzir nossa sensação de que estamos distantes de uma gestalt
satisfatória, sem que tenhamos, para isso, a necessidade de representar a situação que nos
traria conforto. Merleau-Ponty chama esta característica de buscarmos uma satisfação no
mundo sem termos sua representação de intencionalidade motora. Todes, por sua vez,
utiliza o termo poise para aludir a tal noção171. Com este termo Todes está se referindo a
uma certa prontidão para a ação, uma postura equilibrada do homem no mundo que o prédispõe para lidar com as coisas e pessoas que o cercam, que lhe dá um conhecimento
perceptual do mundo.
Poise, quando obtém êxito, não “coincide” ou “concorda” com seus
últimos “efeitos”, como faz a vontade com suas aquisições (...) O êxito da
poise não está em sua execução, mas em sua própria existência, através
da qual o corpo está, para começar, intencionalmente em contato com os
objetos ao seu redor. No momento em que estou agregado às minhas
circunstâncias, já sei (...) alguma coisa sobre os objetos aos quais estou
fazendo algo com o meu corpo.172
Esta noção de intencionalidade motora, ou de poise, que é bastante marcante na
obra de Merleau-Ponty e de Todes, não corresponde a um movimento humano em busca
do cumprimento de um objetivo, como é o caso de um míssil programado para atingir um
avião no céu. É claro que todos temos uma série de objetivos a cumprir; porém, muitas de
nossas ações no mundo ocorrem sem que tenhamos um alvo ou uma meta definida. O
171
Dreyfus, 2001, p. xviii.
“Poise does not, when successful, “coincide” or “agree” with its later “effects”, as does will with its
achievement (…) the success of poise is not in its execution, but in its very existence, by which the body is, to
begin with, knowingly in touch with the objects around it. As soon as I am poised in my circumstances, I
know (…) something about those objects to which I am doing something with my body.” Samuel Todes,
2001, p.65-66. Tradução minha. Grifos no original.
172
exemplo citado por Merleau-Ponty de um sujeito que coça um ponto de seu corpo picado
por um mosquito é bastante elucidativo:
Entre a mão enquanto potência de coçar e o ponto picado enquanto ponto
a ser coçado está dada uma relação vivida no sistema natural do corpo
próprio. A operação toda tem lugar na ordem do fenomenal, não passa
pelo mundo objetivo, e apenas o espectador, que atribui ao sujeito do
movimento a sua representação objetiva do corpo vivo, pode acreditar
que a picada é percebida.173
O movimento é uma maneira específica de relação com os objetos, através do qual
se expressa a existência. Ele não se constitui apenas pela realização de uma trajetória
idealizada mentalmente; o espaço corporal não é um espaço representado ou pensado, da
mesma forma, a motricidade não é serva da consciência, estando sempre à mercê de seus
comandos. Só posso me mover em direção a um objeto caso ele exista para o corpo;
porém, esta existência não é, necessariamente, consciente. O corpo próprio tem seu mundo,
compreende seu mundo, sem precisar passar por representações ou funções simbólicas.
Não preciso planejar o movimento de coçar um ponto picado por um mosquito. A
involuntária e impessoal natureza de minha atividade perceptiva básica reflete minha
situação de ser vivo engajado no mundo.
A relação íntima entre o homem e o meio fica bastante clara nas palavras de Drew
Leder, quando enfatiza a natureza qualitativa daquilo que percebemos. Cadeiras nos
representam possibilidades de descanso, alimentos são percebidos como algo que pode ser
ingerido, determinadas situações ambientais nos convidam a sair ou ficar em casa174. O
ambiente impõe condições às quais o corpo não está alheio. É justamente a isto que
Georges Canguilhem faz referência, em O Normal e o Patológico, ao dizer que a vida não
é indiferente às condições nas quais ela é possível. A vida, para ele, está bem longe de uma
indiferença em relação às condições que lhe são impostas; a vida é polaridade. Não há
indiferença biológica, mas sim uma preferência em relação ao meio, uma vez que a vida é
uma posição inconsciente de valor. Se o corpo não julgasse e escolhesse, não seria capaz
de viver em nenhum ambiente: “o vivente humano prolonga, de modo mais ou menos
lúcido, um efeito espontâneo, próprio da vida, para lutar contra aquilo que constitui um
obstáculo à sua manutenção.”175
173
Merleau-Ponty, 1999, p. 153.
Leder, 1999, pp. 17-18.
175
Canguilhem, 1995, p. 96.
174
4.3
A abordagem atuacionista
Se o corpo é o primeiro termo na relação do homem com o ambiente, e esta relação
é constituída através de nossa corporeidade, podemos então afirmar que não existe um
mundo lá fora ao qual o homem se adapta. Afinal, se fôssemos membros de outras classes
de animais, nosso mundo seria completamente diferente. Por exemplo, os cachorros
possuem um aparelho auditivo capaz de reconhecer sons em freqüências que os humanos
não percebem; assim, existem tipos de sons que existem para os cachorros mas que
simplesmente não existem para os ouvidos humanos. Portanto o mundo, visto como uma
constelação de sentido, também se constitui na relação que determinado organismo
estabelece com ele. Avaliando alguns dos primeiros softwares inteligentes – o que fizemos
nos primeiros capítulos –, podemos observar que os projetistas da IA inicial não
partilhavam da perspectiva de que a corporeidade é fundamental para uma compreensão
acerca da cognição, da inteligência e do próprio mundo.
Um comportamento inteligente é um comportamento adaptado, através do qual
determinado ente recebe informações do meio e responde a ele de forma adequada. Varela,
Thompson e Rosch colocam que o sentido mais intuitivo de adaptação é o de um tipo de
padrão ou construção que condiz de forma ótima com alguma situação física.176 Temos o
exemplo das barbatanas dos peixes, que são bem adequadas ao ambiente aquático, ou das
asas dos pássaros, ideais para o vôo. Esta concepção aponta para uma compreensão de que
o meio externo já está dado, pronto, e os organismos estão preparados para responder
adequadamente a eles.
Richard Lewontin, de acordo com Varela et al., apresenta-nos uma outra concepção
acerca da relação entre o organismo e o ambiente. Podemos conceber cada organismo
como um sistema dotado de determinada configuração estrutural e de aparelhos sensoriais
que estabelecem um contato com o mundo. Através do processo evolutivo, a estrutura
molda-se de forma a permitir que o sistema ou organismo tenha uma relação satisfatória
com o meio. E o ambiente, para o organismo, é aquilo que sua estrutura lhe permite
perceber. Lewontin afirma que nossos sistemas nervosos centrais não estão adaptados a
quaisquer leis absolutas da natureza, mas àquelas que operam dentro de um quadro
estabelecido por nossa própria atividade sensorial. Por exemplo, não somos capazes de ver
os raios ultravioleta das flores – o que o sistema nervoso central de uma abelha torna
176
Varela et al., 2003, p. 192.
possível177. Assim, para este autor, os seres vivos e o ambiente estão relacionados um com
o outro por meio de uma especificação mútua, ou co-determinação. A partir desta
perspectiva, o ambiente deixa de significar um conjunto de padrões externos, aos quais os
organismos se adaptam, interiorizando-os e representando-os, para ser concebido como o
resultado de uma história conjunta, uma congruência que se desenrola a partir de uma
longa história de co-determinação.
O organismo e o ambiente não são na realidade determinados
separadamente. O ambiente não é uma estrutura imposta aos seres vivos
de fora, mas é na verdade uma criação desses seres. O ambiente não é um
processo autônomo, mas um reflexo da biologia da espécie. Assim como
não há organismo sem ambiente, não há ambiente sem organismo.178
E a cognição, que está nesta interface entre o meio e o organismo, deixa de ser uma
resolução de problemas com base em representações: em um sentido mais amplo, passa a
ser compreendida como uma atuação, ou a produção de um mundo por uma história viável
de acoplamento estrutural. Assim as capacidades cognitivas ficam essencialmente ligadas a
histórias que são vividas pelo organismo, como um caminho que existe apenas na medida
em que é aberto com o caminhar.179
Esta perspectiva sugere-nos também a idéia de que a cognição é uma ação
perceptivamente orientada, através da qual o sistema se acopla ao mundo,
intencionalmente. Para Varela et al., esta intencionalidade consiste primariamente no
direcionamento da ação do organismo no mundo, produzindo este mundo, especificando
como o mundo satisfaz ou deixa de satisfazer este construto. Em outras palavras, a
intencionalidade corresponde ao que o sistema considera serem suas possibilidades de
ação, e como as situações resultantes preenchem ou deixam de preencher essas
possibilidades.180
No segundo capítulo expusemos algumas considerações destes autores acerca dos
estudos científicos da cognição, colocando a maneira como esta propriedade era concebida,
como ela funcionava e como podíamos aferir quando um sistema cognitivo estava
funcionando corretamente. As abordagens cognitivista e conexionista expressavam uma
determinada concepção sobre a inteligência, sobre o homem e o mundo, espelhando a
177
Richard Lewontin apud Varela et al., 2003, p. 206.
Richard Lewontin apud Varela et al., 2003, p. 203.
179
Varela et al., 2003, p. 209.
180
Ibidem, pp. 209-210.
178
configuração das idéias mais aceitas na época inicial dos estudos no campo das ciências
cognitivas. Com o passar do tempo, o trabalho nesta área avançou bastante, encontrando
em seu caminho uma série de impasses, que indicavam que reformulações seriam
necessárias para que se fosse possível continuar progredindo na ampliação da compreensão
e simulação da propriedade cognitiva dos organismos. Varela, Thompson e Rosch indicam
que a concepção de cognição como uma atuação, uma ação incorporada181, pode oferecer
noções-chave para as ciências cognitivas em sua tarefa de explicar a cognição e de
construir artefatos cognitivos verdadeiramente inteligentes182.
Através de um esquema semelhante ao que apresentamos no segundo capítulo,
vejamos como estes autores resumem o programa atuacionista:
•
Cognição é atuação: uma história de acoplamento estrutural que produz um
mundo.
•
A cognição funciona por meio de uma rede consistindo de níveis múltiplos de
sub-redes sensório-motoras interconectadas.
•
O sistema cognitivo está funcionando adequadamente quando ele passa a ser
parte de um mundo continuado existente (como os jovens de todas as espécies
fazem) ou molda um novo mundo (como ocorre na história da evolução).183
Segundo Varela et al., na abordagem atuacionista, diferentemente das que a
precederam no campo das ciências cognitivas, a noção de representação deixa de ocupar
um lugar central, pois o papel do ambiente como fonte de informações para o sistema
cognitivo assume o lugar de pano de fundo. Mais do que buscar uma representação ideal
do ambiente, o objetivo é que o sistema esteja apto a lidar com determinado ambiente de
forma satisfatória. Assim, uma vez que não são estabelecidas configurações ambientais que
formariam uma meta a ser atingida, o sistema apresenta um comportamento cognitivo
adaptado quando passa a compartilhar de um mundo, novo ou já existente.
181
“Embodied action”. Para maiores detalhes sobre esta expressão, cf. também Evan Thompson, 1996, p.
128.
182
Ibidem, p.211.
183
Ibidem, p. 210.
4.4
Os andróides
Com a concepção atuacionista de que a cognição é essencialmente uma ação, uma
história de acoplamentos do sistema que produz um mundo, Varela, Thompson e Rosch
propõem não apenas “uma posição refinada, com sabor europeu, que não tem aplicações
práticas nas ciências cognitivas”.184 Uma vez que, segundo eles, as ciências cognitivas não
podem ser separadas da tecnologia cognitiva, o objetivo com esta abordagem é o de
fornecer uma explicação sobre o processo cognitivo que viabilize o estabelecimento de
artefatos inteligentes, especialmente na área da robótica e da inteligência artificial. A
pesquisa desenvolvida nos laboratórios de IA do MIT por Rodney Brooks é um exemplo
citado por estes autores da contribuição da abordagem atuacionista na área da robótica. A
equipe de Brooks já construiu autômatos dotados de sensores e capazes de transitar no
mundo, desviando de objetos, sem que o sistema tenha uma representação do ambiente.
Em Achieving Artificial Intelligence Through Building Robots, Brooks sugere com
uma rápida olhada sobre o processo evolutivo – há mais de três bilhões de anos surgiram
os primeiros seres unicelulares, e o conhecimento técnico e específico sobre objetos
(expert knowledge) existe há apenas uma centena de anos – que a inteligência humana
levou muito tempo para chegar ao ponto em que está hoje. Logo, seria um tanto
pretensioso o objetivo de inventar, em um curto espaço de tempo, máquinas capazes de ser
tão inteligentes quanto os homens.
O lento progresso dos últimos 25 anos demonstrou, como já vimos anteriormente
nas palavras de Minsky, que trabalhar sobre micro-mundos e sub-problemas era o caminho
mais plausível para a aquisição de artifícios inteligentes. Atualmente, respondendo não
somente a esta estratégia, mas fundamentalmente a fins comerciais – já que os
investimentos em tecnologia envolvem uma grande quantia de capital –, o trabalho na área
da IA tem resultado em uma série de “assistentes inteligentes”, que nos auxiliam em nosso
trabalho e vida cotidiana. Brooks diz que ninguém mais fala sobre reproduzir toda a
capacidade inteligente humana. As expectativas iniciais, que vimos nas palavras de Simon
no segundo capítulo, naturalmente perderam força em função das grandes dificuldades que
surgiam185.
184
185
Ibidem, p. 211.
Rodney Brooks, 1991.
A intenção confessa neste artigo de Brooks era a de construir Criaturas – robôs
completamente autônomos, que seriam vistos pelos homens como agentes móveis e
aparentemente inteligentes por seus próprios métodos. Assim, fica de lado o objetivo de
construir artifícios dotados de uma inteligência semelhante à humana, para construir
máquinas capazes de alcançar o nível de inteligência de um inseto. Com o avanço
tecnológico seria então possível aprimorar estes mecanismos e formar robôs cada vez mais
aptos a conviver no mundo humano.
O artigo a que nos referimos foi escrito por Brooks em 1987. Desde então, muito já
se avançou na área da robótica. Porém, a imagem de um andróide186 inteligente habitando
o mundo dos homens, ilustrada em diversas obras de ficção científica187, não representa
nada além de um sonho, se comparada com os resultados concretos disponíveis hoje. Mas
robôs como o COG188, do MIT, e o ASIMO, da Honda, demonstram que às vezes os
sonhos são os primeiros passos para transformar um grande projeto em realidade. Capaz de
caminhar, correr, subir e descer escadas, acenar para rostos reconhecidos, reconhecer e
obedecer a comandos de voz, dançar e até chutar uma bola de futebol, o ASIMO189
impressiona com suas habilidades e é uma prova “viva” de que a IA de fato não chegou
ainda à estagnação – como previra Dreyfus. É claro que, comparado com um ser humano,
este pequeno robô de um metro e meio de altura é extremamente débil e limitado. Mas, se
avaliarmos todos os avanços desde a máquina de Turing até os robôs de hoje, veremos que
muito já foi feito e que, provavelmente, muito ainda está por vir.
Lacan deixa bem claro o fato de que as máquinas não são humanas. Quanto a isto,
não nos parece haver dúvidas: há uma diferença ontológica entre homens e máquinas. O
que nos parece ser mais difícil de afirmar, entretanto, é o quão humanos somos de fato.
Assim concordamos, mais uma vez, com Lacan. Porém esta é uma questão que perpassa
toda a história da filosofia ocidental, para a qual temos uma diversidade de respostas, e
nenhuma delas é capaz de fornecer-lhe uma solução final.
Com a noção de corporeidade, nosso intuito foi o de demonstrar que a inteligência
humana não se resume em cálculos lógicos mentais. Desta forma pudemos lançar luz, a
partir de um enfoque fenomenológico, aos problemas encontrados nos primeiros projetos
de pesquisa na área da inteligência artificial. A concepção de homem como ser-no-mundo
186
No dicionário Aurélio a palavra andróide é definida como “autômato de figura humana”.
Com o exemplo dos filmes “Guerra nas Estrelas”, “O Exterminador do Futuro”, “Blade Runner”,
“Inteligência Artificial”, “AniMatrix”, e “Eu Robô”.
188
Para informações sobre este robô humanóide, acesse <http://www.ai.mit.edu/projects/humanoid-roboticsgroup/cog/cog.html>
189
Informações obtidas no site <http://www.asimo.honda.com>
187
também nos serve para esclarecer porque “o corpo próprio se furta, na própria ciência, ao
tratamento que a ele quer se impor”.
190
Há processos corporais onde as ferramentas
científicas não chegam, dos quais não temos, portanto, explicações claras e precisas. O
grande número de trabalhos que exploram a noção de corporeidade, impressos pela MIT
Press191, pode significar o crescente interesse e valorização naquilo que por muito tempo
foi deixado de lado nas investidas rumo o estabelecimento das máquinas inteligentes.
Partindo do princípio de que o ser humano é apenas uma máquina extremamente
complexa, os laboratórios de inteligência artificial vêm ampliando suas conquistas e
vencendo seus limites, levando a simulação da inteligência humana cada vez mais longe.
Sobre o futuro das máquinas inteligentes no mundo real, Brooks afirma que será o tempo
quem dirá o que é ou não possível192. Sabemos que, de fato, o modo científico de
compreender e simular as faculdades humanas apresentam apenas pontos de vista sobre o
ser humano. Porém, não nos cabe dizer se os cientistas serão capazes ou não de, um dia,
inventar uma máquina muito parecida conosco.
190
Merleau-Ponty, 1999, p. 110.
Com o exemplo de Good Looking. Essays on the Virtue of Images, de Barbara Maria Stafford (1996); The
New Phrenology. The Limits of Localizing Cognitive Processes in the Brain, de William R. Uttal, (2001); e
do livro What Computers Still Can’t Do, de Hubert Dreyfus.
192
“Only experiments with real Creatures in real worlds can answer the natural doubts about our approach.
Time will tell.” Rodney Brooks, 1991.
191
Considerações Finais
Na tentativa de instrumentalizar a concepção de que a inteligência é a computação
de símbolos, através da qual representamos o mundo de forma adequada e desempenhamos
comportamentos adaptados e coerentes, surgiu a inteligência artificial. Com ela nasceu o
EDVAC, o Student, o GPS, e outros aparatos inteligentes. O homem se divertia com seu
novo brinquedo, o computador, que mostrava-se muito útil e extremamente avançado se
comparado com qualquer coisa vista até então. Supunha-se que, se tanto fora feito em tão
pouco tempo, não demoraria muito para se tornar realidade algo que até então não passava
de um sonho: máquinas convivendo no mundo dos homens, como servas incondicionais,
ou animais eletrônicos de estimação. Porém, os avanços tecnológicos não acompanhavam
o ritmo das fantasias; muito mais se imaginava do que se dispunha de fato. Os
computadores até podiam jogar xadrez muito bem, e resolver problemas complicados, mas
estavam longe de chegar ao conhecimento de uma criança ou à inteligência de um inseto
que transita livre de um algoritmo (pelo menos até hoje não encontrado) pelo mundo.
Pensava-se que o problema poderia estar no modelo de processamento central, já que os
neurônios não pareciam funcionar desta maneira. As redes nas quais o sentido emerge da
interação de elementos simples pareciam fornecer novos caminhos na compreensão e
simulação do funcionamento cerebral, tornando possível, inclusive, construir um aparato
capaz de percepções visuais. Então tudo parecia ser uma questão de conhecer um pouco
mais dos neurônios e circuitos eletrônicos, dividir o ambiente em pequenos pedaços de
informação, e esboçar as regras que organizam a interface, a passagem dos bits de
informação para dentro do organismo, e a forma como esta informação é reorganizada
dentro dele.
Em ambientes determinados, as respostas sempre foram boas, e estão cada vez
melhores. E com relação a este avanço fica difícil propor algum limite. Rapidamente os
computadores se espalharam pelo mundo, podemos encontrar um representante desta
“espécie” nos mais diversos lugares. Além disto, outros aparelhos eletrônicos realmente se
apresentam como ferramentas úteis, sempre à disposição do homem (exceto nos casos de
defeito ou falta de energia para seu funcionamento). Mas quando o homem é o modelo, a
complexidade que parece ser necessária atingir é desanimadora. Somos seres muito
complexos. O campo onde ocorrem estudos científicos da cognição, do funcionamento
cerebral e de qualquer faculdade mental, continua em expansão e a cada dia novas
ferramentas são inventadas. Mas na medida em que se inventam novas descobertas, muitos
mistérios também se anunciam.
A estratégia do trabalho no campo da IA continua sendo a de construir sistemas
cada vez mais complexos, mais robustos, para que o agrupamento destes agentes em
sociedades resulte em resultados cada vez mais interessantes. O desafio maior é o de
encontrar a tecnologia mais adequada – ou seja, aprimorar a engenharia eletrônica, para a
computação cada vez mais eficaz e segura, e o refinamento da lógica, para uma maior
abrangência dos softwares.
Os erros podem indicar o melhor caminho. Desde que eles sejam considerados,
admitidos e depurados. Para Dreyfus eles eram evidentes. Uma análise de perto sobre o
funcionamento dos sistemas inteligentes, em suas virtudes e defeitos, mais uma verificação
dos pressupostos que jaziam no solo da IA, deixava evidente que aquilo com o que se
sonhava estava muito distante do que se era possível fazer. Dreyfus se propôs a explicar
filosofia para engenheiros, de modo a demonstrar o que era uma hipótese e o que era um
axioma, estabelecendo a diferença entre uma coisa e outra. No campo da filosofia, as
considerações de Dreyfus estão bem contextualizadas e apresentam fundamento; mas na
engenharia de softwares a linguagem é bastante diferente, os valores são outros, e
resultados práticos sobressaem-se às especulações teóricas. Até porque falar é barato, mas
construir computadores, não. Dreyfus percebia com clareza que a concepção de
conhecimento e de ser humano que embasava o trabalho no campo da IA era capaz de
fornecer uma pequena compreensão sobre aquilo que se investigava. Ele ainda sugeria uma
saída: há coisas que não são possíveis de serem faladas em termos técnicos e explícitos, e o
corpo humano, por ser o veículo do homem no mundo, não pode ser deixado de lado em
qualquer discussão acerca dos fenômenos mentais.
A condição corporal de ser-no-mundo do homem encontra nas palavras de
Merleau-Ponty uma bela expressão. Tanto que muitos depois dele ainda debatem a noção
de corporeidade, levando-a a diversos ramos do conhecimento – seja na filosofia,
psicologia, ciências cognitivas, inteligência artificial. Além de termos uma interessante
compreensão acerca daquilo que o homem é, também a fenomenologia propicia uma
compreensão sobre o que de fato é o conhecimento do homem e do mundo, bem mais
ampla da que circunda e atravessa o campo dos estudos científicos da cognição. Mostrando
que toda a teoria é uma construção humana, uma explicação inventiva do mundo e dos
entes, a abordagem fenomenológica estabelece que o conhecimento é sempre posterior ao
fato.
Desde Galileu que a ciência tem o objetivo de decifrar a linguagem a partir da qual
a natureza fora escrita. Parte-se do princípio que existem leis que regem o funcionamento
de tudo aquilo que compõe o universo, e isto se aplica ao homem e aos objetos em geral –
afinal, o homem não tem nada de especial, ele é apenas mais uma classe entre os objetos
naturais. Assim torna-se mais do que justo procurar as leis que determinam os fenômenos
psíquicos, para que se possa entender seu funcionamento, explicá-lo a partir de termos
técnicos precisos. Depois disto, reduzir estas regras a bits e alimentá-las de colherinha no
computador. Aí apertamos um botão e observamos como a mente funciona, tendo inclusive
uma teoria final sobre os processos psicológicos. Maneira bastante prática de compreender
o homem.
Mas a infinita complexidade do aparelho humano demonstra que a tarefa é quase
infindável, pois, a cada dia que passa, mais regras são encontradas no funcionamento do
homem, em sua composição, e mesmo assim elas não formam o conjunto que seria
necessário para que uma máquina fosse dotada do mesmo resultado do aparato humano:
desempenhar um comportamento inteligente, em diversos tipos de ambientes e situações.
Porém já temos uma explicação, sem dúvida bastante abstrata, para a dificuldade de se
simular artificialmente o homem. Fica bastante claro na abordagem fenomenológica que o
homem em seu corpo no mundo é anterior a qualquer construção teórica, justamente
porque toda estruturação de conceitos é sempre resultado do trabalho de homens em busca
da compreensão e da explicação dos entes que o cercam. Mais do que descobrir regras, ele
as inventa. É claro que esta invenção é metodologicamente útil, ela permite que o homem
habite de forma criativa seu mundo, agindo nele e sobre ele. Porém tudo não passa de
pontos de vista estruturados sobre os fenômenos constituintes do ambiente humano. As
ferramentas conceituais e técnicas são extremamente adequadas para muitas das tarefas às
quais o homem se impõe. O conhecimento específico sobre as mais diversas áreas expressa
o fato de que este modo de conhecer que se chama ciência é de fato uma ótima invenção.
Porém, Merleau-Ponty alerta-nos de que o sentido das coisas não se esgota a partir de uma
perspectiva hermenêutica, e o próprio mundo já é repleto de sentidos que são anteriores à
nossa reflexão e compreensão consciente. Isto porque somos seres essencialmente
incorporados, dotados por uma certa energia que pulsa nossa existência e nos liga por fios
intencionais a um mundo que é anterior a qualquer análise que se faça dele.
A partir da posição oferecida pela fenomenologia para o homem, o mundo e o
conhecimento de ambos, Dreyfus redige um texto que, se bem aproveitado, poderia
oferecer-se como um rico e elucidativo material para a compreensão dos impasses dos
primeiros projetos na área da inteligência artificial. Mas, justamente por ser filósofo,
muitos não ouviam ao que Dreyfus dizia, e talvez por isto ele tinha uma grande
preocupação em defender sua perspectiva e em provar que a presente na IA – sobre o
homem e o mundo – era limitada e fatalmente levaria os projetos à ruína.
Alguns avanços ameaçaram as previsões de Dreyfus acerca dos fracassos deste
campo. Mas a dica principal que ele deu, sobre o perigo de se tomar uma hipótese por um
axioma, e do papel da corporeidade em tudo aquilo que seja de algum modo humano,
permanecia válida e coerente. Apesar de haver discórdia com relação à contribuição da
filosofia para o avanço da IA – Brooks fizera questão de deixar claro que seu trabalho não
era inspirado no que Heidegger escreveu193 –, mudanças na concepção de ambiente e de
como o homem se adapta a ele vêm ocorrendo e resultando em robôs cada vez mais
capazes. Um homenzinho mecânico de um metro e meio que é capaz de reconhecer rostos,
vozes, acenar para seus conhecidos, caminhar, correr, dançar e chutar uma bola já transita
entre os humanos e demonstra que a inteligência artificial é cada vez mais concreta. Diante
disto tudo muitos se perguntam sobre o futuro das máquinas, o destino dos homens e o
número de mistérios que permanecerão insondáveis naquilo que se chama self,
subjetividade ou humanidade. Porém esta é uma pergunta que não faremos aqui. E
finalizamos com uma certeza: homens são homens, máquinas são máquinas, e os
computadores não tem um corpo – humano, pelo menos.
193
“In some circles much credence is given to Heidegger as one who understood the dynamics of existence.
Our approach has certain similarities to work inspired by this German philosopher but our work was not so
inspired. It is based purely on engineering considerations. That does not preclude it from being used in
philosophical debate as an example on any side of any fence, however.” Rodney Brooks, 1991.
Referências Bibliográficas
BERGSON, Henri. “O Pensamento e o Movente - Introdução”. In: Os Pensadores. SP, Ed.
Abril S/A, 1974.
BEZERRA JR., Benilton. “O Lugar do Corpo na Experiência do Sentido: uma perspectiva
pragmática”. In: BEZERRA JR., Benilton, PLASTINO, Carlos Alberto (Orgs). Corpo,
Afeto, Linguagem – a questão do sentido hoje. Rio de Janeiro, Rios Ambiciosos, 2001.
BROOKS, Rodney. Intelligence Without Representation. Cambridge, Massachusetts, MIT
– Artificial Intelligence Laboratory, 1991. Disponível na Internet via WWW. URL:
<http://people.csail.mit.edu/u/b/brooks/public_html/papers/representation.pdf>. Arquivo
capturado em 18 de fevereiro de 2005.
CANGUILHEM, Georges. O Normal e o Patológico. RJ: Forense Universitária, 1995.
CSORDAS, Thomas J. Embodiment and Experience. The existential ground of culture and
self. Cambridge, Cambridge University Press, 2001.
DREYFUS, Hubert L. O Que os Computadores Não Podem Fazer. RJ: A Casa do Livro
Eldorado, 1975.
______, What Computers Still Can’t Do. Cambridge: The MIT Press, 1999.
______, “Introduction I: Tode’s account of Nonconceptual Perceptual Knowledge and Its
Relation to Thought”. In TODES, Samuel. Body and World. Cambridge, Massachusetts,
and London, England, The M.I.T. Press, 2001.
______, Mensagem enviada a Daniel Dennett em 27 de Maio de 1997. [online] Disponível
na Internet via WWW. URL: <http://slate.msn.com/id/3650/entry/23906/>. Arquivo
capturado em 15 de dezembro de 2004.
DUPUY, J.P. Nas origens das Ciências Cognitivas. São Paulo, Ed. Unesp, 1996.
EYSENCK, Michael, KEANE, Mark. Psicologia Cognitiva: Um Manual Introdutório.
Porto Alegre, Artes Médicas, 1994.
FOUCAULT, Michel. O Nascimento da Clínica. Trad. Roberto Machado. Rio de Janeiro,
Forense-Universitária, 1980.
GARDNER, Howard. La Nueva Ciencia de la Mente. 1987.
HEIDEGGER, Martin. Ser e Tempo. Petrópolis, Vozes, 2002.
JOHNSON, Mark. “Embodied Reason”, In: GAIL, Weiss, HABER, Honi Fern (orgs.)
Perspectives on Embodiment – The Intersections of Nature and Culture. London and New
York, Rutledge, 1999, pp. 81-102.
LACAN, Jacques. Seminário 2 – O Eu na Teoria de Freud e na Técnica da Psicanálise.
Edição eletrônica com as obras completas de Lacan. 1 CD-ROM.
LEDER, Drew. The Absent Body. Chicago and London, The University of Chicago Press,
1990.
MERLEAU-PONTY, Maurice. Fenomenologia da Percepção. SP, Martins Fontes, 1999.
MINSKY, Marvin. Conscious Machines. [online] Disponível na Internet via WWW. URL:
<http://kuoi.asui.uidaho.edu/~kamikaze/doc/minsky.html>. Arquivo capturado em 14 de
dezembro de 2004.
______, Why People Think Computers Can’t. [online] Disponível na Internet via WWW.
URL: <http://web.media.mit.edu/~minsky/papers/ComputersCantThink.txt>. Arquivo
capturado em 8 de novembro de 2004.
MORENTE, Manuel Garcia. Fundamentos de Filosofia. São Paulo, Mestre Jou, 1980.
PASSOS, Eduardo H. O Sujeito Cognoscente entre o Tempo e o Espaço. Rio de Janeiro,
Instituto de Psicologia - UFRJ, 1992. (Tese de Doutorado não publicada).
PRIGOGINE, Ilya. A Nova Aliança: metamorfose da ciência, por Ilya Prigogine e Isabelle
Stengers. Brasília, Editora Universidade de Brasília, 1984.
SIMON, Herbert A. As Ciências do Artificial. Coimbra, Portugal, Ed. Armênio Amado,
1981.
______, The shape of automation for man and management. New York, Harpper e Row,
1965.
STORK, David. The End of an Era, The Beginning of Another? Hal, Deep Blue and
Kasparov.
[online]
Disponível
na
Internet
via
WWW.
URL:
<http://www.research.ibm.com/deepblue/learn/html/e.8.1.html>. Arquivo capturado em 14
de dezembro de 2004.
TAYLOR, Charles. “Embodied Agency”, In Henry Pietersma (Org.) Merleau-Ponty:
Critical Essays. Washington DC, University Press of America, 1989, pp. 1-21.
THOMPSON, Evan. The Mindful Body. In: Michael O’Donovan-Anderson (org) The
Incorporated Self – Interdisciplinary Perspectives on Embodiment. Lanham, Maryland,
Rowman & Littlefield Publishers, INC., 1996, pp. 127-144
TURING, Alan M. Computing Machinery and Intelligence. 1950. [online] Disponível na
Internet via WWW. URL: <http://www.abelard.org/turpap/turpap.htm>. Arquivo
capturado em 17 de dezembro de 2004.
VARELA, Francisco, THOMPSON, Evan, ROSCH, Eleanor. A Mente Incorporada. Porto
Alegre, Artes Médicas, 2003.
Download

universidade do estado do rio de janeiro instituto de medicina social