Departamento de Engenharias e Ciência da Computação – DECC Curso de Ciência da Computação Disciplina de Introdução à Informática (35-320) Prof. Ms. Paulo R. B. Betencourt MARCOS DE DESENVOLVIMENTO DA ARQUITETURA DE COMPUTADORES Centenas de computadores de diferentes tipos tem sido projetados e construídos durante a evolução do computador digital moderno. A maioria já foi esquecida, mas alguns tiveram um impacto significativo nas idéias modernas. Apesar dos computadores eletrônicos terem efetivamente aparecido somente na década de 40, os fundamentos em que se baseiam remontam a centenas ou até mesmo milhares de anos. Se levarmos em conta que o termo COMPUTAR, significa fazer cálculos, contar, efetuar operações aritméticas, COMPUTADOR seria então o mecanismo ou máquina que auxilia essa tarefa, com vantagens no tempo gasto e na precisão. Inicialmente o homem utilizou seus próprios dedos para essa tarefa, dando origem ao sistema DECIMAL e aos termos DIGITAL e DÍGITO. Para auxílio deste método, eram usados gravetos, contas e marcas na parede. 2.1 – A GERAÇÃO ZERO Na medida em que os cálculos foram se complicando e aumentando de tamanho, sentiuse a necessidade de um instrumento que viesse em auxílio, surgindo assim há cerca de 5.000 anos na Babilônia o Ábaco. Este era formado por fios paralelos e contas ou arruelas deslizantes, que de acordo com a sua posição, representava a quantidade a ser trabalhada. Os romanos usavam um ábaco que consistia em bolinhas de mármore que deslizavam numa placa de bronze cheia de sulcos. Isto gerou alguns termos matemáticos em latim: CALX significava mármore, logo CALCULUS era uma bolinha do ábaco, e fazer cálculos aritméticos era CALCULARE. A variante do ábaco mais conhecida é o "Soroban", ábaco japonês simplificado (com 5 contas por fio, agrupadas 4x1), ainda hoje utilizado, sendo que em uso de mãos treinadas continuam eficientes e rápidos para trabalhos mais simples. A primeira pessoa a construir uma máquina de calcular foi o cientista francês Blaise Pascal (1623-1662), em cuja honra atribuiu-se o nome da linguagem de programação Pascal. O artefato foi construído quando ele tinha 19 anos e foi projetado para ajudar seu pai, um coletor de impostos do governo francês. Era inteiramente mecânico, utilizava engrenagens e funcionava através de uma manivela operada manualmente. Tal máquina fazia as operações de soma e subtração baseada em 2 conjuntos de discos: um para a introdução dos dados e outro que armazenava os resultados, interligados por meios de engrenagens. A máquina utilizava o sistema decimal para os seus cálculos de maneira que quando um disco ultrapassava o valor 9, retornava ao 0 e aumentava uma unidade no disco imediatamente superior. A Pascalina, como ficou conhecida, foi a primeira calculadora mecânica do mundo. Pascal recebeu uma patente do rei da França para que lançasse sua máquina no comércio. A comercialização de suas calculadoras não foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter construído cerca de 50 versões. Máquinas de calcular mecânicas, descendentes da Pascalina, até a bem pouco tempo podiam ser encontradas em uso por algumas lojas. Passaram-se 30 anos e o matemático alemão Barão Von Leibnitz (1646-1716) construiu outra máquina mecânica, esta com capacidade de executar também as operações de multiplicação e divisão. As calculadoras da geração da Pascalina executavam somente operações seqüenciais, completamente independentes. A cada cálculo o operador deveria intervir, introduzindo novos dados e o comando para determinar qual operação deveria ser efetuada. Essas máquinas não tinham capacidade para tomar decisões baseadas nos resultados. Em 1801, Joseph Marie Jacquard, mecânico francês, sugeriu controlar máquinas de tecer por meio de cartões perfurados. Os cartões forneceriam os comandos necessários para a tecelagem de padrões complicados em tecidos. A máquina de Jacquard funcionou tão bem que milhares de tecelões desempregados se revoltaram e quase mataram o inventor. Os princípios de programação por cartões perfurados foram também demonstrados por Bouchon, Falcon e Jacques entre 1725 e 1745. Em 1786, o engenheiro J. Muller, planejou a construção de uma máquina para calcular e preparar tabelas matemáticas de algumas funções. Em 1822, o matemático e engenheiro inglês Charles Babbage (1792-1871) inventor do velocímetro, apresentou um projeto à Sociedade Real de Astronomia, baseado nos conceitos de Müller, Bouchon, Falcon, Jacques e no desenvolvimento que Jacquard efetuou com seus teares. O projeto consistia em uma grande calculadora mecânica que ele chamou de "calculador diferencial". O aspecto mais interessante de sua máquina de diferenças era seu método de saída: ele perfurava os resultados numa placa de cobre prenunciando os cartões perfurados e os primeiros discos óticos. Babbage, preocupado com os erros contidos nas tabelas matemáticas de sua época, construiu um modelo para calcular tabelas de funções (logaritmos, funções trigonométricas, etc.) sem a intervenção de um operador humano. Ao operador cabia somente iniciar a cadeia de operações, e a seguir a máquina tomava seu curso de cálculos, preparando totalmente a tabela prevista. Esta máquina baseava-se no princípio de discos giratórios e era operada por uma simples manivela. Em 1823 o governo britânico financiou a construção de uma nova versão mas não obteve resultado satisfatório, devido os limites do ferramental industrial da época. Babbage se viu obrigado a desenhar peças e ferramentas, retardando o desenvolvimento do projeto. Após 10 anos de trabalho, tudo que Babbage havia conseguido era uma pequena máquina de 3 registros e 6 caracteres, sendo que deveria ser, de acordo com o projeto, uma máquina de 7 registros e 20 caracteres cada, além de apresentar seus resultados impressos. Em 1833, Babbage, com o auxílio de Ada Byron King (1815-1852), projetou uma máquina que chamou de "Calculador Analítico", constituída de unidade de controle de memória, aritmética, de entrada e de saída. Sua operação era comandada por um conjunto de cartões perfurados, de modo que, de acordo com os resultados dos cálculos intermediários, a máquina poderia saltar os cartões, modificando dessa forma o curso dos cálculos. Babbage investiu toda sua fortuna pessoal e de seu filho, que com ele trabalhou durante anos, na construção de sua máquina Analítica, vindo a falecer em 1871, sem findar a construção. Hoje, estas partes da máquina construída por Babbage, encontram-se como peças de museu na Inglaterra. Ada Byron King (1815-1852), a condessa de Lovelace, filha do poeta Lord Byron, iniciou, junto com Babbage, o ambicioso projeto de construção da Máquina Analítica. Ada é uma das poucas mulheres a figurar na história do processamento de dados. Matemática talentosa, compreendeu o funcionamento da Máquina Analítica e escreveu os melhores relatos sobre o processo. Criou programas para a máquina, tornando-se a primeira programadora de computador do mundo. Dado a forma de organização da máquina analítica, pode-se dizer que com a sua máquina analítica de Babbage foi o pai (avô) do computador digital moderno. Os fundamentos lógicos que permitem a criação dos programas atuais foram dados pelo inglês George Boole (1815-1864). Em 1854, Boole publicou "An Investigation Into the Law of Thought", estabelecendo uma forma de armazenar e processar informações utilizando relações binárias. Um sistema binário pode apresentar todos os números, usando apenas os algarismos 0, 1 e as potências de 2, como 4 (ou 2 x 2), 8 (ou 2 x 2 x 2), 16 (2 x 2 x 2 x 2) e assim por diante. Nesse sistema de contagem, o número 12 é representado por 1100, ou seja, 1 bloco de 8, 1 bloco de 4, 0 bloco de 2 e 0 bloco de 1. Hermann Hollerith (1860-1929), da mesma forma que Babbage, inspirou-se no tear de Jacquard e inventou uma máquina exclusivamente para acumular e classificar informações. Antes de Hollerith, o Departamento de Censo dos Estados Unidos processava todos os dados manualmente. O censo de 1880 demorou 7 anos e meio para divulgar o resultado! Naquela época (e hoje também), o censo consistia em uma série de perguntas de múltipla escolha. Através disso, desejava-se saber, por exemplo : o número total de cidadãos, quantos tinham de 0 a 2 filhos, quantos moravam em determinada cidade, etc. Hollerich propôs, então, colocar as respostas de cada pessoa em um simples cartão perfurado. Simplificando, cada coluna representava uma pergunta. O furo em determinada coluna representava a resposta àquela pergunta. Os cartões eram lidos por um dispositivo que consistia em uma tábua de pequenos pinos montados sobre molas e que conduziam eletricidade. Quando eles entravam em contato com o cartão, somente os pinos que estivessem sobre os furos passavam. Cada um destes tocava, então, uma pequena cavidade com mercúrio, fechando o circuito elétrico. Cada cavidade estava ligada a um contador, que era acionado toda vez que um pulso elétrico era transmitido. O tabulador de Hollerith reduziu o tempo de processamento de dados do censo de 1890 dos Estados Unidos para "apenas" 2 anos e meio. Mais tarde, a firma de Hollerith prosperou ... e dela acabou surgindo nada menos que a IBM (International Business Machines Corporation), fundada em 1924 nos Estados Unidos. A partir da década de 30 foram feitas várias tentativas de substituir as partes mecânicas dos equipamentos por partes elétricas com o uso dos relés. O alto custo, o tamanho imenso e a baixa velocidade de processamento eram as desvantagens destas máquinas. Na Alemanha, Konrad Zuse concluiu em 1938, o primeiro modelo Z1, utilizando relés eletromagnéticos e a teoria binária. Zuse, que era alemão, tentou vender seu Z1 ao governo para uso militar. Mas os nazistas disseram que a guerra estava "praticamente ganha" e o desprezaram, provavelmente mudando o curso da história. Logo depois, nos EUA, duas pessoas também projetaram calculadoras, John Atanosoff, no Iowa State College, e George Stibbitz, no Bell Labs. A máquina de Atanosoff era surpreendentemente avançada para sua época. Ela utilizava uma aritmética binária e possuía capacitores para a memória que eram periodicamente refrescados para evitar que se descarregassem. As pastilhas modernas de RAM dinâmica, funcionam exatamente da mesma maneira. O próximo passo foi dado por um recém doutor da universidade de Harward chamado Howard Aiken. Ele obteve apoio da marinha e da IBM para desenvolver um computador programável, baseado em relés e em fitas perfuradas, mas sem usar o sistema binário de numeração. A sua primeira máquina, o MARK I que media 15 m x 2,5 m, foi terminado em Harward em 1944, ela tinha 72 palavras de 23 dígitos decimais cada e tinha um tempo de ciclo (isto é, de instrução) de 6 segundos. Para entrada e saída, utilizava-se fita de papel perfurado. Quando Aiken acabou de construir seu sucessor, o MARK II, computadores a relés estavam obsoletos. A era da eletrônica tinha começado. 2.2 – A PRIMEIRA GERAÇÃO - VÁLVULAS (1945 - 1955) A substituição dos relés por válvulas (que foram inventadas antes) permitiu a criação da primeira geração de computadores modernos. O problema era que as válvulas levavam muito tempo até se esquentarem e gastavam muita energia elétrica. Estes computadores eram frágeis, com válvulas de vidro e filamentos bem finos, mas ao mesmo tempo pesavam várias toneladas. Sua manutenção era cara e a sua programação era feita ligando-se fios ou, em modelos mais aperfeiçoados, por cartões perfurados. Todo o circuito era interligado por quilômetros de fios instalados manualmente. Usando válvulas os computadores atingiram velocidades na ordem de milissegundos (1 milissegundo equivale a 1 segundo dividido por mil = 1/1.000). O estímulo para o computador eletrônico foi a Segunda Guerra Mundial. Na primeira fase da guerra os submarinos alemães estavam massacrando os navios britânicos graças as mensagens criptografadas enviadas por um aparelho denominado ENIGMA. Após conseguir uma destas máquinas o governo britânico montou um laboratório ultra-secreto que construiu um computador eletrônico denominado COLOSSUS que decodificava as mensagens alemãs e antecipava os próximos passos do inimigo. O COLOSSUS ficou operacional em 1943, mas como seu projeto era segredo militar sua linha não teve repercussão. Vale salientar entretanto que foi o primeiro computador digital do mundo. Ainda durante a guerra John Mauchley (1907 – 1980) apresentou ao exército americano uma proposta para construir um computador eletrônico, a qual foi aceita em 1943. Mauchley e seu aluno de pós-graduação Presper Eckert (1919 – 1995) construíram um computador eletrônico denominado ENIAC (Eletronic Numerical, Integrator and Computer, ou seja, Computador e Integrador Numérico Eletrônico) Ela construído de 18.000 válvulas e 1.500 relés, pesava 30 toneladas e consumia 140 quilowats de potência. Possuia 20 registradores, cada um capaz de armazenar um decimal de 10 dígitos. Sua programação era feita com 6.000 chaves multiposicionais e da interconexão de um grande número de soquetes e cabos. A máquina ficou pronta somente em 1946, um pouco tarde para o uso em seus objetivos originais. O ENIAC provou, com sucesso, que era uma máquina de emprego geral ao ser utilizado para realização de cálculos em relação ao uso da bomba-H, uma tarefa bem diferente daquela a qual havia sido projetado. No entanto era uma máquina de difícil operação, e de manutenção dispendiosa devido a sucessiva queima de válvulas. Um curso de verão sobre o funcionamento e programação do ENIAC despertou uma explosão no interesse em construir grandes computadores digitais. o primeiro computador operacional foi o EDSAC (1949) construído por Maurice Wilkes. Dentre outros temos o JOHNIAC, o WEIZAC e o MANIAC. Enquanto Eckert e Mauchly iniciaram a construção de um novo computador, o EDVAC, um dos colaboradores do projeto ENIAC, o matemático John von Neumann (1903 – 1957), também iniciou outro projeto aperfeiçoando o computador inicial, denominado IAS, nome do local onde von Neumann foi trabalhar, o Institute for Advanced Studies da universidade de Princeton. É creditada a von Neumann a definição de uma arquitetura de computadores com programa armazenado que, até os dias de hoje, é empregada em máquinas modernas. O IAS foi desenvolvido a partir de um relatório feito pelo próprio von Neumann em que ele discutia como reduzir os inconvenientes do ENIAC, tais como a dificuldade de programar e relocação de fios (que deveria ser feita com os mesmos elementos que representavam os dados eletronicamente) e o tipo de aritmética (substituindo a aritmética decimal pela binária devido a dificuldade de se representar confiavelmente 10 níveis de tensão em vez de 2). Von Neumann é considerado o “pai” do computador moderno por ter apresentado as seguintes proposições para a concepção dos computadores: - utilização de aritmética binária ao invés de aritmética decimal; - organização funcional do computador em quatro unidades principais: a memória, a unidade aritmética e lógica, a unidade de controle e parte de E/S; - construção de computadores de programa armazenado, ou seja, armazenar tanto os dados como também os próprios programas na memória; - Ciclo de instrução repetitivo, isto é, a execução de cada instrução deveria realizar-se a partir de uma seqüência conhecida de etapas, as quais eram repetidas para execução da próxima instrução e assim sucessivamente. O IAS possuía as seguintes características básicas (embora pertença a primeira geração de computadores e tenha sido, para os padrões atuais, uma máquina limitada, o IAS é fundamental no estudo de arquitetura de computadores, pois a grande maioria das especificações permanece válida até o momento): a) era construído com quatro unidades principais: a memória, a UCP, a UC e parte de E/S; b) possuía memória com 1.000 posições denominadas palavras, cada uma podendo armazenar um valor com 40 dígitos binários (bits); c) tanto os dados (valores numéricos) quanto as instruções eram representados na forma binária e armazenados na memória; d) possuía 21 instruções de 20 bits cada uma, constituídas de dois campos com 8 bits e, denominados código de operação; e o outro com 12 bits denominado endereço, para localizar cada uma das 1.000 palavras, endereços 000 a 999; e) operava em modo repetitivo, executando um ciclo de instrução em seguida ao outro. Cada ciclo constituí em dois subciclos: o ciclo de busca, onde o código da operação da próxima instrução era trazido da memória para o IR e a parte de endereço da instrução era armazenado no MAR (Memory Address Registes). Tão logo o código de operação estivesse armazenado na IR, se iniciava o outro subciclo, o ciclo de execução. O circuito de controle interpretava o código de operação e gerava os sinais apropriados para acarretar o movimento de dados ou a realização de uma operação na ULA. Percebe-se que apesar da evolução das máquinas em termos de velocidade, miniaturização, capacidade de armazenamento, etc a arquitetura básica permanece a mesma. Em 1949 a empresa fundada por Mauchly e Eckert construiu com sucesso o primeiro computador para fins comerciais, o UNIVAC I, adquirido pelo censo americano. Em 1953 a IBM, até então mais voltada para a construção e comercialização de equipamentos de processamento por cartão perfurado, lançou seu primeiro computador eletrônico de programa armazenado, o IBM-701, voltado para o processamento científico. Em 1955 a IBM modificou o hardware do 701 para adaptá-lo ao uso comercial, lançando o IBM-702 e em 1956 foi lançado o IBM-704. Nesta altura a IBM já se destacava no mercado em relação à UNIVAC, que vinha sendo a 1a desde 1950. 2.3 – A SEGUNDA GERAÇÃO - TRANSISTORES (1955 - 1965) A eletrônica moderna surgiu em 23 de dezembro de 1947, quando John Bardeen (1908-1991), Walter Brattain (1902-1987), e William Shockley (19101989), cientistas dos Laboratórios Bell, ligados à American Telephone & Telegraph (AT&T), criam o transistor, que faz as mesmas funções das válvulas a um custo bem menor. Além de serem menores e mais baratos do que as válvulas, os transistores consumiam muito menos energia elétrica, eram mais rápidos, menos frágeis e não precisavam "esquentar" antes do funcionamento. Por suas características físicas e elétricas o transistor era menos sujeito a defeitos e isto possibilitou montagens de grandes circuitos em placas compactas de fiação impressa, o que diminuiu a poucos metros a extensão dos fios. Mas foi só em meados da década de 50 é que chegam ao mercado os primeiros computadores totalmente transistorizados, bem menores do que os movidos a válvula e com preço acessível para as grandes empresas e universidades. A primeira companhia a lançar comercialmente um computador transistorizado foi a NCR, e logo em seguida a RCA. As vantagens destas máquinas sobre suas antecessoras eram várias: mais baratas, menores, dissipavam menos calor, e possuíam um menor consumo de energia. O primeiro computador disponível comercialmente foi o UNIVAC, lançado em 1955 pela Eckert-Mauchly Computer Corporation. Sua unidade de aritmética era limitada e a entrada serial, trabalhando com um bit de cada vez, e a capacidade de memória interna era de aproximadamente 1.000 palavras. Esta nova geração de computadores teve a participação ativa da IBM que já se firmava como a mais importante companhia de produção de máquinas científicas. Ela transformou a séria 700 em 7000, esta transistorizada. O 7090 e mais tarde o 7094 possuía um ciclo de instrução de dois microsegundos e 32K palavras de 36 bits. Além do domínio na computação científica a IBM também produziu uma máquina comercial de enorme sucesso, o IBM 1401. Com esta geração de computadores, outros fatos historicamente importantes aconteceram: O aparecimento de outra companhia fabricante de computadores, a DEC. A DEC lançou o seu primeiro computador, o PDP-1, uma máquina de pequeno porte, comparada aos computadores de até então, e com excelente desempenho na sua faixa de preço. Para se ter uma idéia o PDP-1 custava U$120.000 enquanto um IBM custava milhões. Comercialmente a DEC foi líder por um longo período (primeiro com os PDP e, em seguida, com a família VAX). O PDP-8 trouxe uma grande inovação, o barramento, um conjunto de fios paralelos utilizados para conectar os componentes do computador; O aparecimento de unidades aritméticas e lógicas mais complexas, assim como unidades de controle; Aparecimento de linguagens de programação de nível superior ao das linguagens assembly da época (Algol 60 - precursor do pascal; FORTRAN-58; COBOL- 59); O Surgimento de outra companhia, a CDC, que lançou em 1964 o CDC 6600 voltado primariamente para o processamento científico. Era uma máquina com palavras de 60 bits e vários processadores indenpendentes, num total de 10 que garantiam alto paralelismo e liberava a CPU de várias tarefas, tornando o sistema bastante eficiente. 2.4 – A TERCEIRA GERAÇÃO - CIRCUITOS INTEGRADOS (1965 - 1980) Em 1959, Robert Noyce (1927–1990), um físico da Fairchild Semiconductor Corporation da Califórnia, e, independentemente e no mesmo ano, Jack St. Clair Kilby (1923- ), da Texas Instruments, anunciaram a criação do circuito integrado. A invenção do circuito integrado possibilitou que dezenas de transistores, resistores, capacitores fossem colocados sobre uma base de silício (um material semicondutor), chamado de chip. Este encapsulamento permitiu construir computadores menores, maios rápidos e mais baratos. Por volta de 1964 a IBM, fabricante líder tinha o problema de suas duas máquinas de sucesso serem incompatíveis entre si. No momento de substituir estas duas séries a IBM deu um passo radical e lançou uma única linha de produtos o System/360, baseada em circuitos integrados, projetada tanto para a computação científica quanto comercial. Este sistema incorporou diversas inovações, que se tornaram um marco histórico em termos de computação e consolidaram a posição já obtida pela IBM como primeira fabricante de computadores do mundo. Entre as inovações, podemos citar: a) O conceito de família de computadores, em vez de máquina individual. Este conceito permite que o fabricante ofereça o mesmo tipo de máquina com diferentes capacidades e preços; b) A utilização da unidade de controle com microprogramação em vez das tradicionais unidades de controle no hardware; c) O emprego de uma técnica chamada de multiprogramação, pela qual vários programas compartilham a memória principal e dividem o uso da CPU, dando a impressão ao usuário de que estão sendo executados simultaneamente; d) Elevada capacidade de processamento (para a época) com palarva de 32 bits e ciclo de instrução de até 250 nanosegundos, bem como grande capacidade de armazenamento da memória principal 16 Mbytes; e) Memória principal orientada a byte, isto é, cada célula de memória armazena 8 bits de informação independente do tamanho da palavra de dados; f) O lançamento de um programa (ou melhor, conjunto deles) gerenciador de recursos de hardware, o sistema operacional OS/360. Além da família 360 (da IBM), está época de LSI (Low Scale Integration) presenciou também o lançamento de outro minicomputador DEC, com circuitos integrados, memória principal orientada a byte e palavra de 16 bits, o PDP-11, uma das máquinas mais famosas de sua categoria. Seu sucessor, o VAX-11, também teve o esmo sucesso, especialmente no ambiente universitário. Em 1968, Robert Noyce e Gordon Moore fundam, nos Estados Unidos, a Intel Corporation, que criou, em 1969, o chip de memória de 1 KB. Gordon Moore, durante um artigo para uma revista especializada afirmou que a integração de transistores em um circuito integrado dobrava de capacidade a cada 24 meses, mantendo-se os mesmos custos de fabricação. Esta afirmação, válida até os dias atuais conforme pode ser vista na figura abaixo, ficou conhecida posteriormente como Lei de Moore. 2.5 – A QUARTA GERAÇÃO - COMPUTADORES PESSOAIS E VSLI (1980 - ????) Nos anos 80, a VSLI (Very Large Scale Integration) tornou possível colocar dezenas de milhares, centenas de milhares e finalmente milhões de transistores em uma única pastilha. Antes do PDP-1 os computadores eram tão grandes que as companhias e universidades tinham que ter departamentos especiais, denominados centros de computação para operá-los. Em maio de 1969, a empresa japonesa ETI contratou a Intel Corporation para produzir, em um único circuito integrado, o circuito de uma calculadora completa. Assim nasceu, em 1971, criado por Marcian E. Hoff Jr., um engenheiro da Intel, o Intel 4004, um microprocessador de 4 bits e 108 KHz, que possuía 2.300 transistores, velocidade de 60.000 operações por segundo e preço inicial de US$ 200. O mundo nunca mais foi o mesmo desde então. O primeiro microcomputador (o termo "microcomputador" surgiu somente em abril de 1973) a utilizar o Intel 4004 foi o MCS-4. A partir de 1980, as evoluções tecnológicas se deram principalmente na miniaturização dos componentes internos dos computadores e os avanços ficaram relacionados com a ESCALA DE INTEGRAÇÃO dos circuitos integrados, ou seja, em quantos transistores se pode colocar em um único chip. Exemplos: * LSI: Large Scale of Integration - densidade: 1k memórias pequenas, alguns processadores (1971 – Intel 4004) * VLSI: Very Large Scale of Integration - densidade: 1M 1976 – Cray I 1977 – Apple II 1981 – IBM-PC 1984 – Macintosh (Apple) * ULSI: Ultra Large Scale of Integration - densidade: 10 a 100M 1993 – Pentium (Intel) * UVLSI: Ultra Very Large Scale of Integration – densidade: > 100M Power 603 Pentium 3 2.6 - Quinta Geração -??? Nesse final de século surge um novo ramo na informática, a inteligência artificial, que estuda métodos de simular o pensamento humano nos computadores com o objetivo de substituir o homem pela máquina em atividades mecanizadas. Alguns computadores já funcionam com modelos de raciocínio e comportamento humanos, auxiliando médicos em diagnósticos, praticando diversos jogos e compondo músicas. Há também o COG, protótipo de robô que está sendo projetado e construído pelo Instituto de Tecnologia de Massachusetts (MIT). Sua forma é semelhante à do homem: tem cabeça, olhos e braços. O robô, cujo sistema nervoso artificial é 64 vezes mais potente do que um Macintosh, irá simular as fases de crescimento do homem, seus pensamentos e sentimentos. Processadores Quânticos Processadores óticos Processadores Biológicos