Arquitetura e Montagem I ESCOLA Arquitetura e Montagem I 1 Escola Alcides Maya - Primeiro Módulo 2 Arquitetura e Montagem I Sumário Arquitetura e Montagem I 1 Arquitetura dos Computadores..................................................................................................... 4 2 Tensão, Corrente e Potência........................................................................................................... 4 3 Equipamentos de proteção.............................................................................................................. 8 4 Fontes de Alimentação................................................................................................................... 10 5 BIOS................................................................................................................................................ 28 6 Placa Mãe........................................................................................................................................ 31 7 Portas e Conectores........................................................................................................................ 39 8 Processadores................................................................................................................................. 44 9 Memórias RAM.............................................................................................................................. 67 10 Discos Rígidos............................................................................................................................... 72 3 Escola Alcides Maya - Primeiro Módulo 1 Arquitetura dos Computadores PC significa “Personal Computer”, ou “Computador pessoal”. Os computadores que hoje são chamados de PCs são derivados do IBM PC, criado no início dos anos 80. Os PCs modernos não são mais exclusividade de um pequeno grupo de grandes fabricantes. Como todas as peças que formam um PC são encontradas com facilidade no comércio, qualquer pequena loja pode ser produtora de PCs. Muitos usuários também constroem seus próprios PCs, basta que tenham conhecimento técnico para tal. Qualquer PC é composto pelos mesmos componentes básicos: processador, memória, HD, placa-mãe, placa de vídeo e monitor. Essa mesma divisão básica se aplica também a outros aparelhos eletrônicos, como palmtops e celulares. A principal diferença é que neles os componentes são integrados numa única placa de circuito (muitas vezes no mesmo chip) e são utilizados chips de memória flash no lugar do HD. Antigamente, a placa-mãe funcionava apenas como um ponto central, contendo os slots e barramentos usados pelos demais componentes. Além do processador e pentes de memória, era necessário comprar a placa de vídeo, placa de som, modem, rede, etc. Cada componente era uma placa separada. Com a integração dos componentes, a placa-mãe passou a incluir cada vez mais componentes, dando origem às placas “tudo onboard” que utilizamos atualmente (existem placas que já vêm até com o processador e chips de memória!). Isso permitiu que os preços dos PCs caíssem assustadoramente, já que, com menos componentes, o custo de fabricação é bem menor. Para quem quer mais desempenho ou recursos, é sempre possível instalar placas adicionais, substituindo os componentes onboard. Com o micro montado, o próximo passo é instalar o sistema operacional e programas, que finalmente vão permitir que ele seja utilizado da maneira que o usuário desejar. 2 Tensão, Corrente e Potência A Tensão elétrica é a diferença de potencial elétrico entre dois pontos. Sua unidade de medida é o volt (V) e o seu nome é em homenagem ao físico italiano Alessandro Volta. A tensão elétrica é a força que faz a movimentação dos elétrons ou seja. No Brasil. No Brasil a palavra “voltagem” é usada de forma errada, já que o modo correto de se referir a quantidade de Volts é tensão. As tensões da rede no Brasil são de 127V e 220V. Grande parte dos computadores possuem uma chave comutadora atrás do gabinete possibilitando a transição das tensões. Corrente elétrica é um movimento ordenado de cargas elementares. Ela pode ser um simples jato de partículas no vácuo, como acontece em uma tela de TV comum, em que um feixe de elétrons é lançado contra a tela. No entanto, na maioria dos casos, a corrente elétrica não ocorre no vácuo, mas sim no interior de um condutor. A unidade de medida é o ampér . Potência elétrica é o trabalho realizado pela corrente elétrica em um determinado intervalo de tempo, ou seja, é a quantidade de energia térmica que passa durante uma quantidade de tempo. A unidade de medida é o Watts. 4 Arquitetura e Montagem I A potência utilizada pelo computador é em função de quanto de energia ele utiliza ou dissipa, dado pela equação P=V.I, onde P é potência, V é tensão e I é corrente. Para saber quanto de potência o computador consome é necessário somas todas as potências dos componentes internos do gabinete. Por exemplo, um processador consome em média de 40W a 70W. Um disco rígido, entre 10 e 20 Watts. Rede elétrica A rede elétrica é um assunto muito controverso na área de informática. Mas se um computador for ligado a uma rede elétrica inadequada, pode haver danos ao equipamento e inclusive perigo aos usuários. Nas residências ou escritórios, as redes de energia apresentam dois fios, sendo um deles denominado como fase e o outro como neutro. A tensão existentes nessas redes elétricas é normalmente de 110/127V ou 220V, variando conforme a cidade em questão. O computador pode ser ligado em qualquer uma das redes, funcionamento perfeitamente. Porém, os fabricantes dos componentes dos computadores exigem que as redes elétricas tenham um terceiro fio, chamado de terra. Este fio é realmente ligado ao solo, segundo determinadas especificações, de forma a fazer o aterramento, pois este protege contra interferências e choques elétricos os computadores. Um bom aterramento é conseguido enterrando uma haste metálica, normalmente de cobre no solo. O tamanho desta haste vai depender do solo a ser utilizado, em ferragens é encontrado normalmente em tamanhos que variam entre 1m e 2,5m. Na ponta desta haste é conectado um fio que será levado até as tomadas. Este tipo de aterramento pode ser utilizado para qualquer equipamento elétrico, porém, recomenda-se utilizar um aterramento exclusivo para os computadores. Pode-se, ainda, obter o aterramento ligando-se o fio às partes metálicas existentes na casa, tubulações de água, tubulações da própria rede elétrica, porém este tipo de aterramento não tem sua eficiência garantida. A tomada que fica na parede, deve ficar com três terminais, os dois tradicionais fase e neutro mais o terra. Requisitos para um bom funcionamento A tensão da rede elétrica costuma variar bastante dos 115V necessários para o funcionamento normal, qualquer variação muito brusca desse valor pode causar graves problemas. Existem três problemas com a eletricidade da rede: tensão excessiva, tensão insuficiente e ruídos. Excesso de tensão Os excessos de tensões são picos de alta potência semelhantes a raios que invadem o computador, podendo danificá-lo. Em um grande espaço de intervalo de tempo, se a tensão variar em até 10% do seu valor nominal, pode se dizer que as condições de funcionamento aproximam-se do ideal. Nessas condições, os equipamentos que fazem a estabilização atuam eficientemente. As características mais importantes dos dispositivos de proteção contra o excesso de tensão são a rapidez e a quantidade de energia que dissipam, geralmente, quanto mais rápido o tempo de resposta, melhor. Quanto maior a capacidade de absorção de energia de um dispositivo de proteção, melhor, sendo que essa capacidade de absorção é medida em Watts por segundo. Tensão insuficiente É uma tensão inferior a necessária. Elas podem variar de quedas, que são perdas de alguns volts, até a falta completa, chamada de blackout. As quedas momentâneas ou mesmo os blackouts, não chegam a ser problemáticos a menos que durem algumas dezenas de milissegundos. A maioria dos computadores são projetados de modo a suportar quedas de tensão prolongadas de até 20% sem desligar. Quedas maiores ou blackouts farão com que eles sejam desligados. 5 Escola Alcides Maya - Primeiro Módulo Ruídos O ruído é um problema na fonte de alimentação da maioria dos equipamentos eletrônicos, incluindo os computadores. Ruído é o termo que usamos para identificar todos os sinais espúrios que os fios captam ao percorrer campos eletromagnéticos. Em muitos casos esses sinais podem atravessar os circuitos de filtragem das fontes de alimentação e interferir com os sinais normais do equipamento. Instalação elétrica A instalação elétrica vai refletir em um duradouro e confiável funcionamento dos equipamentos, evitando principalmente problemas esporádicos ou intermitentes, muitas vezes difíceis de descobrir sua fonte. As posições dos fios fase, neutro e terra devem obedecer aos padrões, como mostra a figura abaixo: Segundo os padrões brasileiros (NBR), olhando a tomada com o pino terra para baixo, o fio fase deve ficar sempre do lado direito da tomada, o fio neutro deve ficar do lado esquerdo e o fio terra na parte inferior. O aterramento é de extrema importância, para evitar todos os problemas que a falta ou o mau aterramento podem causar. Em um aterramento ideal, a diferença de potencial entre o terra e o neutro não pode variar mais de 5 Volts AC. Já a diferença de potencial entre o fio fase e o fio neutro, deverá ser de 127V ou de 220V, caso o padrão da rede elétrica da cidade seja 220V. Se o padrão da cidade for de 127V, não será encontrado fase e neutro e sim dois fios fases diferentes na tomada. Ainda, se for verificada a diferença de potencial entre o fio fase e o fio terra, o valor encontrado deverá ser a subtração do valor encontrado no diferencial de fase e neutro pelo valor encontrado entre neutro e terra. 6 Arquitetura e Montagem I Esquema ideal de aterramento: Eletricidade Estática A possibilidade de se ter descargas eletrostáticas é bastante grande, atingindo centenas e até milhares de volts. Essas descargas podem causar danos irreversíveis nos componentes eletrônicos. Apenas um toque com o dedo poderá causar danos definitivos ou parciais, responsáveis por funcionamentos intermitentes. Deve-se evitar encostar nos componentes, circuitos ou contatos metálicos de uma placa ou dispositivo, procurando segurá-los pela carcaça ou pelas bordas. O mais recomendado é o uso de pulseiras conectadas a um local aterrado, normalmente a carcaça do equipamento, descarregando assim a eletricidade estática. Outra maneira é ficar encostado na carcaça do equipamento enquanto está sendo feito a manuseio dos dispositivos ou placas, mas para isso, é importante que o cabo de alimentação esteja conectado a rede elétrica aterrada para garantir o aterramento quando estivermos efetuando a descarga eletrostática. 7 Escola Alcides Maya - Primeiro Módulo 3 Equipamentos de proteção Fusível O fusível é um componente de proteção dos circuitos eletrônicos contra um curto circuito e ou uma sobre carga. Existem vários tipos de fusível, sendo o mais conhecido os de forma cilíndrica de vidro, como mostra a figura. Para sabermos exatamente qual fusível deve ser utilizado no equipamento, devemos dividir a potência do equipamento pela tensão da rede elétrica, por exemplo, se utilizamos um estabilizador de 1000VA ou 1KVA, e temos uma rede elétrica em 110V fazemos: 1000VA/110V=9,09A Por não haver um fusível de 9,09A, eleva-se o valor para a próxima casa decimal, ou seja, 10A. Filtro de linha O filtro de linha é utilizado para proteger seu equipamento, removendo ruídos e picos provenientes da rede elétrica. Além de remover esses ruídos e picos, o filtro de linha deve ter outras duas funções, a primeira é garantir que todos os seus equipamentos estão aterrados, pois normalmente temos apenas uma tomada de 3 pinos, assim utilizando o filtro teremos mais tomadas com o aterramento. A segunda função é a proteção contra curtocircuito e sobrecarga de tensão. A maioria dos filtros de linha têm um disjuntor ou fusível responsável por desligar a alimentação elétrica caso a corrente total exigida por seu equipamento seja maior do que a correte rotulada no mesmo. Porém, hoje no mercado praticamente todos os modelos de filtro de linha não tem suas funções garantidas, sendo eles utilizados apenas como uma extensão, pois eles não tem componentes que possam fazer a função de filtro. 8 Arquitetura e Montagem I Estabilizador O estabilizador é um equipamento eletrônico de proteção, responsável pela correção dos problemas existentes na rede elétrica, como a sobretensão, subtensão e os transientes, fornecendo assim uma alimentação estável e segura para os equipamentos eletrônicos. A grande parte dos estabilizadores vendidos hoje no Brasil também possuem um filtro de linha. Os estabilizadores, bem como a maioria dos equipamentos de proteção, têm sua potência medida em Volt Ampér (VA), sendo os mais populares de 300VA, porém os equipamentos eletrônicos têm sua potência medida em Watts. Para que possamos saber se o equipamento de proteção suporta os nossos equipamentos eletrônicos, precisamos saber qual o fator de potência (FP) do equipamento de proteção, ou seja, quanto realmente da potência dele é disponibilizado para o uso, já que uma parte é perdido em calor por exemplo. Cada equipamento tem o seu fator de potência diferente, após descoberto o fator de potência do equipamento efetuamos o seguinte cálculo: W=VA*FP. Por exemplo, se tivermos um estabilizador de 300VA e o Fator de potência dele for de 70% aplicamos estes valores a fórmula: W=300*0,7 Nesse exemplo o estabilizador suporta até 210W de potência. No-Break O no-break é um dispositivo semelhante ao estabilizador, porém oferece uma proteção extra ao seu equipamento. No caso da falta de energia elétrica, o no-break continua alimentando o seu computador para que as informações possam ser salvas e o computador desligado de forma adequada. Essa alimentação é provida por uma bateria, que fica sendo carregada enquanto a rede elétrica está funcionando corretamente. Essa bateria possui uma autonomia, que em geral não é muito grande, por esse motivo recomenda-se que se ligue somente o essencial no no-break, ou seja o gabinete e o monitor assim a autonomia da bateria fica menos prejudicada. Os no-breaks são classificados em dois tipos: off-line e on-line. Os no-breaks off-line são os mais baratos e apresentam um retardo em seu acionamento. Quando a luz acaba, o no-break demora um tempo para detectar que a luz acabou e acionar a bateria. Embora esse retardo seja pequeno, pode afetar o funcionamento de equipamentos mais sensíveis. Um tipo de no-break off-line muito comum é o line interactive. Um cuidado que precisamos ter ao utilizar um no-break off-line é que estes equipamentos não funcionam como estabilizador, tendo que ser adquirido em separado. Há os no-breaks on-line não oferecem qualquer tipo de retardo no acionamento da bateria quando a luz acaba, pois estão de forma integral alimentando os equipamentos ligados a ele pelas baterias, além de funcionarem como estabilizador sendo, portanto, melhores do que os no-breaks off-line. 9 Escola Alcides Maya - Primeiro Módulo 4 Fontes de Alimentação Neste capítulo explicaremos tudo o que você precisa saber sobre as fontes de alimentação para PCs, incluindo padrões, eficiência, correção do fator de potência (PFC), barramentos virtuais, proteções, ripple e ruído e muito mais. Você aprenderá que a potência de uma fonte não deve ser o único fator a ser levado em consideração na hora da compra de uma fonte de alimentação. Antes de continuarmos, vamos explicar exatamente qual é o papel de uma fonte de alimentação. Por se tratar de um dispositivo elétrico o computador precisa de eletricidade para que todos os seus componentes funcionem de forma adequada. O dispositivo responsável por prover eletricidade ao computador é a de fonte de alimentação. De forma bastante sucinta poderíamos dizer que a principal função da fonte de alimentação é converter a tensão alternada fornecida pela rede elétrica presente na tomada de sua casa ou escritório (também chamada CA ou AC) em tensão contínua (também chamada CC ou DC). Em outras palavras, a fonte de alimentação converte os 110 V ou 220 V alternados da rede elétrica convencional para as tensões contínuas utilizadas pelos componentes eletrônicos do computador, que são: +3,3 V, +5 V, +12 V e -12 V (tensões alternadas variam pelo mundo e mesmo no Brasil variam de cidade a cidade; durante este tutorial nós usaremos o termo “110 V” para nos referenciarmos às tensões de 110 V, 115 V e 127 V, já quando usarmos o termo “220 V” estamos nos referenciando às tensões de 220 V, 230 V e 240 V. O Japão é o único país cuja tensão alternada está fora deste intervalo, operando a 100 V. A fonte de alimentação também participa do processo de refrigeração do micro, como explicaremos depois. Existem dois tipos básicos de fonte de alimentação: linear e chaveada. As fontes de alimentação lineares pegam os 110 V ou 220 V da rede elétrica e, com ajuda de um transformador, reduzem esta tensão para, por exemplo, 12 V. Esta tensão reduzida, que ainda é alternada, passa então por um circuito de retificação (composto por uma série de diodos), transformando esta tensão alternada em tensão pulsante. O próximo passo é a filtragem, que é feito por um capacitor eletrolítico que transforma esta tensão pulsante em quase contínua. Como a tensão contínua obtida após o capacitor oscila um pouco (esta oscilação é chamada “ripple”), um estágio de regulação de tensão é necessário, feito por um diodo zener (normalmente com a ajuda de um transistor de potência) ou por um circuito integrado regulador de tensão. Após este estágio a saída é realmente contínua. Embora fontes de alimentação lineares trabalhem muito bem para aplicações de baixa potência – telefones sem fio, por exemplo –, quando uma alta potência é requerida, fontes de alimentação lineares podem ser literalmente muito grandes para a tarefa. O tamanho do transformador e a capacitância (e o tamanho) do capacitor eletrolítico são inversamente proporcionais à freqüência da tensão alternada na entrada da fonte: quanto menor a freqüência da tensão alternada maior o tamanho dos componentes e vice-versa. Como fontes de alimentação lineares ainda usam os 60 Hz (ou 50 Hz, dependendo do país) da freqüência da rede elétrica – que é uma freqüência muito baixa –, o transformador e o capacitor são muito grandes. 10 Arquitetura e Montagem I Construir uma fonte de alimentação linear para PCs seria loucura, já que ela seria muito grande e muito pesada. A solução foi o uso de um conceito chamado chaveamento em alta freqüência. Em fontes de alimentação chaveadas em alta freqüência a tensão de entrada tem sua freqüência aumentada antes de ir para o transformador (tipicamente na faixa de KHz). Com a freqüência da tensão de entrada aumentada, o transformador e os capacitores eletrolíticos podem ser bem menores. Este é o tipo de fonte de alimentação usada nos PCs e em muitos outros equipamentos eletrônicos, como aparelho de DVD. Tenha em mente que “chaveada” é uma forma reduzida de se falar “chaveamento em alta freqüência”, não tendo nada a ver se a fonte tem ou não uma chave liga/desliga. A fonte de alimentação talvez seja o componente mais negligenciado do computador. Normalmente na hora de comprar um computador, só levamos em consideração o tipo e o clock do processador, o modelo da placamãe, o modelo da placa de vídeo, a quantidade de memória instalada, a capacidade de armazenamento do disco rígido, e esquecemo-nos da fonte de alimentação, que na verdade é quem fornece o “combustível” para que as peças de um computador funcionem corretamente. Uma fonte de alimentação de boa qualidade e com capacidade suficiente pode aumentar a vida útil do seu equipamento e reduzir sua conta de luz (nós explicaremos o porque disso quando falarmos de eficiência). Para se ter uma idéia, uma fonte de alimentação de qualidade custa menos de 5% do preço total de um micro. Já uma fonte de alimentação de baixa qualidade pode causar uma série de problemas intermitentes, que na maioria das vezes são de difícil resolução. Uma fonte de alimentação defeituosa ou mal dimensionada pode fazer com que o computador trave, pode resultar no aparecimento de setores defeituosos (“bad blocks”) no disco rígido, pode resultar no aparecimento da famosa “tela azul da morte” e resets aleatórios, além de vários outros problemas. Falaremos sobre os aspectos básicos que todos os usuários devem saber. Se você quiser aprender mais sobre os componentes internos da fonte de alimentação nós recomendamos que você leia a continuação do presente tutorial, Anatomia das Fontes de Alimentação Chaveadas, one explicamos em detalhes como os principais componentes de dentro da fonte funcionam. Conexão CA A primeira coisa que você deve saber é que sua fonte de alimentação precisa ser compatível com a tensão CA usada em sua cidade. As tensões mais comuns são “110 V” (que abrange tensões próximas como 115 V e 127 V) e “220 V” (que abrange tensões próximas como 230 V e 240 V). A maioria das fontes de alimentação tem uma chave 110 V/220 V ou então pode ser do tipo “automática”, “bivolt” ou “auto range”, o que significa que a fonte pode funcionar em qualquer tensão CA (normalmente entre 100 V e 240 V; a faixa de operação suportada está impressa na etiqueta da fonte de alimentação em um campo chamado “AC Input” ou “Entrada CA”) e por essa razão fontes com seleção automática de tensão não têm uma chave 110 V/220 V. Normalmente os fabricantes fazem a seleção automática de tensão através do circuito PFC ativo. Portanto todas as fontes de alimentação com PFC ativo são do tipo “bivolt” e não têm uma chave 110 V/220 V. Apenas raríssimas fontes com seletor automático de tensão não terão PFC ativo. Claro que falaremos mais sobre este circuito depois. Além disso, nem todas as fontes de alimentação que não têm uma chave 110 V/220 V são “automáticas”. Algumas fontes podem operar apenas em determinada tensão e este caso é o mais comum em algumas fontes voltadas para o mercado europeu, que só funcionam em 220 V. Portanto se você vir uma fonte de alimentação sem uma chave 110 V/220 V é sempre bom verificar na etiqueta da fonte a tensão CA em que ela pode trabalhar. 11 Escola Alcides Maya - Primeiro Módulo Chave 110 V/220 V em uma fonte de alimentação. Fonte de alimentação com seleção automática de tensão – não há chave 110V/220V. Na maioria das vezes isto significa que a fonte tem PFC ativo. 12 Arquitetura e Montagem I A faixa de tensão que as fontes com seleção automática podem trabalhar está descrita na etiqueta da fonte de alimentação. A conexão entre a fonte de alimentação e a tomada é feita através de um cabo de força. Este cabo precisa ter um plugue compatível com o padrão usado em seu país ou você precisará usar um adaptador. O Brasil adota um padrão chamado ABNT NBR 14136:2002, que possui dois tipos de plugue, o popular plugue com dois pinos redondos e um novo plugue de três pinos redondos que será obrigatório a partir de 2010, adicionando o pino terra. O problema é que fontes de alimentação vendidas no Brasil vêm com o cabo de força do padrão Norte-Americano, portanto, você tem de obrigatoriamente trocar a tomada da sua casa ou escritório onde o computador (ou no-break, estabilizador, etc) será instalado caso ele não seja do tipo NEMA 5-15. É possível que a partir de 2010 fabricantes oficialmente estabelecidos no Brasil passem a incluir o cabo de força ABNT NBR 14136:2002 de três pinos na caixa do produto. Outros países podem usar tipos de plugues diferentes (por exemplo, a maioria dos países da Europa usa o plugue padrão CEE 7/7, mas a Inglaterra usa um plugue chamado BS 1363, e por aí vai). Cabo de força norte-americano. 13 Escola Alcides Maya - Primeiro Módulo Plugues de alimentação Atualmente as fontes de alimentação oferecem os seguintes conectores para alimentar os componentes do micro: Conector principal da placa mãe Este é um dos cabos que você precisa conectar na placa mãe do micro.Ele usa um plugue grande de 24 pinos,que é o maior plugue encontrado na fonte de alimentação. A maioria das fontes de alimentação permitirá a você este plugue de 24 pinos em um de 20 pinos (normalmente removendo os 4 pinos extras), que é o padrão usado em placas mãe antigas.Placas-mãe que usam o conector de 24 pinos são chamadas ATX 2.x, enquanto que placas-mãe que usam o conector de 20 pinos podem ser tanto ATX 1.x ou ATX. Note que esses nomes se referem a conexão elétrica da placa-mãe e não ao seu tamanho físico. ATX também é um nome usado para descrever o tamanho placa-mãe,o que pode confundir alguns usuários (você pode ter um placa-mãe ATX com conector ATX 2.x,por exemplo; neste caso ATX significa o tamanho da placa-mãe ,30,5 cm x 24,4 cm). Conector de alimentação da principal da placa-mãe (plugue de 24 pinos). Veja como ele pode ser transformado em um conector de 20 pinos. Conector de alimentação principal da placa-mãe (plugue de 24 pinos). Conector ATX12v: este conector de 4 pinos é usado para fornecer corrente elétrica para o processador do micro e deve ser instalado na placa-mãe. A conexão deste é necessária a menos que você use o conector Eps12v, veja abaixo: 14 Arquitetura e Montagem I Conector ATX12v. Conector ATX12v. Conector EPS12V: Este conector de 8 pinos tem o mesmo objetivo do ATX12V, ou seja, fornecer corrente elétrica para o processador do micro. Como ele tem oito pinos em vez de quatro, ele é capaz de fornecer mais corrente. Nem todas as fontes de alimentação e placas-mãe vêm com este conector. Em algumas fontes o conector EPS12V pode ser obtido juntando-se dois conectores ATX12V. Se sua placa-mãe e a sua fonte de alimentação tiverem este conector, use-o em vez do ATX12V. Placas-mãe que vêm com este conector normalmente vem com metade dele coberto por uma etiqueta adesiva ou uma proteção plástica, permitindo a você usar o conector ATX12V da fonte de alimentação no conector EPS12V da placa-mãe. Você pode instalar o conector ATX12V da fonte de alimentação no conector EPS12V na placa-mãe, apesar de não ser um procedimento recomendado. Conector EPS12v. 15 Escola Alcides Maya - Primeiro Módulo Em algumas fontes de alimentação o conector EPS12V pode ser obtido juntando dois conectores ATX12V. Conector de EPS12v em uma placa-mãe. Conectores de alimentação auxiliar PCI Express: Esses conectores são usados para fornecer mais corrente elétrica para os dispositivos PCI Express, especialmente placas de vídeo. Por essa razão eles também são chamados conectores de alimentação para placas de vídeo ou simplesmente PEG (PCI Express Graphics). Nem todas as placas de vídeo precisam de alimentação extra, mas se sua placa de vídeo tem este tipo de plugue você deve instalar o conector de alimentação auxiliar. Esses conectores têm seis ou oito pinos. Praticamente todas as placas de vídeo que precisam de alimentação extra requerem a versão de seis pinos deste conector; apenas as placas de vídeo muito topo de linha requerem o conector de oito pinos. Algumas placas de vídeo topo de linha podem ainda necessitar do uso de dois cabos de alimentação para alimentá-las. Você deve prestar atenção no conector de oito pinos porque ele se parece bastante com o conector EPS12V. Em teoria você não pode instalar um plugue EPS12V em uma placa de vídeo, mas caso você consiga esta proeza poderá causar um grande curto-circuito (felizmente todas as fontes de alimentação têm uma proteção contra curto-circuito e não ligará caso você tente esta ligação). No conector EPS12V os fios de +12 V (amarelos) estão localizados no mesmo lado da pequena trava presente no conector, enquanto que no plugue de alimentação da placa de vídeo de oito pinos os fios terra (pretos) são aqueles que estão nesta posição. Atualmente todas as fontes de alimentação precisam ter pelo menos um plugue de seis pinos, com as fontes mais potentes tendo dois, três ou quatro cabos, fornecendo alimentação extra para mais de uma placa de vídeo ou alimentação adicional para placas de vídeo topo de linha que necessitam de dois cabos de alimentação. Você também pode transformar qualquer plugue de alimentação para periféricos em um conector de alimentação para placa de vídeo com a utilização de um adaptador, que é muito útil caso você esteja instalando uma placa de vídeo adicional ou tem uma fonte de alimentação antiga e não quer substituí-la. 16 Arquitetura e Montagem I O conector PEG de seis pinos. Esta fonte de alimentação em particular tem dois pinos extras para você transformar este plugue de seis pinos em um plugue de oito pinos. Nós chamamos este tipo de conector de conector 6/8 pinos. Um conector PEG de seis pinos em uma placa de vídeo. Conectores de alimentação SATA: Este tipo de plugue é usado para fornecer alimentação para os dispositivos Serial ATA (SATA), tais como discos rígidos e unidades ópticas. Se sua fonte de alimentação não tem conectores suficientes deste tipo você pode converter qualquer plugue de alimentação para periféricos em um plugue de alimentação SATA mediante a utilização de um adaptador. Fisicamente ele é chato e tem 15 pinos. Plugue de alimentação SATA. 17 Escola Alcides Maya - Primeiro Módulo Conector de alimentação SATA em um disco rígido. Conectores para periféricos: Este é um conector de alimentação de quatro pinos em formato trapezoidal freqüentemente usado para alimentar discos rígidos, unidades ópticas, ventoinhas, sistemas de iluminação, etc – apesar de atualmente os novos discos rígidos e unidades ópticas serem conectados na fonte de alimentação através de plugues de alimentação SATA. Além disso, antes do lançamento do conector PEG placas de vídeo topo de linha usavam este tipo de plugue para alimentação extra. Esses conectores existem desde o lançamento do primeiro IBM PC em 1981 e a IBM usou um empresa chamada Molex como fornecedora desses conectores. Muitas pessoas chamam esses plugues de “Molex” porque nos primeiros PCs o nome “Molex” estava impresso nos conectores e muita gente achou que este era o nome do conector, desconhecendo o fato de que Molex era na verdade o fabricante. Nós preferimos chamá-los “plugues de alimentação para periféricos”. Plugues de alimentação para periféricos. Conector de alimentação para periférico em uma unidade óptica. 18 Arquitetura e Montagem I Conector de alimentação da unidade de disquete: Este é a versão miniaturizada do plugue anterior, usado para alimentação unidades de disquete de 3 ½”. Algumas placas de vídeo mais antigas usavam este plugue para fornecer alimentação extra em vez de usar o conector anterior. Conector de alimentação da unidade de disquete. Conector de alimentação em uma unidade de disquete. Plugues de Alimentação Antigos Os dois plugues descritos abaixo não são mais usados, mas você poderá encontrá-los em computadores antigos. Conector de alimentação auxiliar de seis pinos da placa-mãe: este conector foi lançado juntamente com a especificação ATX 1.x, mas apenas algumas placas-mãe (notavelmente placas-mãe soquete 423 e as primeiras placas-mãe soquete 478) usavam este conector. 19 Escola Alcides Maya - Primeiro Módulo Conector de alimentação auxiliar de seis pinos. Conector de 12 pinos da placa-mãe: Este era o conector principal em placas-mãe e fontes AT. Ele ficou obsoleto com a introdução do padrão ATX. Ele usava dois conectores de seis pinos (P8 e P9) e o grande problema era que esses conectores, apesar de possuírem somente um modo correto de instalação, podiam ser instalados em qualquer lado do conector de 12 pinos da placa-mãe, caso o usuário monte com os cabos invertidos, pode causar danos à placa-mãe. Para evitar erros você deve instalar esses conectores de modo que os fios pretos sempre fiquem juntos ao centro do conector. Conector de alimentação AT. Padrões Existem vários diferentes padrões de fontes de alimentação para PCs. Esses padrões definem não apenas o tamanho físico, mas também o tipo de conectores de uma fonte de alimentação. ATX12V 2.x e EPS12V são os padrões de fontes de alimentação para PCs mais comuns atualmente. Padrão AT: Este padrão foi introduzido pelo IBM PC AT em 1984 e foi usado até o padrão ATX ganhar popularidade em meados dos anos 90. Fontes de alimentação AT fornecem quatro tensões, +5 V, +12 V, -5 V e -12 V, e o cabo principal da placa-mãe usa um conector de 12 pinos (veja na página anterior). Dos conectores apresentados nas páginas anteriores este tipo de fonte usa apenas os conectores de alimentação para periféricos e o conector de alimentação da unidade de disquete, além do cabo da placa-mãe de 12 pinos, é claro. 20 Arquitetura e Montagem I Padrão ATX: Em 1996 a Intel introduziu um novo formato de placa-mãe chamado ATX para substituir o antigo formato AT. Como a placa-mãe ATX tinha dimensões físicas completamente diferentes, novos gabinete foram necessários (“gabinetes ATX”, ao contrário dos “gabinetes AT” usados até então). Com este novo formato de placa-mãe a Intel também propôs um novo tipo de fonte de alimentação com novos recursos, tais como o uso de um conector da placa-mãe de 20 pinos e a introdução de novas tensões, +3,3 V e +5VSB, também conhecida como “tensão de standby”. Esta saída está sempre ligada mesmo quando o computador está desligado, o que permite ao micro desligar sozinho sem a necessidade do usuário pressionar o botão liga/desliga. Dos conectores apresentados nas páginas anteriores este tipo de fonte de alimentação usa apenas um conector da placa-mãe de 20 pinos, os conectores de alimentação para periféricos e o conector de alimentação da unidade de disquete. ATX12V v1.x: Com os modernos processadores consumindo cada vez mais, dois conectores de alimentação extras foram adicionados às fontes de alimentação ATX: um conector de quatro pinos de 12 V (conector ATX12V) e um conector auxiliar de seis pinos. A versão 1.3 das fontes ATX12V introduziu um conector de alimentação Serial ATA. ATX12V v2.x: Este padrão foi introduzido com o lançamento do barramento PCI Express e atualizou o conector de alimentação da placa-mãe para um modelo de 24 pinos e introduziu o conector de alimentação auxiliar PCI Express. Este é o padrão usado atualmente. Ventilação A fonte de alimentação desempenha um papel importantíssimo no processo de remoção do calor de dentro do micro. Sua função é justamente remover o ar quente existente dentro do gabinete do micro e jogá-lo para fora. O fluxo de ar dentro do micro funciona da seguinte forma: o ar frio entra através de ranhuras existente na parte frontal do gabinete. Esse ar é aquecido devido a trocas de calor com outros dispositivos, como o processador, placas de vídeo, chipset, etc. Como o ar quente é menos denso do que o ar frio, a sua tendência natural é subir. Com isso, o ar quente fica retido na parte superior do gabinete. A ventoinha existente na fonte de alimentação funciona como um exaustor, puxando o ar quente desta região e soprando-o para fora do micro. Fluxo de ar dentro do gabinete do micro. Tradicionalmente as fontes de alimentação para PCs utilizam uma ventoinha de 80 mm na parte traseira, como você pode ver na Figura 25. Há alguns anos os fabricantes de fontes começaram a usar uma ventoinha de 120 mm ou maior na parte de baixo da fonte, substituindo a ventoinha do painel traseiro da fonte por uma grade. Normalmente a uso de uma fonte de alimentação com ventoinha maior fornece um maior fluxo de ar e um menor nível de ruído, já que uma ventoinha maior pode girar mais lentamente para produzir o mesmo fluxo de ar do que uma ventoinha menor. 21 Escola Alcides Maya - Primeiro Módulo Fonte de alimentação com uma ventoinha traseira de 80 mm. Figura 26: Fonte de alimentação com uma ventoinha inferior de 120 mm. Algumas fontes de alimentação podem ter mais do que uma ventoinha enquanto que alguns fabricantes oferecem controle de velocidade de rotação para a ventoinha da fonte ou um cabo para você monitorar a velocidade de rotação da ventoinha através do seu programa de monitoramento favorito (este cabo deve ser instalado em um conector de ventoinha na placa-mãe). Esses recursos não muito comuns. O problema da ventoinha da fonte e/ou as ventoinhas extras é o ruído produzido por elas. Em alguns casos o barulho é tão irritante que o simples fato de trabalhar com o computador torna-se algo estressante. De modo a reduzir o ruído atualmente a maioria das fontes de alimentação usa um circuito para controlar a velocidade de rotação da ventoinha de acordo com a temperatura interna da fonte, ou seja, quando a fonte está “fria” a ventoinha gira mais lentamente, produzindo assim menos ruído. De modo a oferecer um maior fluxo de ar e organização dentro do micro algumas fontes de alimentação utilizam um sistema de cabeamento modular, onde em vez de serem permanentemente presos à fonte os cabos para periféricos são conectados à fonte através de conectores. Dessa forma você pode remover os cabos que voc6e não utilizará. Alguns fabricantes vendem cabos extras para seus sistemas de cabeamento modular, ajudando os usuários em futuros upgrades. Normalmente em fontes de alimentação com sistema de cabeamento modular o cabo principal da placa-mãe e os cabos ATX12V são permanentemente presos à fonte. 22 Arquitetura e Montagem I Sistema de cabeamento modular. Potência As fontes de alimentação são rotuladas de acordo com a potência máxima que conseguem fornecer – pelo menos em teoria. O problema é que muitas fontes não conseguem fornecer sua potência rotulada, isto porque o fabricante: - Rotulou a fonte com a potência máxima de pico, que pode ser fornecida durante alguns segundos e, em alguns casos, em menos de um segundo. - Mediu a potência máxima da fonte com uma temperatura ambiente irrealística, normalmente a 25°C, enquanto que a temperatura dentro do micro sempre estará maior do que isto – pelo menos em 35°C. Os semicondutores e indutores têm um efeito físico chamado “de-rating”, onde eles perdem a capacidade de fornecer corrente (e conseqüentemente potência) com a temperatura. Portanto uma potência máxima medida em uma temperatura menor pode não ser obtida quando há um aumento na temperatura da fonte. - Simplesmente mentiu: Este é provavelmente o caso de fontes “genéricas”. Só para ilustrar como o efeito da temperatura afeta a capacidade de uma fonte em fornecer corrente, considere a curva de “de-rating” apresentada na Figura 28, que pertence a um transistor chamado FQA24N50. Como você pode ver, este transistor pode fornecer até 24 A quando está trabalhando a 25°C, mas assim que a temperatura aumenta (eixo x) a corrente máxima suportada (eixo y) diminui. Em 100°C a corrente máxima que este dispositivo pode fornecer é de 15 A, uma redução de 37,5%. A potência, medida que watts, é um fator entre a corrente e a tensão (P = V x I). Se este transistor estivesse operando a 12 V nós veríamos uma redução na potência máxima de 288 W (12 V x 24 A) para 180 W (12 V x 15 A). Curva de “de-rating” de um transistor. 23 Escola Alcides Maya - Primeiro Módulo Conhecendo esta situação bons fabricantes começaram a divulgar a que temperatura suas fontes foram rotuladas. Você pode encontrar algumas fontes de alimentação no mercado onde o fabricante garante que elas conseguem fornecer sua potência rotulada a 40°C, 45°C ou até mesmo 50°C. Em outras palavras, o fabricante garante que elas podem fornecer sua potência rotulada em um cenário do mundo real e não apenas no laboratório do fabricante. Este é um bom parâmetro na hora de decidir que fonte de alimentação comprar. Você pode achar que a quantidade máxima de potência que uma fonte de alimentação pode fornecer é simplesmente a soma da quantidade máxima de potência que cada saída pode fornecer. Mas na verdade a matemática não é tão simples assim por causa da forma como as fontes de alimentação para PCs funcionam internamente: as principais saídas positivas (+12V, +5 V e +3,3 V) compartilham alguns componentes e por isso apesar de cada saída ter uma corrente (e conseqüentemente potência) máxima individual, este máximo pode apenas ser atingido quando nenhuma corrente estiver sendo extraída das outras saídas. O caso mais comum é com as saídas +5 V e +3,3 V. Apesar de elas terem correntes máximas e limites de potência individuais, esses valores máximos podem ser extraídos apenas quando nenhuma corrente estiver sendo extraída da outra saída: juntas elas têm uma potência máxima combinada, que é menor do que a simples adição da capacidade máxima das saídas de +5 V e +3,3 V. Para um exemplo prático considere a fonte de alimentação da próxima figura. Sua etiqueta diz que a saída de +5 V pode fornecer até 24 A (que é igual a 120 W, 5 V x 24 A) e a saída de +3,3 V também pode fornecer até 24 A (que é igual a 79,2 W, 3,3 V x 24 A). A potência máxima combinada impressa na etiqueta é de 155 W, que é menor do que a simples adição da potência máxima que cada saída pode fornecer individualmente (que seria 199,2 W, 120 W + 79,2 W). A mesma idéia é válida para as saídas de +12 V. Na fonte de alimentação da Figura 29 cada barramento de +12 V pode fornecer até 16 A (192 W, 12 V x 16 A), mas a potência máxima combinada para as saídas de +12 V é 504 W, e não 768 W (192 W x 4). E finalmente nós temos uma potência combinada para +12 V, +5 V e +3,3 V ao mesmo tempo, que não é simplesmente uma adição da potência máxima combinada para as saídas de +5 V/+3,3 V com a potência combinada para as saídas de +12 V. Na fonte de alimentação de nosso exemplo a potência máxima combinada para essas saídas é de 581,5 W e não 659 W (155 W + 504 W). Etiqueta típica de uma fonte de alimentação. Finalmente nós temos a distribuição da potência, que é algo que poucos usuários se preocupam. Duas fontes de alimentação com a mesma potência máxima podem ter uma distribuição de potência completamente diferente. Atualmente um micro típico extrai mais corrente/potência das saídas de +12 V. Isto acontece porque os dois componentes que mais consomem no micro, o processador e a placa de vídeo, estão conectados nas saídas de +12 V (através do conector ATX12V/EPS12V e através do conector PEG, respectivamente). Dê uma outra olhada na etiqueta da fonte de alimentação da figura acima. Observe que esta fonte usa um projeto atualizado, onde a fonte de alimentação é capaz de fornecer mais potência nas saídas de +12 V (504 W) do que nas saídas de +3,3 V/+ 5 V (155 W). Agora considere a fonte de alimentação da figura abaixo. Esta fonte pode fornecer mais potência/corrente nas suas saídas de +5 V/+3,3 V do que nas suas saídas de +12 V, o que significa que esta fonte usa um projeto desatualizado. Acredite, esta fonte ainda está sendo vendida e existem muitas outras iguais a ela sendo vendidas por aí. 24 Arquitetura e Montagem I Etiqueta de uma fonte de alimentação com um projeto desatualizado. Em resumo, compre fontes de alimentação onde a capacidade máxima está nas saídas de +12 V e não nas linhas de +5 V/+3,3 V. Finalmente você precisará saber a quantidade de potência que seu micro realmente consumirá antes de escolher uma fonte de alimentação. Existem várias calculadoras na internet que podem ajudá-lo nesta tarefa; nós recomendamos esta. Nós também recomendamos que você escolha uma fonte de alimentação que funcionará entre 40% e 60% da sua capacidade máxima. Existem duas razões para isto. Primeiro, a eficiência, assunto da próxima página. Segundo, você terá margem para futuros upgrades. Portanto anote o resultado obtido pela calculadora e multiplique por dois. Esta é a potência da fonte que recomendamos que você compre (você ficará surpreso ao ver que a maioria dos micros requerem uma fonte de alimentação com menos de 450 W, mesmo com o ajuste recomendado). Eficiência A eficiência de uma fonte de alimentação refere-se à quantidade de corrente extraída da rede elétrica que é efetivamente convertida em corrente contínua. Eficiência é a relação entre a potência que está sendo extraída da rede elétrica e a potência que está sendo na verdade fornecida ao micro. Eficiência = Potência CC / Potência CA Por exemplo, se o micro está consumindo 250 W e a fonte de alimentação está extraindo 350 W da rede elétrica, isto significa que a eficiência da fonte de alimentação é de 71,4%. Boas fontes de alimentação têm eficiência de pelo menos 80%. Quanto maior esse valor, melhor. Nós recomendamos que você compre fontes de alimentação com eficiência de pelo menos 80%. Uma fonte de alimentação com alta eficiência oferece duas vantagens. Primeira, redução na conta de luz. Usando o exemplo acima, se você substituir esta fonte por uma com eficiência de 80% você extrairia apenas 312,5 W da rede elétrica, economizando, portanto, 37,5 W. Se você usa muito o micro (por exemplo, durante o dia inteiro, todos os dias), esta economia pode ser relevante e no final vale à pena comprar uma fonte com alta eficiência, mesmo que ela custe um pouco mais. A segunda vantagem é que menos calor é produzido. Em nosso primeiro exemplo a fonte de alimentação estaria convertendo 100 W em calor, enquanto que em nosso segundo exemplo a dissipação térmica cairia para 62,5 W, uma redução de 37,5% na dissipação do calor. Isto é realmente interessante e é sempre bom manter o micro trabalhando mais refrigerado quanto possível. Se você vir uma curva de eficiência típica você notará que a eficiência varia de acordo com a potência que está sendo fornecida e normalmente a fonte de alimentação atinge sua eficiência máxima quando está fornecendo 25 Escola Alcides Maya - Primeiro Módulo entre 40% e 60% de sua capacidade máxima. A eficiência também é maior quando a fonte de alimentação está operando em 220 V. Veja na figura abaixo para um exemplo real: Exemplo de uma curva de eficiência. Por causa deste efeito é recomendável que você compre uma fonte de alimentação com o dobro de potência que você realmente precisará. Isto explica a disponibilidade de fontes de alimentação acima de 700 W. Os fabricantes não esperam que você extraia toda a potência que a fonte é capaz de fornecer, mas que você extraia delas cerca de 50% para uma alta eficiência (durante nossos testes, no entanto, nós precisamos verificar se a fonte de alimentação realmente pode fornecer sua potência rotulada, ou seja, em uma fonte rotulada como sendo de 600 W nós queremos ser capazes de extrair 600 W dela). A única desvantagem nesta abordagem é o preço de uma fonte de alimentação assim. Mas no longo prazo é uma boa idéia comprar uma fonte de grande porte, já que você economizará em sua conta de luz, seu micro trabalhará mais refrigerado, você terá uma margem maior para futuros upgrades e você não terá problemas de estabilidade na hora de rodar jogos pesados configurados com os recursos de qualidade de imagem no máximo durante horas. Como mencionamos você ficará surpreso ao ver que a maioria dos micros requerem uma fonte de alimentação com menos de 450W.. Correção do Fator de Potência Todos os equipamentos que tenham motores e transformadores – como é o caso da fonte de alimentação – consomem dois tipos de energia: ativa (medida em kWh) e reativa (medida em kVArh). Energia ativa é aquela que produz trabalho, por exemplo, a rotação do eixo de um motor. Energia reativa (também chamada energia magnetizante) é aquela que não produz trabalho mas é necessária para produzir o fluxo magnético necessário ao funcionamento dos motores, transformadores, etc. A composição dessas duas energias consumidas é chamada energia aparente e é medida em kVAh. Para clientes industriais, a concessionária de energia elétrica mede e cobra a energia aparente, mas para clientes residenciais e comerciais, a energia medida e cobrada é a energia ativa. O problema é que a energia reativa, apesar de necessária para motores e transformadores, ela “ocupa espaço” no sistema que poderia ser usado por mais energia ativa. Fator de potência é a relação entre energia ativa e a energia aparente de um circuito (fator de potência = energia ativa / energia aparente). Esta relação está compreendia entre 0 (0%) e 1 (100%) e quanto mais próximo de 1 este fator, melhor, pois significa que o circuito está consumindo pouca energia reativa. Existem dois tipos de circuito de correção de potência: passivo e ativo. O circuito passivo usa componentes que não necessitam de alimentação (tais como bobinas com núcleo de ferrite) e faz com que o fator de potência fique entre 0,60 (60%) a 0,80 (80%). Já o circuito ativo utiliza componentes eletrônicos tais como circuitos integrados, transistores e diodos e, de acordo com os fabricantes, faz com que o fator de potência fique na faixa de 0,95 (95%). Fontes de alimentação sem qualquer circuito de correção de potência têm um fator de potência inferior a 0,60 (60%). A correção de potência não está relacionada com eficiência e este é o equívoco mais comum que vemos no mercado. Este circuito não faz com que o seu micro consuma menos eletricidade do tipo que nós pagamos. O 26 Arquitetura e Montagem I circuito de correção de potência serve para fazer com que a fonte consuma menos energia reativa do sistema elétrico e, com isso, otimizar a rede elétrica (permitindo que a concessionária forneça mais energia ativa). A inclusão deste tipo de circuito foi feita somente para atender às legislações sobre consumo elétrico, em particular a européia. Como a tendência é que outros países comecem a adotar legislações similares, os fabricantes já estão se preparando, fabricando fontes com este tipo de circuito. Estabilidade da Tensão, Ripple e Ruído As tensões nas saídas de uma fonte de alimentação precisam estar bem próximas de seus valores nominais. Em outras palavras, nós queremos ver as saídas de +12 V fornecendo +12 V e não +13 V! As tensões tendem a cair com o aumento na carga. Fontes de alimentação chaveadas são sistemas de laço fechado, o que significa que elas estão constantemente lendo os valores na saída e reconfigurando a fonte automaticamente para certificar-se de que as saída estão sempre fornecendo suas tensões corretas. Uma pequena diferença de até 5% para as tensões positivas ou até 10% para as tensões negativas é tolerável. Veja a tabela abaixo. A tensão de -5 V não é mais usada e nós a incluimos na tabela apenas para referência. Saída|tolerância|mínimo |máximo +12v | +-5% |+-11,40v |+12,60v +5v | +-5% |+-11,40v |+5,25v +5vsb| +-5% |+-4,75v |+5,25v +3,3v | +-5% |+-4,75v |+3,47v -12v | +-10% | - 3,2 |-10,8v -5v | +-10% |- 5,25v |-4,75v Com isso, a fonte de alimentação precisa ser capaz de fornecer uma saída “limpa”. Em um mundo perfeito as tensões nas saídas da fonte seriam descritas como uma única linha horizontal quando vista em um osciloscópio. Mas no mundo real elas não são perfeitamente retas, elas apresentam uma pequena oscilação, chamada ripple. No topo desta oscilação você pode ver alguns picos ou ruídos. O ripple e o ruído juntos não podem exceder 120 mV nas saídas de +12 V e 50 mV nas saídas de +5 V e +3,3 V. Esses valores são pico-a-pico. Vamos mostrar a você alguns exemplos para uma melhor compreensão desta questão. Na figura abaixo temos a saída de +12 V da fonte de alimentação PC Power & Cooling Silencer 750 Quad fornecendo 750 W. Como nosso osciloscópio estava ajustado em 0,02 V/div, isto significa que cada quadrado verde representa 0,02 V (20 mV) no eixo y. O nível de ruído medido por nosso osciloscópio foi de 50 mV, muito longe do limite máximo de 120 mV. Agora compare a Figura 33 com a Figura 34. A Figura 34 mostra a saída de +12 V da fonte WiseCase WSNG-650WR-2*8+APFC fornecendo 650 W. Nosso osciloscópio mediu 115,4 mV. Apesar de estar (quase no limite) dentro da especificação, nós sempre queremos ver fontes de alimentação com valores de ripple e ruído com os menores valores possíveis. Metade do nível máximo permitido é uma boa medida. O nível de ruído é certamente algo que a maioria dos usuários não se preocupa e é apenas analisado em testes como os publicados pelo Clube do Hardware. A maioria dos sites não tem um osciloscópio para executar testes de fontes de alimentação, publicando testes inúteis (para uma melhor discussão sobre este assunto leia nosso artigo Porque 99% dos Testes de Fontes de Alimentação Estão Errados). 27 Escola Alcides Maya - Primeiro Módulo Proteções Proteção é sempre desejável, mas uma coisa que muita gente não sabe é que de acordo com os padrões ATX12V e EPS12V apenas as proteções contra sobretensão (OVP), curto-circuito (SCP) e sobrecarga de corrente (OCP) são exigidas. Todas as demais proteções são opcionais e cabe ao fabricante implementá-las ou não. Claro, quanto mais proteções uma fonte tiver, melhor. Vamos primeiro listar as proteções mais comuns disponíveis e depois falaremos sobre alguns fatos interessantes sobre elas. • Proteção Contra Curto-Circuito (SCP, Short-Circuit Protection): como o nome já sugere, a função desta proteção é desligar a fonte caso qualquer saída estiver em curto. Esta é uma proteção obrigatória. • Proteção Contra Subtensão (UVP, Under Voltage Protection): desliga a fonte caso a tensão em qualquer das saídas dela estiver abaixo de um determinado valor. Esta é uma proteção opcional. • Proteção Contra Sobretensão (OVP, Over Voltage Protection): desliga a fonte caso a tensão em qualquer das saídas dela estiver acima de um determinado valor. Esta é uma proteção obrigatória. • Proteção Contra Sobrecarga de Corrente (OCP, Over Current Protection): desliga o barramento que está sendo monitorando caso este barramento esteja extraindo mais do que um determinado valor. Esta é uma proteção obrigatória. Leia a página anterior para mais detalhes sobre esta proteção. • Proteção Contra Sobrecarga de Potência (OPP, Over Power Protection, ou OLP, Over Load Protection): desliga a fonte caso você esteja extraindo mais potência do que um determinado valor. Esta é uma proteção opcional. • Proteção Contra Superaquecimento (OTP, Over Temperature Protection): desliga a fonte caso sua temperatura interna atinja um determinado valor. Esta proteção opcional não é muito comum. A idéia das proteções é desligar a fonte caso algo de errado aconteça, impedindo que ela queime e/ou possa pegar fogo. Por exemplo, se você extrair mais potência do que a fonte é capaz de fornecer ela pode queimar caso a proteção contra sobrecarga de potência não tenha sido implementada. Com esta proteção a fonte desligará em vez de queimar. Todas as proteções são configuráveis pelo fabricante. Pegue a proteção contra sobretensão (OVP). Os padrões ATX12V e EPS12V sugerem uma faixa de tensão que o fabricante pode usar para ativar este circuito, mas fica a critério do fabricante escolher que valor será usado. 5 BIOS O BIOS contém todo o software básico, necessário para inicializar a placa-mãe, checar os dispositivos instalados e carregar o sistema operacional, o que pode ser feito a partir do HD, CD-ROM, pendrive, ou qualquer outra mídia disponível. O BIOS inclui também o Setup, o software que permite configurar as diversas opções oferecidas pela placa. O processador é programado para procurar e executar o BIOS sempre que o micro é ligado, processando-o da mesma forma que outro software qualquer. É por isso que a placa-mãe não funciona “sozinha”, você precisa ter instalado o processador e os pentes de memória para conseguir acessar o Setup. :) Por definição, o BIOS é um software, mas, como de praxe, ele fica gravado em um chip espetado na placa-mãe. Na grande maioria dos casos, o chip combina uma pequena quantidade de memória Flash (256, 512 ou 1024 KB), o CMOS, que é composto por de 128 a 256 bytes de memória volátil e o relógio de tempo real. Nas placas antigas era utilizado um chip DIP, enquanto nas atuais é utilizado um chip PLCC (plastic leader chip carrier), que é bem mais compacto: 28 Arquitetura e Montagem I Chip PLCC que armazena o BIOS da placa-mãe O CMOS serve para armazenar as configurações do setup. Como elas representam um pequeno volume de informações, ele é bem pequeno em capacidade. Assim como a memória RAM principal, ele é volátil, de forma que as configurações são perdidas quando a alimentação elétrica é cortada. Por isso, toda placa-mãe inclui uma bateria, que mantém as configurações quando o micro é desligado. A mesma bateria alimenta também o relógio de tempo real (real time clock), que, apesar do nome pomposo, é um relógio digital comum, que é o responsável por manter atualizada a hora do sistema, mesmo quando o micro é desligado. Se você prestou atenção nos três parágrafos anteriores, deve estar se perguntando por que as configurações do Setup não são armazenadas diretamente na memória Flash, em vez de usar o CMOS, que é volátil. Isso seria perfeitamente possível do ponto de vista técnico, mas a idéia de usar memória volátil para guardar as configurações é justamente permitir que você possa zerar as configurações do Setup (removendo a bateria, ou mudando a posição do jumper) em casos onde o micro deixar de inicializar por causa de alguma configuração incorreta. Um caso clássico é tentar fazer um overclock muito agressivo e o processador passar a travar logo no início do boot, sem que você tenha chance de entrar no setup e desfazer a alteração. Atualmente basta zerar o setup para que tudo volte ao normal, mas, se as configurações fossem armazenadas na memória Flash, a coisa seria mais complicada. Para zerar o CMOS, você precisa apenas cortar o fornecimento de energia para ele. Existem duas formas de fazer isso. A primeira é (com o micro desligado) remover a bateria da placa-mãe e usar uma moeda para fechar um curto entre os dois contatos da bateria durante 15 segundos. Isso garante que qualquer carga remanescente seja eliminada e o CMOS seja realmente apagado. A segunda é usar o jumper “Clear CMOS”, que fica sempre posicionado próximo à bateria. Ele possui duas posições possíveis, uma para uso normal e outra para apagar o CMOS (“discharge”, ou “clear CMOS”). Basta mudá-lo de posição durante 15 segundos e depois recolocá-lo na posição original. Uma dica é que muitas placas vêm de fábrica com o jumper na posição “discharge”, para evitar que a carga da bateria seja consumida enquanto a placa fica em estoque. Ao montar o micro, você precisa se lembrar de verificar e, caso necessário, mudar a posição do jumper, caso contrário a placa não funciona, ou exibe uma mensagem de erro durante o boot e não salva as configurações do Setup. Jumper Clear CMOS Como todo software, o BIOS possui bugs, muitos por sinal. De tempos em tempos, os fabricantes disponibilizam versões atualizadas, corrigindo problemas, adicionando compatibilidade com novos processadores (e outros componentes) e, em alguns casos, adicionando novas opções de configuração no Setup. É muito comum que você precise atualizar o BIOS da placa para que ela funcione em conjunto com novos processadores, de fabricação mais recente que a placa-mãe. 29 Escola Alcides Maya - Primeiro Módulo Atualizar o BIOS consiste em dar boot através de um disquete ou CD-ROM, contendo o software que faz a gravação, indicar a localização do arquivo com a nova imagem e deixar que ele regrave a memória Flash com o novo código. O primeiro passo é visitar a área de suporte ou downloads do site do fabricante e procurar por atualizações para a sua placa-mãe. Se você usa Windows, aproveite para verificar se não estão disponíveis novas versões dos drivers, que também podem corrigir problemas e adicionar novos recursos. Por exemplo, uma Asus K8N4-E SE, que testei certa vez, tinha um problema estranho com a placa de rede, que parava de funcionar aleatoriamente depois de algumas horas de uso contínuo, que foi solucionado com a atualização do BIOS da versão 0106 para a 0110. Muitos fabricantes ainda disponibilizam disquetes de boot, contendo uma versão reduzida do FreeDOS ou MS-DOS, mas muitos já passaram a disponibilizar CDs de boot (basta gravar a imagem .iso usando o Nero, K3B ou outro programa de gravação e dar boot), o que elimina a necessidade de ter que instalar um drive de disquetes na máquina só para poder atualizar o BIOS. Uma idéia nova, que foi inaugurada pela Asus e vem sendo adotada por cada vez mais fabricantes, é incluir o utilitário de atualização diretamente no próprio BIOS. Nesse caso, você só precisa pressionar uma combinação de teclas durante o boot e indicar a localização do arquivo de atualização. Na maioria das placas, ele precisa ser gravado num disquete ou CD-ROM (você precisa queimar um CD, colocando o arquivo no diretório raiz), mas algumas já suportam também o uso de pendrives e cartões de memória instalados com a ajuda de um adaptador USB. Na maioria dos casos, você pode acessar o utilitário de atualização pressionando ALT+F2 durante a contagem de memória. Em muitas placas, a opção também fica disponível através do Setup. Nas placas da Asus, por exemplo, ela fica dentro do menu “Tools”. Dentro do programa, basta indicar o arquivo a ser gravado. Eles geralmente possuem em torno de 512 KB e utilizam a extensão “.BIN” ou “.ROM”: Atualização de BIOS Atualizar o BIOS é sempre um procedimento potencialmente perigoso, já que sem ele a placa não funciona. Na grande maioria dos casos, o programa também oferece a opção de salvar um backup do BIOS atual antes de fazer a atualização. Esse é um passo importante, pois se algo sair errado, ou você tentar gravar uma atualização para um modelo de placa diferente, ainda restará a opção de reverter o upgrade, regravando o backup da versão antiga. A maioria das placas atuais incorpora sistemas de proteção, que protegem áreas essenciais do BIOS, de forma que, mesmo que acabe a energia no meio da atualização, ou você tente gravar o arquivo errado, a placa ainda preservará as funções necessárias para que você consiga reabrir o programa de gravação e terminar o serviço. Em alguns casos, a placa chega a vir com um “BIOS de emergência”, um chip extra, com uma cópia do BIOS original, que você pode instalar na placa em caso de problemas. Placas antigas não possuem essas camadas de proteção, de forma que um upgrade malsucedido podia realmente inutilizar a placa. Nesses casos, a solução era remover o chip e levá-lo a alguém que tivesse um gravador de EEPROM. Depois de regravado, o chip era reinstalado na placa e tudo voltava ao normal. Ou seja, mesmo nesses casos, a placa não era realmente danificada, ficava apenas “fora de serviço”. Um truque muito usado era utilizar uma placa-mãe igual, ou pelo menos de modelo similar, para regravar o BIOS da placa danificada. Nesses casos, você dava boot com o disquete ou CD de atualização (na placa boa), removia o chip com o BIOS e instalava no lugar o chip da placa danificada (com o micro ligado), dando prosseguimento ao processo de regravação. Dessa forma, você usava a placa “boa” para regravar o BIOS da placa “ruim”. Naturalmente, a troca precisava ser feita com todo o cuidado, já que um curto nos contatos podia inutilizar a placa-mãe. 30 Arquitetura e Montagem I Concluindo, existem também programas de gravação para Windows, que são incluídos nos CDs de drivers de muitas placas. Eles são mais fáceis de usar, mas fazer a atualização através deles é considerado menos seguro, já que, dentro do Windows e com outros programas e serviços rodando, a possibilidade de algo inesperado acontecer é maior. Hoje em dia, a maioria dos dispositivos incluindo o HD, drive óptico, placa wireless e placa de vídeo possuem um software de inicialização, similar ao BIOS da placa-mãe. Ele pode ser gravado diretamente no dispositivo, em um chip de memória Flash, ou mesmo em algum tipo de memória ROM, ou ser incorporado ao driver. Essa segunda solução vem sendo cada vez mais adotada pelos fabricantes, pois permite eliminar o chip de memória, reduzindo o custo. É por isso que, muitas vezes (sobretudo ao tentar ativar sua placa wireless ou scanner no Linux), você precisa baixar, além do driver ou módulo necessário, também os arquivos que compõem o firmware da placa. 6 Placa Mãe A placa-mãe é o componente mais importante do micro, pois é ela a responsável pela comunicação entre todos os componentes. Pela enorme quantidade de chips, trilhas, capacitores e encaixes, a placa-mãe também é o componente que, de uma forma geral, pode apresentar defeitos. É comum que um slot PCI pare de funcionar (embora os outros continuem normais), que instalar um pente de memória no segundo soquete faça o micro passar a travar, embora o mesmo pente funcione perfeitamente no primeiro e assim por diante. Assim como os demais componentes do micro, placa-mãe também tem marca. Abit, Asus, Soyo, FIC, PCChips, MSI, Gigabyte, Chaintech, A-Trend, ECS, Tomato/Zida são apenas algumas das inúmeras marcas que você encontrará no mercado. Entretanto, muitas pessoas acabam chamando a placa-mãe pela marca do chipset, isto é, pela marca dos circuitos existentes na placa. Por exemplo, muita gente chama placas-mãe com chipset SiS de “placa-mãe SiS ou placas-mãe com chipset Intel de “placa-mãe Intel”, o que está tecnicamente errado, a não ser que o fabricante do chipset seja o mesmo fabricante da placa-mãe. Chipset São os circuitos de apoio da placa-mãe. Apesar de existir uma infinidade de fabricantes de placas-mãe no mundo, há somente alguns poucos fabricantes de chipsets. Os mais conhecidos são Intel, Nvidia, ATI (AMD), VIA, SIS (Silicon Integrated Systems) e ALi (Acer Laboratories, Inc). No passado haviam outros fabricantes de chipsets, tais como OPTi e UMC (United Microelectronics Corporation). O desempenho de uma placa-mãe está intimamente relacionado ao chipset utilizado. Por esse motivo, muitos técnicos acabam se preocupando mais com o chipset que a placa-mãe tem do que com a sua marca. Testes de desempenho comprovam que a diferença de desempenho entre placas-mãe tem mais a ver com o chipset usado do que com a marca. Assim, placas-mãe de marcas diferentes que usam o mesmo chipset em geral têm desempenho similar. Em geral as placas-mãe têm dois circuitos: um chamado Ponte Norte e outro chamado Ponte Sul: Ponte Norte: também chamado controlador de sistema, esse é o circuito mais importante do chipset e o desempenho da placa-mãe está intimamente ligado a ele. Temos, integrados dentro do controlador de sistema, o controlador de memória, a ponte barramento local-PCI, a ponte barramento local-AGP e, no caso dos chipsets mais antigos, controlador de memória cache L2 (chipsets para placas-mãe soquete 7, por exemplo). Atualmente, a Ponte Norte precisa ser dotada de um dissipador de calor. Em alguns casos, inclusive dotado de uma pequena ventoinha. 31 Escola Alcides Maya - Primeiro Módulo Ponte Sul: Também chamado controlador de periféricos, esse circuito tem a importante função de ponte PCIISA, fazer a conexão com os periféricos básicos integrados à placa-mãe (especialmente com as portas IDE), além de barramentos externos de expansão (USB e FireWire). O controlador de periféricos tem integrados o controlador de interrupções, o controlador de DMA, o relógio de tempo real (RTC) e a memória de configuração (CMOS). Um outro circuito, genericamente chamado super I/O (em geral por outro fabricante, como Winbond e ITE), é conectado à Ponte Sul e tem integrado o controlador de teclado, o controlador de unidades de disquete, portas seriais e paralela. Alguns chipsets têm integrados dentro de sua Ponte Sul as funções do super I/O que controlam outros componentes onboard. Padrão AT AT é a sigla para Advanced Tecnology. Trata-se de um padrão antigo, em que nenhum computador novo utiliza mais esse padrão. Seu uso foi constante de 1983 até 1996. Um dos fatos que contribuíram para que o padrão AT deixasse de ser usado, é o espaço interno pequeno, que com ajuda dos vários cabos do computador, dificultavam a circulação de ar, levando, em alguns casos, a danos na máquina. Isso exigia grande habilidade do montador para aproveitar o espaço disponível da melhor maneira. Além disso, o conector de alimentação da fonte AT, que deve ser ligada na placa-mãe, é composta por dois plugs (P8 e P9, cada um com seis pinos), que devem ser encaixados lado a lado, sendo que os fios de cor preta de cada um devem ficar localizados no. Caso esse cabo seja ligado de forma errada, a placa-mãe terá grandes chances de ser queimada. Nas placas-mãe AT, o conector do teclado era o único conector visível acoplado à placa e segue o padrão chamado DIN, enquanto o mouse utilizava porta seria Com1. Já os conectores das portas paralelas e seriais não são encaixados diretamente na placa. Eles ficam disponíveis num adaptador, que é ligado na parte de trás do gabinete e ligado à placa-mãe através de um cabo. Outras características de uma placa-mãe AT podemos ver na figura abaixo: 32 Arquitetura e Montagem I Padrão ATX ATX é a sigla para Advanced Tecnology Extendend. Pelo nome, é possível notar que trata-se do padrão AT melhorado. Um dos principais desenvolvedores do ATX foi a Intel. Como desde o início, o objetivo do ATX foi o de solucionar os problemas do padrão AT (citados anteriormente), o padrão apresenta uma série de melhoras em relação ao anterior, sendo, portanto, amplamente usado atualmente. Praticamente todos os computadores novos vem baseados neste padrão. Entre as principais características do ATX, está o maior espaço interno, proporcionando uma ventilação adequada, conectores de teclado e mouse no formato PS/2 (tratam-se de conectores menores e mais fáceis de encaixar), conectores serial e paralelo ligados diretamente na placa-mãe, sem a necessidade de cabos, melhor posicionamento do processador, evitando que o mesmo impeça a instalação de placas de expansão por falta de espaço. Quanto a fonte de alimentação, também houve melhoras significativas. A começar pelo conector de energia ligado à placa-mãe. Ao contrário do padrão AT, nele não é possível encaixar o plug de forma invertida. Cada pino do conector possui um formato, que impede o encaixamento errado. 33 Escola Alcides Maya - Primeiro Módulo Abaixo, vemos uma placa-mãe padrão ATX e ao lado desta, os conectores que são ligados de forma fixa na placa-mãe, diferente de como é no padrão AT. Quanto aos conectores, os fabricantes de placa-mãe adotaram um esquema de cores para cada tipo. Assim, os dispositivos que fazem uso de determinadas portas, possuem seus conectores na mesma cor delas (as primeiras placas-mãe não usavam este esquema). Observe a foto abaixo e veja as cores. Repare também que não há cabos ligando os conectores à placa-mãe. Tais encaixes estão acoplados diretamente na peça. Outra grande diferença é que placas-mãe ATX necessariamente precisam ser instaladas em gabinetes do tipo ATX, pois as placas-mãe ATX possuem um comprimento maior possuem uma largura menor que placas-mãe AT. 34 Arquitetura e Montagem I É interessante notar que algumas placas-mãe AT podem ser instaladas em gabinetes ATX, desde que a placamãe possua conector de alimentação ATX, o que tem ocorrido com algumas placas-mãe durante a transição da tecnologia. Nas placas com a fonte de alimentação ATX permite-se que o micro seja desligado por software, o que pode ser muito útil em tarefas agendadas (por exemplo, você pode programar o micro para fazer um download de um arquivo da Internet e se auto-desligar após o download). ONBOARD x OFF BOARD As primeiras placas mãe para PC, eram apenas um grande circuito integrado, onde praticamente todos os componentes eram conectados à ela externamente, com o passar dos anos, e com a evolução dos PCs as placas-mãe começaram a apresentar uma série de componentes (que antes eram externos) já inseridos na própria placa, de onde surgiu o nome ONBOARD. O primeiro componente onboard presente nas placas-mãe foi a controladora IDE e Super I/O, incorporada à placa-mãe e controlada pela ponte sul, ela é a responsável pela conexão dos componentes IDE (discos rígidos e unidades óticas), discos flexíveis e portas seriais e paralelas. A controladora IDE onboard foi vista nas placas compatíveis com as últimas versões de 486, 586 e em todas as placas de Pentium. A partir de 1997, começaram a surgir uma série de componentes como placa de vídeo, placa de som, fax/ modem e placa de rede integrados na própria placa-mãe, foi de onde surgiu o termo “Onboard”, que é o termo empregado para identificar placas-mãe que possuem um ou mais dispositivos de expansão integrados. Já as placas que não possuíam placas de expansão integradas, passaram a ser chamadas de “offboard”. Uma característica marcante na maioria das placas-mãe onboard é o fato de ter um número bastante reduzido de slots de expansão, o que já não ocorre nas placas offboard. Na maioria das vezes, uma placa onboard impede a atualização de todos os seus componentes integrados, uma vez que não há slots de expansão suficientes. A vantagem de se utilizar placas onboard é a redução de custo do computador, uma vez que deixa-se de comprar determinados dispositivos porque estes já estão incluídos na placa-mãe. No entanto, é necessário ter cuidado: quanto mais itens onboard uma placa-mãe possuir, mais o desempenho do computador será comprometido. Isso porque o processador acaba tendo que executar as tarefas dos dispositivos integrados. Na maioria dos casos, placas de som e rede onboard não influenciam significantemente no desempenho, mas placas de vídeo e modems onboard reduzem bastante o desempenho do computador. 35 Escola Alcides Maya - Primeiro Módulo As placas de vídeo, mesmo os modelos mais simples, possuem um chip gráfico que é responsável pela geração de imagens. Este, por sua vez, requer memória para tal, principalmente quando trata imagens em 3D. Uma placa de vídeo onboard, mesmo quando acompanhada de um chip gráfico integrado (que é controlado pela ponte norte), acaba utilizando muitos recursos do processador, além de usar parte da memória RAM para o processamento de vídeo. Nos dias de hoje é praticamente impossível encontrar placas-mãe sem nenhum recurso onboard, mesmo as placas-mãe mais conceituadas do mercado normalmente apresentam placas de som e de rede integradas. Já as placas consideradas de “baixo custo” sempre apresentam a placa de vídeo onboard além das demais. Assim, atualmente consideramos uma placa onboard, aquela que apresenta a placa de vídeo integrada (e na maioria das vezes, todas as outras placas também), e as outras, apesar de possuírem som e rede integradas, ainda sim as chamamos de placas offboard. BARRAMENTOS Barramentos (ou, em inglês, bus) são padrões de comunicação utilizados em computadores para a interconexão dos mais variados dispositivos. Barramento ISA (Industry Standard Architecture) O barramento ISA é um padrão não mais utilizado, sendo encontrado apenas em computadores antigos. Seu aparecimento se deu na época do IBM PC e essa primeira versão trabalha com transferência de 8 bits por vez e clock de 8,33 MHz (na verdade, antes do surgimento do IBM PC-XT, essa valor era de 4,77 MHz). Repare na imagem acima que o slot contém uma divisão. As placas de 8 bits utilizam somente a parte maior. Como você já deve ter imaginado, as placas de 16 bits usam ambas as partes. Por conta disso, as placas-mãe da época passaram a contar apenas com slots ISA de 16 bits. Curiosamente, alguns modelos foram lançados tendo tanto slots de 8 bits quanto slots de 16 bits. O barramento ISA pode apresentar dois tipos de placas compatíveis: as de Legado (Legacy ISA) que necessitam de “jumpers” para configuração e as ISA PnP (Plug-and-Play) que foram criadas depois para uma maior compatibilidade com os novos sistemas operacionais. 36 Arquitetura e Montagem I Barramento VESA (Video Electronics Standards Association) Também chamado de VLB (VESA Local Bus), esse padrão funciona, fisicamente, como uma extensão do padrão ISA (há um encaixe adicional após um slot ISA nas placas-mãe compatíveis com o padrão). O VLB pode trabalhar a 32 bits e com a freqüência do barramento externo do processador (na época, o padrão era de 33 MHz), fazendo com que sua taxa de transferência de dados pudesse alcançar até 132 MB por segundo. Apesar disso, a tecnologia não durou muito tempo, principalmente com a chegada do barramento PCI. Barramento PCI (Peripheral Component Interconnect) O barramento PCI surgiu no início de 1990 pelas mãos da Intel. Suas principais características são a capacidade de transferir dados a 32 bits e clock de 33 MHz, especificações estas que tornaram o padrão capaz de transmitir dados a uma taxa de até 132 MB por segundo. Os slots PCI são menores que os slots ISA, assim como os seus dispositivos, obviamente. Mas, há uma outra característica que tornou o padrão PCI atraente: o recurso Bus Mastering. Em poucas palavras, trata-se de um sistema que permite a dispositivos que fazem uso do barramento ler e gravar dados direto na memória RAM, sem que o processador tenha que “parar” e interferir para tornar isso possível. Note que esse recurso não é exclusivo do barramento PCI. Outra característica do PCI é a sua compatibilidade com o recurso Plug and Play (PnP). Com essa funcionalidade, o computador é capaz de reconhecer automaticamente os dispositivos que são conectados ao slot PCI. Atualmente, tal capacidade é comum nos computadores, isto é, basta conectar o dispositivo, ligar o computador e esperar o sistema operacional avisar sobre o reconhecimento de um novo item para que você possa instalar os drivers adequados (isso se o sistema operacional não instalá-lo sozinho). Antigamente, os computadores não trabalhavam dessa maneira e o surgimento do recurso Plug and Play foi uma revolução nesse sentido. Além de ser utilizada em barramentos atuais, essa funcionalidade chegou a ser implementada em padrões mais antigos, como vimos no ISA. Barramento AGP (Accelerated Graphics Port) Se antes os computadores se limitavam a exibir apenas caracteres em telas escuras, hoje eles são capazes de exibir e criar imagens em altíssima qualidade. Mas, isso tem um preço: quanto mais evoluída for uma aplicação gráfica, em geral, mais dados ela consumirá. Para lidar com o volume crescente de dados gerados pelos processadores gráficos, a Intel anunciou em meados de 1996 o padrão AGP, cujo slot serve exclusivamente às placas de vídeo. 37 Escola Alcides Maya - Primeiro Módulo A primeira versão do AGP (chamada de AGP 1.0) trabalha a 32 bits e tem clock de 66 MHz, o que equivale a uma taxa de transferência de dados de até 266 MB por segundo, mas na verdade, pode chegar ao valor de 532 MB por segundo. Explica-se: o AGP 1.0 pode funcionar no modo 1x ou 2x. Com 1x, um dado por pulso de clock é transferido. Com 2x, são dois dados por pulso de clock. Em meados de 1998, a Intel lançou o AGP 2.0, cujos diferenciais estão na possibilidade de trabalhar também com o novo modo de operação 4x (oferecendo uma taxa de transferência de 1.066 MB por segundo) e alimentação elétrica de 1,5 V (o AGP 1.0 funciona com 3,3 V). Algum tempo depois surgiu o AGP 3.0, que conta com a capacidade de trabalhar com alimentação elétrica de 0,8 V e modo de operação de 8x, correspondendo a uma taxa de transferência de 2.133 MB por segundo. Além da alta taxa de transferência de dados, o padrão AGP também oferece outras vantagens. Uma delas é o fato de sempre poder operar em sua máxima capacidade, já que não há outro dispositivo no barramento que possa, de alguma forma, interferir na comunicação entre a placa de vídeo e o processador (lembre-se que o AGP é compatível apenas com placas de vídeo). Barramento PCI Express O padrão PCI Express (ou PCIe ou, ainda, PCI-EX) foi concebido pela Intel em 2004 e se destaca por substituir, ao mesmo tempo, os barramentos PCI e AGP. Isso acontece porque o PCI Express está disponível em vários segmentos: 1x, 2x, 4x, 8x e 16x (há também o de 32x, mas até o momento, ainda não é utilizado efetivamente). Quanto maior esse número, maior é a taxa de transferência de dados. Como mostra a imagem abaixo, essa divisão também reflete no tamanho dos slots PCI Express: O PCI Express 16x, por exemplo, é capaz de trabalhar com taxa de transferência de cerca de 4 GB por segundo, característica que o faz ser utilizado por placas de vídeo, um dos dispositivos que mais geram dados em um computador. O PCI Express 1x, mesmo sendo o mais “fraco”, é capaz de alcançar uma taxa de transferência de cerca de 250 MB por segundo, um valor suficiente para boa parte dos dispositivos mais simples. Com o lançamento do PCI Express 2.0, que aconteceu no início de 2007, as taxas de transferência da tecnologia praticamente dobraram. Barramentos AMR, CNR e ACR Os padrões AMR (Audio Modem Riser), CNR (Communications and Network Riser) e ACR (Advanced Communications Riser) são diferentes entre si, mas compartilham da idéia de permitir a conexão à placa-mãe de dispositivos Host Signal Processing (HSP), isto é, dispositivos cujo controle é feito pelo processador do computador. Para isso, o chipset da placa-mãe precisa ser compatível. Em geral, esses slots são usados por placas que exigem pouco processamento, como placas de som, placas de rede ou placas de modem simples. 38 Arquitetura e Montagem I 7 Portas e Conectores Porta Serial Criadas junto com os primeiros IBM/PC as portas seriais vieram para que se pudesse acoplar periféricos externos no microcomputador. O nome serial vem do fato da porta transmitir os dados “em série”, ou seja, um bit de dados de cada vez. Originalmente as portas seriais transmitiam a apenas 9.600 bits por segundo, depois foram aperfeiçoadas, e assim passaram a transmitir a 115 Kbits por segundo. Os computadores possuem apenas duas portas seriais, chamadas porta de comunicações COM1 e porta de comunicações COM2. A COM1 era tradicionalmente utilizada para a conexão do mouse serial (padrão da época) e a porta COM2 era utilizada para outros periféricos externos, como modems externos, as primeiras câmeras digitais e cabos de conexão entre 2 PCs (RS-232). A porta serial COM1 possui 9 pinos machos (chamada DB 9 MACHO) e a COM2, 25 pinos machos (DB 25 MACHO), mas efetivamente só utiliza os mesmos 9 pinos que a COM1. Porta Paralela Assim como as portas seriais, a porta paralela também existe desde os primeiros PCs, A grande diferença dessa porta é que ela transmite 8 bits de dados de cada vez, isso ocorre pelo fato dessa porta possuir 25 vias de transmissão, contra apenas 9 vias das portas seriais, assim com mais vias, a porta transmite os dados de forma paralela, com uma largura de banda maior que a serial. A porta paralela, conhecida como LPT1, inicialmente tinha uma taxa de transferência de 150 Kbytes por segundo, depois foi criada a porta paralela ECP, o padrão atual para a porta paralela que transmite a 1.2 Megabytes por segundo. 39 Escola Alcides Maya - Primeiro Módulo A porta LPT1 possui 25 pinos tipo fêmea (DB 25 Fêmea) e foi criada como a porta padrão das impressoras, mas também é utilizada para outros periféricos, como scanners, zip-drives ou CD-ROMs externos. Um grande problema é que os PCs possuem apenas uma porta paralela, o que é um problema se houverem mais de um periférico que utilize essa porta. Porta USB USB é a sigla para Universal Serial Bus. Trata-se de uma tecnologia que tornou mais simples, fácil e rápida a conexão de diversos tipos de aparelhos (câmeras digitais, HDs externos, pendrives, mouses, teclados, MP3players, impressoras, scanners, leitor de cartões, etc) ao computador, evitando assim o uso de um tipo específico de conector para cada dispositivo. Antigamente, conectar dispositivos ao computador era uma tarefa pouco intuitiva, muitas vezes digna apenas de técnicos ou usuários com experiência no assunto. Diante de situações desse tipo, a indústria entendeu a necessidade de criar um padrão que facilitasse a conexão de dispositivos ao computador. Assim, em 1995, um conjunto de empresas - entre elas, Microsoft, Intel, NE e, IBM formou um consórcio para estabelecer um padrão. A primeira versão oficial do USB (chamado de USB 1.1) tinha taxa de transmissão é de até 1,5 Mbps (LowSpeed), ou seja, de cerca de 190 KB por segundo. Por sua vez, nas conexões mais rápidas, esse valor é de até 12 Mbps (Full-Speed), cerca de 1,5 MB por segundo. Já no ano 2000 foi lançado o padrão USB 2.0 oferecendo a velocidade de 480 Mbps (High-Speed), o equivalente a cerca de 60 MB por segundo. O padrão de conexão continua sendo o mesmo da versão anterior. Além disso, o USB 2.0 é totalmente compatível com dispositivos que funcionam com o USB 1.1. No entanto, nestes casos, a velocidade da transferência de dados será a do 1.1, obviamente. Isso ocorre porque o barramento USB tentará se comunicar à velocidade de 480 Mbps (HighSpeed). Se não conseguir, tentará à velocidade de 12 Mbps (Full-Speed), e, por fim, se não obter êxito, tentará se comunicar à taxa de 1,5 Mbps (Low-Speed). Conectores USB A tecnologia USB conta com vários tipos de conectores, sendo o tipo A o mais conhecido, uma vez que está presente na maioria dos computadores, além de poder ser encontrado em outros tipos de aparelhos. Uma vez que o objetivo principal do padrão USB é facilitar a conexão de variados dispositivos ao computador, geralmente os cabos desses aparelhos são do tipo A em uma ponta e de algum dos outros tipos na outra, podendo a segunda ponta ter também algum formato proprietário, isto é, específico de um fabricante. 40 Arquitetura e Montagem I Vantagens do padrão USB Um dos principais motivos que levou à criação da tecnologia USB é a necessidade de facilitar a conexão de variados dispositivos ao computador. Sendo assim, o USB oferece uma série de vantagens: - Padrão de conexão: qualquer dispositivo compatível como USB usa padrões definidos de conexão (ver mais no tópico sobre conectores), assim não é necessário ter um tipo de conector específico para cada aparelho; - Plug and Play: quase todos os dispositivos USB são concebidos para serem conectados ao computador e utilizados logo em seguida. Apenas alguns exigem a instalação de drivers ou softwares específicos. No entanto, mesmo nesses casos, o sistema operacional reconhecerá a conexão do dispositivo imediatamente; - Alimentação elétrica: a maioria dos dispositivos que usam USB não precisa ser ligada a uma fonte de energia, já que a própria conexão USB é capaz de fornecer eletricidade. Por conta disso, há até determinados dispositivos, como telefones celulares e MP3-players, que têm sua bateria recarregada via USB. A exceção fica por conta de aparelhos que consomem maior quantidade de energia, como scanners e impressoras; - Hot swap ou Hot swapping: (Troca a quente) a capacidade de retirar e de plugar componentes USB no computador, enquanto opera normalmente a máquina (não é necessário reiniciar o computador); - Conexão de vários aparelhos ao mesmo tempo: é possível conectar até 127 dispositivos ao mesmo tempo em uma única porta USB. Isso pode ser feito, por exemplo, através de hubs, dispositivos que utilizam uma conexão USB para oferecer um número maior delas. Mas, isso pode não ser viável, uma vez que a velocidade de transmissão de dados de todos os equipamentos envolvidos pode ser comprometida. No entanto, com uma quantidade menor de dispositivos, as conexões podem funcionar perfeitamente; - Ampla compatibilidade: o padrão USB é compatível com diversas plataformas e sistemas operacionais. O Windows, por exemplo, o suporta desde a versão 98. Sistemas operacionais Linux e Mac também são compatíveis. Atualmente, é possível encontrar portas USB em vários outros aparelhos, como televisores, sistemas de comunicação de carros e até aparelhos de som USB 3.0 As especificações desse padrão foram definidas no final de 2008, mas ainda não existe nenhum dispositivo USB 3.0 no mercado. Os primeiros produtos compatíveis com o novo padrão deverão chegar aos consumidores finais já em 2010. Eis as principais características do USB 3.0 (SuperSpeed): Transmissão bidirecional de dados: até a versão 2.0, o padrão USB permite que os dados trafeguem do dispositivo A para o B e do dispositivo B para o A, mas cada um em sua vez. No padrão 3.0, o envio e a recepção de dados entre dois dispositivos poderá acontecer ao mesmo tempo; - Maior velocidade: a velocidade de transmissão de dados será de até 4,8 Gbps, equivalente a cerca de 600 MB por segundo, um valor absurdamente mais alto que os 480 Mbps do padrão USB 2.0; - Alimentação elétrica mais potente: o padrão USB 3.0 poderá oferecer maior quantidade de energia: 900 miliampéres contra 100 miliampéres do USB 2.0; - Compatibilidade: conexões USB 3.0 poderão suportar dispositivos USB 1.1 e USB 2.0; - Conectividade: o USB 3.0 poderá fazer uso de novos tipos de conectores. 41 Escola Alcides Maya - Primeiro Módulo Porta PS/2 As portas PS/2 foi criada pela IBM para o computador Personal System/2, Sucessor do antigo computador Personal System/1. São portas criadas especificamente para a utilização do teclado (porta roxa) e mouse (porta verde). Após o PS/2 ter sido descontinuado pela IBM, a Intel quando criou o padrão ATX, passou a utilizar as portas PS/2 como o novo padrão para teclado e mouse. Os conectores de teclado e mouse PS/2 são chamados de conectores Mini-Din e possuem 6 pinos. Sobre as portas PS/2 é importante frisar também que, diferente das portas USB, as portas PS/2 não permitem o “Hot Swap”, assim deve-se sempre desligar o computador para que se conecte ou desconecte um teclado ou mouse de uma porta PS/2. Caso não seja feito esse procedimento, pode causar a queima da porta. Porta FireWire 1394 O barramento FireWire (também conhecido por IEEE 1394) é um barramento externo, similar ao USB, o FireWire foi desenvolvido pela Apple nos anos 90, e com mais de 30 vezes a velocidade do USB 1.1, transformouse num padrão da indústria para transferência de dados a alta velocidade. Assim como o USB, o FireWire suporta Plug-and-Play e Hot Swap, através de sua porta podem ligar-se até 63 periféricos com a utilização de hubs contra 127 periféricos do USB. O FireWire fornece ainda até 45 watts de potência por porta, contra 2.5 watts do USB, permitindo a ligação de dispositivos de consumo moderado sem alimentação separada de corrente. A primeira versão do FireWire (chamada também de FireWire 400) pode transferir dados entre dispositivos em índices de 100, 200, ou 400 Mbit/s, embora o USB 2.0 seja capaz de velocidades até 480 Mbit/s, o FireWire, devido à sua baixa latência, é mais rápido. A segunda versão do FireWire, chamada de FireWire 800 (padrão IEEE 1394b) foi introduzido comercialmente pela Apple em 2003. Esta nova especificação possui mais um par de condutores para blindagem, permitindo uma taxa de transferência de 800 Mbit/s. Apesar de inicialmente estar disponível apenas nos computadores Apple, o FireWire pode ser encontrado em várias placas-mãe para PC ou em adaptadores PCI, com isso, vários fabricantes adotaram o FireWire para uma ampla gama de dispositivos, como câmeras DV, discos rígidos externos, câmaras fotográficas digitais, áudio profissional, impressoras e scanners. Há também cabos adaptadores que permitem que se utilize dispositivos FireWire 400 na porta FireWire 800. 42 Arquitetura e Montagem I Conector VGA (Video Graphics Array) O conector VGA está presente na maioria dos monitores, inclusive nos monitores LCD, além de serem ainda o padrão utilizado pela maioria das placas de vídeo. O conector VGA, é composto por três fileiras de cinco pinos (na placa-mãe o VGA é fêmea, e no monitor é macho). Esses pinos são conectados a um cabo cujos fios transmitem, de maneira independente, informações sobre as cores vermelha (red), verde (green) e azul (blue) - isto é, o conhecido esquema de cores RGB. É comum encontrar também monitores cujo cabo VGA possui menos pinos. Não se trata de um defeito, embora os conectores VGA utilizem um encaixe com 15 pinos, nem todos são utilizados. Conector DVI (Digital Video Interface) Os conectores DVI são bem mais recentes que os conectores VGA e tendem a substituí-los por proporcionarem qualidade de imagem superior. Isso ocorre porque, conforme indica seu nome, as informações das imagens podem ser tratadas de maneira totalmente digital, o que não ocorre com o padrão VGA. Quando, por exemplo, um monitor LCD trabalha com conectores VGA, precisa converter o sinal que recebe para digital. Esse processo faz com que a qualidade da imagem diminua. Como o DVI trabalha diretamente com sinais digitais, não é necessário fazer a conversão, portanto, a qualidade da imagem é mantida. Por essa razão, a saída DVI é ótima para ser usada em monitores LCD, DVDs, TVs de plasma, entre outros. É necessário frisar que existe mais de um tipo de conector DVI: • DVI-A: é um tipo que utiliza sinal analógico, porém oferece qualidade de imagem superior ao padrão VGA; • DVI-D: é um tipo similar ao DVI-A, mas utiliza sinal digital. É também mais comum que seu similar, justamente por ser usado em placas de vídeo; • DVI-I: esse padrão consegue trabalhar tanto com DVI-A como com DVI-D. É o tipo mais encontrado atualmente. Há ainda conectores DVI que trabalham com as especificações Single Link e Dual Link. O primeiro suporta resoluções de até 1920x1080 e, o segundo, resoluções de até 2048x1536, em ambos os casos usando uma freqüência de 60 Hz. Assim como o VGA, o DVI é macho no conector e fêmea na placa. O DVI é composto, basicamente, por quatro pares de fios trançados, sendo um par para cada cor primária (vermelho, verde e azul) e um para o sincronismo. Os conectores, por sua vez, variam conforme o tipo do DVI, mas são parecidos entre si, como mostra a imagem a seguir: 43 Escola Alcides Maya - Primeiro Módulo 8 Processadores O processador é o cérebro do computador. É o componente eletrônico responsável por executar todos os programas. Quanto mais rápido for o processador, mais rápida será a execução das tarefas. Alguns exemplos de processadores são: Core2Duo, Phenom, Pentium 4, Celeron, Athlon e Sempron. Os Processadores tradicionalmente utilizavam um encapsulamento de cerâmica cinza, mas os processadores mais modernos utilizam atualmente o encapsulamento PPGA (Plastic Pin GridArray) que é um encapsulamento plástico, semelhante ao utilizado nas memórias RAM. Os dois principais fabricantes de processadores para PCs na atualidade são a Intel e a AMD. A cada ano são lançados novos modelos de processadores. O processador é composto basicamente por quatro partes: • Unidade de Controle (UC): É responsável pela tarefa de controle das ações a serem realizadas pelo computador, comandando todos os outros componentes. • Unidade lógica e aritmética (ULA): Realiza todas as operações lógicas e de cálculo que serão usadas para executar uma tarefa. • Registradores: São pequenas memórias velozes que armazenam comandos ou valores que utilizados no controle e processamento de cada instrução. Os registradores mais importantes são: Contador de Programa (PC) e Registrador de Instrução (IR). • Gerenciador de Memória: É um dispositivo de hardware que transforma endereços virtuais em endereços físicos e administra a memória principal do computador. Lei de Moore Gordon Earl Moore foi cofundador da Intel, empresa fabricante de microprocessadores. Em 1965 Moore estabeleceu um conceito que definia que o poder de processamento dos computadores dobraria a cada 18 meses, a Lei de Moore se mostrou correta no que diz respeito ao avanço dos processadores nos últimos 30 anos. Muitos acreditam que os processadores possam continuar dobrando de potência a cada 18 meses, ou até em menos tempo pelos próximos 50 ou 80 anos. Apesar do ciclo evolutivo dos transistores estar próximo do fim, eles ainda devem continuar evoluindo por pelo menos mais uma década, até o limite físico da arquitetura dos processadores. Depois disso, ainda restará aos fabricantes otimizar suas arquiteturas e adicionar mais transistores. Esgotadas as possibilidades dos transístores, ainda restam os chips óticos, os nanotubos, os processadores quânticos e o que mais poderá surgir pela frente. A evolução dos computadores não deverá parar tão cedo. 44 Arquitetura e Montagem I Intel 4004 Criado em 1971, era um processador extremamente simples de 4 bits e possuía pouco mais de 2.000 transistores e operava a 740 kHz. Originalmente foi criado para ser utilizado em calculadoras científicas, mas sua base foi utilizada para a arquitetura dos processadores mais modernos que foram criados nos anos seguintes. Intel 8008 Criado em 1972, o 8008 era bastante superior ao 4004, com uma arquitetura de 8 bits, ele podia operar com números entre 0 e 255 levando metade do tempo do 4004 para realizar uma mesma tarefa. As primeiras versões do 8008 operavam a 500 kHz. Esta velocidade foi depois aumentada até aos 800 kHz. O 8008 tinha um desempenho aceitável apenas para a utilização como um terminal, e não suportava maiores tarefas. Intel 8080 Com um clock de 3 MHz o microprocessador Intel 8080 foi lançado em abril de 1974, era também um processador de 8 bits, mas uma evolução do 8008, por ser muito mais rápido. O 8080 foi o primeiro microprocessador a ser usado em larga escala nos chamados “computadores pessoais”. Antes deles, os microcomputadores eram usados apenas em laboratórios científicos, em fábricas e em universidades. O 8080 popularizou o uso de microcomputadores por pequenas empresas e até para uso pessoal. Já no final dos anos 70 eram comuns os micros pessoais utilizando o 8080 e microprocessadores de outras empresas, baseados na mesma tecnologia do 8080, como o MC6800 da Motorola e o 6502, usados nos primeiros computadores da APPLE e o Z-80 fabricado pela ZILOG, usado em um antigo computador chamado TRS-80. 45 Escola Alcides Maya - Primeiro Módulo Intel 8086 e 8088 Em 1978 a Intel criou o processador 8086, que se tornaria o primeiro processador da chamada “arquitetura x86”. O 8086 possuía um barramento de 16 bits e clocks de 4 a 10 MHz, O 8086 possuía ainda um barramento de endereços de 20 bits que o permitia ter até 1 MB de memória RAM. Já o 8088, apesar de ter sido criado depois (em 1979), era um processador inferior ao 8086. Suas arquiteturas eram quase idênticas, ambos tinham um barramento interno de 16 bis, mas o 8088 possuía um barramento externo de 8 bits, contra 16 bits do 8086. Pode-se dizer que o 8088 era uma versão de baixo custo e baixo consumo de energia, comparado ao 8086. Em 1981 a IBM escolheu o processador 8088 com clock de 4.77 MHz para ser utilizado em seu microcomputador pessoal, chamado de IBM Personal Computer, ou simplesmente IBM-PC. Logo depois a IBM implementou melhorias no projeto do seu computador pessoal, lançnado o IBM PC-XT, a sigla XT significava Extended Tecnology (tecnologia extendida). 80286 Lançado pela Intel em 1982, o 80286 (ou simplesmente 286) com clocks de 6 a 8 MHz e posteriormente com clocks que chegaram aos 25 MHz, o 286 trouxe, além da velocidade, uma série de avanços: • • • • • • A utilização de palavras binárias de 16 bits tanto interna quanto externamente; Modos de operação (Modo real e protegido) Acesso a até 16 MB de memória (através do barramento de endereços de 24 bits) Multitarefa Memória virtual em disco Memória protegida Em 1984, o 80286 foi utilizado em outro modelo da IBM chamado de IBM PC-AT. A sigla AT significa Advanced Technology (Tecnologia Avançada). Modo Real x Modo Protegido No modo real, o processador se comporta exatamente como um 8086 só que com mais velocidade, Essa funcionalidade existe para qualquer processador a partir da classe 80286 oferecendo total compatibilidade com os programas mais antigos existentes. Já no modo protegido, ele manifesta todo o seu potencial, incorporando funções mais avançadas. É no modo protegido que o processador é capaz de reconhecer toda a RAM instalada no sistema, além de incorporar recursos como a multitarefa e a memória virtual em disco. É neste modo que usamos a interface gráfica do Windows e rodamos seus aplicativos. 46 Arquitetura e Montagem I 80386 O 80386 ou simplesmente 386 foi criado pela Intel em 1985, em tinha uma série de inovações em relação ao 286. O 386 possuía um barramento de 32 bits de dados tanto internamente quanto externamente e ainda era capaz de acessar as memórias através de um barramento de endereços de 32 bits. O 386 foi o primeiro a utilizar multitarefa preemptiva (capacidade de executar mais de uma aplicação ao mesmo tempo) e o modo protegido de maneira realmente eficiente. O 386 apresentava as versões de 16MHz, 20MHz, 25 MHz e 33 MHz. O problema é que os 386 acima de 20 MHz eram muito rápidos para as memórias RAM existentes na época. Por isso, a cada acesso, o processador tinha que ficar “esperando” os dados serem liberados pela memória RAM para poder concluir suas tarefas, perdendo muito em desempenho. Para solucionar esse problema, passaram a ser usadas pequenas quantidades de memória cache na grande maioria das placas mãe para micros 386 e superiores. Como o 386 era um processador de 32 bits, foi preciso desenvolver toda uma nova categoria de chipsets e circuitos de apoio para trabalhar com ele, o que acabou encarecendo bastante os sistemas baseados no 386 e afastando muitos compradores em potencial. Para contornar este problema, a Intel optou por lançar uma versão de baixo custo do 386, batizada de 386SX, que apesar de continuar funcionando internamente com 32 bits de dados, comunicava-se com a memória RAM e os demais periféricos usando apenas 16 bits (como o 286). Para diferenciar os dois processadores, a Intel passou a chamar o 386 original de 386DX. A partir do 386, começaram a surgir “clones” dos processadores da Intel, empresas como a AMD e Cyrix apresentaram as suas versões de 386, só que com um clock mais alto que o da Intel, que era de 33 MHz, o 386 da AMD tinha um clock de 40 MHz. 80486 Criado em 1989, o 486 foi o primeiro processador a trazer a memória cache integrada ao processador. Eram 8 Kbytes, mas que eram capazes de fornecer dados a cada ciclo do processador. Como os fabricantes continuaram incluindo memória cache também na placa mãe, um pouco mais lentos, mas em maior quantidade, surgiu também a distinção entre o cache L1 e o L2. Outra evolução foi o coprocessador matemático. Ao invés de um componente que precisaria ser adquirido separadamente, o coprocessador passou a ser um item de série (Unidade de Ponto Flutuante). Este foi o impulso que faltava para a popularização de vários programas e o surgimento de jogos bem mais elaborados. O 486 é quase duas vezes mais rápido do que um 386 da mesma frequência. Em alguns aplicativos, que dependem do coprocessador matemático, um 486 chega a ser 10 vezes mais rápido que um 386. Como fez anteriormente com o 386, a Intel criou um 486 de baixo custo chamado de 486SX. A diferença entre o SX e o 486 original, que passou a ser chamado de 486DX. Os dois compartilhavam a mesma arquitetura, mas o SX vinha sem o coprocessador matemático, o que o tornava muito mais lento em aplicativos gráficos e científicos. A Intel criou versões do 486 de 25Mhz, 33 MHz e 50MHz, este último devido à sua freqüência elevada, causava certos problemas, o que fez com que a Intel passasse a trabalhar com um recurso chamado de Multiplicação do Clock, através do qual o processador trabalha internamente à uma velocidade maior do que a da placa mãe. Foram lançados então os processadores 486DX2 (que trabalhavam ao dobro da freqüência da placa mãe) e logo depois os 486DX4 (que trabalhavam ao triplo da freqüência da placa mãe). 47 Escola Alcides Maya - Primeiro Módulo Assim como nos 386, uma série de empresas também criaram a sua versão do 486, tais como AMD, Cyrix, IBM e Texas Instruments, entre deles, o 486 DLC (DX Low Cost) e o 486 SLX (SX Low Cost), da Cyrix, era nada mais que um chip com instruções 486, mas de baixo desempenho pois sua pinagem era compatível com as placas de 386. Já outros fabricantes, como a AMD fizeram chips idênticos aos da Intel, e alguns com clocks diferentes, como o de 40 MHz de clock para a placa mãe. Dessa forma os clocks dos 486 DX2 e DX4 ficaram assim: FABRICANTE PROCESSADOR PLACA MÃE MULTIPLICADOR Intel 486 DX2-50 25 MHz 2x Intel/AMD/Cyrix 486 DX2-66 33 MHz 2x AMD/Texas 486 DX2-80 40 MHz 2x Intel 486 DX4-75 25 MHz 3x Intel/AMD/Cyrix 486 DX4-100 33 MHz 3x AMD 486 DX4-120 40 MHz 3x MULTIPLICAÇÃO DO CLOCK O recurso de multiplicação do clock foi criado para que os processadores não ficassem limitados às freqüências da placa-mãe que são muito mais baixas. Os recursos de multiplicação começaram nos 486 (x2 e x3) e nos processadores mais modernos, podem chegar a 20 vezes a velocidade da placa mãe. O recurso de multiplicação de clock é indispensável atualmente, pois sem ele seria impossível desenvolver processadores mais rápidos, já que não é possível aumentar a freqüência das placas mãe e dos demais periféricos na mesma proporção do aumento do clock nos processadores. A freqüência da placa mãe chamamos de Front Side Bus. FRONT SIDE BUS Front Side Bus (ou Barramento Frontal) é o barramento de transferência de dados que transporta informações entre o processador e a placa-mãe. Esse barramento sempre vai operar na mesma freqüência de trabalho da placa-mãe e representa o valor a ser multiplicado pelo multiplicador do processador. Assim FSB x Multiplicador = Clock Real do Processador. Por exemplo um 486 DX4 120 possui Front Side Bus(FSB) de 40 MHz e multiplicador igual a 3, assim teremos: 40 (FSB) x 3(multiplicador) = 120 MHz. 48 Arquitetura e Montagem I PENTIUM Criado em 1993, o Pentium corresponde à 5ª geração de processadores Intel, seguindo a arquitetura x86, seu nome seria 80586, mas a Intel, cansada de ver o seus processadores sendo clonados por outras empresas, e pela impossibilidade de se patentear números como nome, ele foi batizado de Pentium, no grego PENTA é igual a cinco. Os primeiros Pentiuns tinham clocks de 60 e 66 MHz, posteriormente foram criadas versões com clocks de 75 MHz, 90 MHz, 100 MHz, 133 MHz, 150MHz, 166 MHz, 180MHz, 200 MHz e 233 MHz. PROCESSADOR Front Side Bus MULTIPLICADOR Pentium 60 60 1x Pentium 66 66 1x Pentium 75 50 1,5x Pentium 90 60 1,5x Pentium 100 66 1,5x Pentium 133 66 2x Pentium 150 60 2,5x Pentium 166 66 2,5x Pentium 180 60 3x Pentium 200 66 3x Pentium 233 66 3,5x O Pentium tinha como características: • Barramento de dados de 64 bits: O acesso à memória é feito a 64 bits por vez, o que significa uma maior velocidade, pois pode transportar simultaneamente dois dados de 32 bits. No 386 e 486, esse acesso era feito a 32 bits por vez. Note que o Pentium continua sendo um processador de 32 bits. • Cache L1 de 16 KB: O cache interno do Pentium (cache primário ou L1) é maior (16 KB), sendo dividido em dois, um de 8 KB para o armazenamento de dados e outro de 8 KB para instruções. Essa divisão faz com que o desempenho do cache de memória seja maior. • Arquitetura Superescalar: O Pentium funciona internamente como se fossem dois processadores 486 trabalhando em paralelo. Dessa forma, é capaz de processar duas instruções simultaneamente por pulso de clock, o que, nos processadores anteriores, era impossível. • Multiprocessamento: Os processadores da Intel permitem trabalhar em placas-mãe com mais de um processador diretamente. No caso do Pentium, este pode ser utilizado em placas-mãe com até dois processadores. • Co-processador matemático mais rápido: O co-processador matemático do Pentium trabalha de uma forma mais eficiente que o co-processador do 486. Segundo a Intel, isso faz com que ele seja, em média, de três a cinco vezes mais rápido que o co-processador matemático do 486DX. Para aplicações corriqueiras (como soma e multiplicação), o co-processador matemático do Pentium chega a ser até dez vezes mais rápido que o do 486. • Instrução de identificação: O Pentium passou a ter uma nova instrução, chamada CPUID, onde o processador avisa qual a sua classe. Dessa forma um programa tem como saber em que processador está sendo executado, facilitando sua configuração. 49 Escola Alcides Maya - Primeiro Módulo ARQUITETURA SUPERESCALAR Com essa arquitetura, o processador passa a ter mais de uma unidade de Execução. O Pentium tem duas unidades de execução, chamadas Canalizações. A primeira unidade de execução chama-se U e a segunda, V Com isso, o processador é capaz de executar até duas instruções por pulso de clock. Vamos dizer que tenhamos um programa com duas instruções seguidas: A + B e C + D. Podemos executá-las em qualquer ordem, não? Executar C + D antes de A + B não irá interferir em nada no resultado final. O Pentium é capaz de executar simultaneamente duas instruções independentes, uma em cada canalização, obtendo o dobro do desempenho sobre qualquer microprocessador convencional. PIPELINE Pipeline é a capacidade de um determinado hardware que permite que a CPU realize a busca de uma ou mais instruções além da próxima a ser executada. Estas instruções são colocadas em uma fila de memória (dentro da CPU) onde aguardam o momento de serem executadas. O Pipeline é utilizado para acelerar a velocidade de operação da CPU, uma vez que a próxima instrução a ser executada está normalmente armazenada dentro da CPU e não precisa ser buscada da memória, normalmente muito mais lenta que a CPU. Algumas CPUs incluem conceitos muito mais avançados de Pipeline: • Pré-decodificação: a CPU pode iniciar a decodificação de diversas instruções (paralelamente) e antes do momento das mesmas serem executadas. • Execução fora de seqüência: algumas CPUs podem além de pré-decodificar, executar previamente um determinado número de instruções. Numa etapa posterior, a ordem de execução é verificada e os resultados das operações são consolidados na sua ordem correta. • Previsão de desvio: caso exista uma instrução de desvio dentro do Pipeline e a sua execução for consolidada, todas as instruções posteriores à mesma e que se encontram na fila devem ser abortadas. Tecnologia MMX Criada em 1997, a tecnolgia MMX (que significa Multimedia Extensions) era formada por dois conjuntos de instrução: o primeiro com as instruções tradicionais da família Intel x86 e o segundo com as chamadas instruções MMX. O conjunto de instruções MMX tem 57 instruções, todas muito simples, como soma, subtração e comparação. A grande vantagem é a possibilidade de que essas instruções utilizem um conceito chamado SIMD (Single Instruction, Multiple Data), ou Instrução única para Múltiplos Dados, que permite que vários dados de poucos bits sejam manipulados simultaneamente. A Intel fez com que o conjunto de instruções MMX compartilhasse o circuito do coprocessador matemático integrado (unidade de ponto flutuante) utilizando os registradores já existentes. Assim, o acesso ao conjunto de instruções MMX é tão simples quanto o conjunto de instruções do coprocessador matemático. Os programas podem acessar livremente as instruções MMX em qualquer momento, independentemente do modo de operação do processador, o qual identificará que o circuito utilizado é o coprocessador. 50 Arquitetura e Montagem I Um micro com um processador MMX é absolutamente igual a um micro com um processador convencional. A diferença é que, enquanto, no primeiro, você pode executar programas MMX, no segundo, não. As novas instruções MMX podem ser agrupadas em: • • • • • • • Instruções Aritméticas Instruções de Comparação Instruções de Conversão Instruções Lógicas Instruções de Deslocamento Instruções de Transferência de Dados Instrução de Inicialização (EMMS) SIMD (Single Instruction, Multiple Data) A idéia do conceito SIMD é aproveitar o fato de que os registradores internos dos processadores são grandes e utilizá-los para a soma de vários dados de poucos bits simultaneamente. Como os registradores da unidade de ponto flutuante (e que são compartilhados pelo conjunto de instruções MMX) armazenam 64 bits, poderíamos embutir em um registrador destes até oito dados de 8 bits, quatro dados de 16 bits ou, ainda, dois dados de 32 bits. Para o caso de dados de 8 bits, vimos que uma instrução tradicional é capaz de fazer somente uma soma por vez. Já uma instrução MMX é capaz de fazer oito somas simultâneas de diferentes dados de 8 bits. Isso refletirá em um aumento drástico de desempenho quando utilizarmos instruções MMX para a manipulação de muitos dados pequenos. Repare que esse aumento de desempenho é conseguido graças à utilização de instruções MMX para a manipulação de dados pequenos. Programas tradicionais não ganharão desempenho algum em processadores que sejam MMX, pois ainda estão programados para utilizarem instruções tradicionais. Para haver um ganho de desempenho, o programa deverá ser compilado especificamente para processadores MMX, ou seja, o programa deverá ser escrito para ler a instrução MMX. As aplicações mais beneficiadas pela tecnologia MMX são as multimídia, em especial a manipulação de imagens. Por um motivo muito simples: os dados utilizados são de apenas 8 bits. Pentium Pro Lançado em 1995 com o intuito de ser um processador voltado ao mercado de alto desempenho equipando Workstations e servidores. Apesar de usar um pouco da tecnologia do Pentium, o Pentium Pro é um projeto quase que totalmente novo, trazendo brutais alterações na arquitetura. Entre as inovações trazidas pelo Pentium Pro, podemos destacar a arquitetura superescalar com três canalizações, o suporte a multiprocessamento com até 4 processadores trabalhando em paralelo e o cache L2 integrado ao corpo do processador. O barramento de endereços do Pentium Pro também foi ampliado, de 32 para 36 bits, permitindo ao Pentium Pro endereçar até 64 GB de memória. Por ter sido lançado antes do Pentium MMX, o Pentium Pro não possuía as extensões MMX. 51 Escola Alcides Maya - Primeiro Módulo Ao integrar-se a cache L2 ao processador, criou-se assim um novo barramento, batizado de Backside Bus dedicado unicamente à comunicação entre o núcleo do processador e o cache L2. O uso de um barramento separado permite que o cache opere na mesma freqüência do processador, independentemente da velocidade da placa mãe. Mesmo com o cache L2 trabalhando na mesma freqüência do processador, o cache L1 continua sendo necessário, pois apesar dos dois caches operarem na mesma freqüência, o barramento de dados do cache L1 é bem maior, o que permite taxas de transferências muito mais altas. O tempo de resposta do L1 também é menor, pois além de nele serem usadas memórias mais rápidas, a distância física a ser percorrida pelo sinal será sempre muito menor, já que o L1 faz parte do núcleo do processador. Quanto à frequência de operação, existiram apenas duas versões, de 166 MHz e 200 MHz. A limitação básica não foi a arquitetura do processador, mas sim o cache. Na época, a Intel tinha condições de lançar versões bem mais rápidas, mas não tinha como produzir chips de cache capazes de operar a mais de 200 MHz. Com a grande mudança na arquitetura do processador e o novo encapsulamento, o Pentium Pro deixou de ser compatível com as velhas placas soquete 7 usadas pelos processadores anteriores. Foi criado então um novo tipo de soquete, batizado de soquete 8, que foi utilizado apenas em placas para processadores Pentium Pro. Estas placas são naturalmente incompatíveis com o Pentium, MMX, K6, etc. AMD 5x86 No início, a AMD produzia clones de processadores Intel, utilizando os projetos desenvolvidos pela Intel e pagando royalties em troca. Porém, devido a várias divergências, o contrato acabou sendo desfeito e a AMD passou a criar os seus próprios projetos de processadores. O AMD 5x86 não passa de um 486 funcionando a 133 MHz, com FSB de 33 MHz e multiplicador x4, seu desempenho era levemente superior a um 486DX4-100, sendo mais ou menos equivalente ao de um Pentium de 75 MHz. Aliás, outra medida de marketing tomada pela AMD na época, foi criar um índice Pr, ou “Pentium Rating”, comparando o desempenho do 5x86 ao do Pentium. O 5x86 de 133 MHz recebeu o índice Pr 75, indicando possuir um desempenho semelhante ao apresentado por um Pentium de 75 MHz. Cyrix Cx5x86 Essse processador, era uma alternativa barata em relação aos Pentium, já que apresentava um desempenho bastante superior a um 486 comum, pois tinha um cache L1 de 16 KB além de algumas outras melhorias que tornam seu desempenho cerca de 35% superior ao de um 486 do mesmo clock. A versão de 100 MHz do Cx5x86 possuia um desempenho equivalente ao 5x86 de 133 MHz da AMD e ao Pentium 75, enquanto a versão de 120 MHz rivaliza em desempenho com um Pentium 90. Assim como o 5x86 da AMD, Cx5x86 era totalmente compatível com as placas mãe para 486, bastando configurar a placa com multiplicador de 3x e FSB de 33 MHz para instalar a versão de 100 MHz e, 3x 40 MHz para utilizar a versão de 120 MHz. 52 Arquitetura e Montagem I AMD K5 A AMD finalmente conseguiu lançar um processador que pudesse concorrer diretamente com o Pentium. O K5, porém, não chegou a tornar-se muito popular devido ao seu lançamento atrasado. Quando finalmente saíram as versões Pr 120 e Pr 133 do K5, em março de 1996, a Intel já havia lançado as versões de 166 e 200 MHz do Pentium, ficando difícil a concorrência. O K5 também utilizava uma Arquitetura Superescalar, mas ao invés de duas, possuía quatro canalizações. O cache L1 também foi ampliado, passando a ser de 24 KB, dividido em dois blocos, um de 16 KB para instruções e outro de 8 KB para dados. O K5 não possuía instruções MMX integradas. O coprocessador aritmético, porém não foi muito melhorado, apresentando um desempenho quase 50% inferior ao apresentado pelo coprocessador do Pentium, devido principalmente à ausência de Pipeline. Mas, como na maioria das aplicações o K5 era bem mais rápido que o Pentium, a AMD optou novamente por vender seu processador segundo um índice Pr, que compara seu desempenho com o dos processadores Pentium. PROCESSADOR FREQUENCIA REAL DE OPERAÇÃO K5-PR 120 90 MHz (1,5 x 60 MHz) K5-PR 133 100 MHz (1,5 x 66 MHz) K5-PR 166 116 MHz (1,75 x 66 MHz) AMD K6 Em 1996 a AMD comprou a NexGen, empresa fundada por ex-engenheiros da Intel, com a tecnologia adquirida da NexGen possibilitou a AMD desenvolver os processadores K6. O K6 trazia 64 KB de cache L1 integrado ao processador e compatibilidade com as instruções MMX e utilizava o mesmo soquete e numero de pinos que o Pentium e Pemtium MMX. Por causa de sua arquitetura mais avançada, o K6 supera em desempenho não somente o Pentium, mas também o Pentium MMX em muitos aplicativos, porém o seu coprocessador matemático possuía um desempenho bastante inferior. Isso fez com que seu desempenho em aplicativos gráficos, como processamento de imagens ou vídeos, jogos com gráficos tridimensionais ficasse bastante prejudicado. Nestes aplicativos o K6 chega a ser mais de 20% mais lento que um Pentium MMX do mesmo clock. O K6 possuía os clocks de 166 MHz, 200 MHz e 233 MHz. 53 Escola Alcides Maya - Primeiro Módulo Cyrix 6x86MX O 6x86MX foi o concorrente da Cyrix para o MMX da Intel. Como o K6, este processador traz 64 KB de cache L1, instruções MMX, e oferece compatibilidade com as placas mãe soquete 7. A performance em aplicações Windows é muito parecida com um K6, porém, o coprocessador aritmético é ainda mais lento do que o que equipa o K6, tornando muito fraco seu desempenho em jogos e aplicativos que façam uso intenso de cálculos de ponto flutuante. Enquanto o K6 usa um coprocessador matemático simples, com apenas uma unidade de execução, mas com otimizações para ser capaz de executar uma instrução por ciclo, o coprocessador 6x86MX da Cyrix pode demorar vários ciclos para processar cada instrução. Apenas as instruções simples são executadas em um único ciclo. Enquanto o coprocessador matemático do K6 era cerca de 20% mais lento que o do MMX, o do 6x86MX chegava a ser 50% mais lento. Como o K5, o 6x86 adota o índice Pr, comparando seu desempenho com o de um Pentium. O 6x86MX é encontrado nas versões PR150 (120 MHz), PR166 (133 MHz), PR200 (150 MHz), PR233 (187 MHz) e PR266 (225 MHz). O uso do índice Pr já foi causador de muita confusão, alguns usuários chegavam a pensar que o Cyrix Pr266 trabalhava realmente a 266 MHz e não a 255 MHz e acabavam achando que o processador estava com algum defeito, por não trabalhar na freqüência divulgada pela Cyrix. Pentium II Criado em 1997 o Pentium II foi criado baseado nas tecnologias do Pentium Pro e do Pentium MMX. A mudança mais visível no Pentium II é o novo encapsulamento SEPP (Singled Edge Processor Package). Ao invés de um pequeno encapsulamento de cerâmica, temos agora uma placa de circuito, que traz o processador e o cache L2 integrado. Protegendo esta placa, temos uma capa plástica, formando um cartucho muito parecido com um cartucho de videogame. As placas de Pentium II não eram compatíveis com as antigas placas de Pentium. A mudança foi necessária, pois a Intel ainda não havia conseguido desenvolver memórias cache que operassem acima de 200 MHz com um custo de produção aceitável. Assim a Intel colocou no Pentium II 512 KB de cache L2, o dobro da quantidade encontrada na versão mais simples do Pentium Pro. No Pentium II, porém o cache L2 trabalha a apenas metade do clock do processador. Em um Pentium II de 266 MHz por exemplo, o cache L2 trabalha a 133 MHz, o dobro da frequência do cache encontrado nas placas mãe soquete 7, mas bem menos do que os 200 MHz do cache encontrado no Pentium Pro. Assim os Pentium II vinham com o cache embutido no processador, mas não dentro de seu núcleo, apenas fazendo parte do mesmo encapsulamento mas com metade da sua velocidade, esse encapsulamento foi a única forma encontrada pela Intel para conseguir um cache L2 de menos velocidade no mesmo corpo do processador. As placas de Pentium II também não possuíam memória cache L2. Com o Pentium II vieram também o suporte a 100 MHz para as placas mãe, tornando as placas, o processador e as memórias RAM mais rápidas. O Pentium II vinha nas seguintes velocidades: 233 MHz, 266 MHz, 300 MHz, 333 MHz, 350 MHz, 400 MHz e 450 MHz de acordo com o quadro abaixo: 54 Arquitetura e Montagem I Processador FSB Multiplicador Pentium II 233 66 MHz 3,5x Pentium II 266 66 MHz 4x Pentium II 300 66 MHz 4,5x Pentium II 300 100 MHz 3x Pentium II 333 66 MHz 5x Pentium II 350 100 MHz 3,5x Pentium II 400 100 MHz 4x Pentium II 450 100 MHz 4,5x AMD K6-2 Criado em 1998 e existente até o ano 2000, o K6-2, também foi conhecido como K6-3D, utilizava o mesmo soquete do Pentium (Socket 7) mas as placas necessitavam um FSB de 100 MHz, que foram conhecidas como placas Super 7. Este processador incorpora a tecnologia AMD 3DNow!, São 21 novas instruções MMX voltadas para processamento de imagens tridimensionais. Com essas novas instruções, programas que utilizam gráficos 3D, particularmente jogos, passaram a ter um grande aumento no desempenho e Unidade MMX superescalar em dupla canalização: Com isso, duas instruções MMX podem ser executadas simultaneamente em um único pulso de clock. O K6-2 foi designado para ser um competidor mais barato dos significamente mais caros e mais antigos Intel Pentium II com um desempenho equivalente. O K6-2 foi um chip de sucesso que proporcionou uma base de mercado estável à AMD e uma garantia de sucesso para os seus processadores futuros. O K6-2 vinha nas seguintes velocidades: AMD K6-III Criado em 1999 para tentar concorrer diretamente com o Pentium III, o K6-III foi o último processador da AMD a utilizar a plataforma Super-7. O que diferenciava o K6-III do K6-2 era que o K6-III possuía uma memória cache muito maior, e dividida em três níveis: o cache L1 de 64 KB, o L2 de 256 KB, mas este usando a mesma velocidade de operação que o processador (diferente do K6-2) e um cache L3 de 512 KB (que era o da placamãe na velocidade da placa, 100 Mhz). O K6-III foi descontinuado cerca de 1 ano após o seu lançamento, pois a AMD resolveu investir em uma nova plataforma com soquete novo, abandonando definitivamente o Super-7. O K6-III foi produzido nos clocks de 400, 450, 475, 500 e 550 MHz. 55 Escola Alcides Maya - Primeiro Módulo CELERON O Celeron, criado em 1998 foi um processador de baixo custo e baixo desempenho, baseado na arquitetura do Pentium II, utilizando inclusive o mesmo Slot e a mesma placa mãe, mas utilizava além do encapsulamento SECC, utilizava também o SEPP (Single Edge Processor Package) Encapsulamento de Processador de Borda Simples, onde ele não possuía o cartucho plástico envolvendo o processador, parecendo muito com um pente de memória cache. Em relação à sua arquitetura é que o Celeron não possuía memória cache, o que fazia que o seu desempenho fosse bastante inferior ao Pentium II, Essa versão era encontrada nas velocidade de 266MHz e 300 MHz. A segunda versão do Celeron, batizada de Celeron-A, possuía 128 KB de cache L2, mas com uma diferença em relação ao Pentium II, o cache L2 do Celeron era síncrono com o processador, assim utilizando a velocidade total do processador, e não apenas metade como era no Pentium II. O Celeron logo em seguida passou a utilizar novos encapsulamentos, o PPGA (Plastic Pin Grid Array) Encapsulamento Plástico com Pinos e o FC-PGA (Flip Chip Pin Grid Array), onde o processador voltou a ser conectado na placa mãe em um formato de soquete (Socket 370), e que o núcleo do processador ficava mais saliente e totalmente descoberto, fazendo que qualquer solução para evitar o aquecimento fosse aplicada diretamente no processador e não em materiais intermediários. Em todas as versões do Celeron com o encapsulamento FC-PGA, o Celeron utilizava o Bus de 66 MHz, enquanto o Pentium II utilizava 100 MHz. Essa versão do Celeron era encontrada nas velocidades de 300 MHz, 333 MHz, 366 MHz, 400 MHz, 433 MHz, 466 MHz, 500 MHz e 533 MHz. Comparando-se o Celeron FC-PGA com o Pentium III por exemplo, via-se que se tratava exatamente do mesmo processador, apenas o Celeron possuía metade do cache desabilitado de fábrica. Pentium III Criado em 1999 o Pentium III vinha com uma série de inovações em relação ao Pentium II, ele foi criado no formato Slot 1 (SECC-2) nas versões de 450, 500, 550 e 600 MHz com FSB de 100 MHZ e cache de 512 KB operando na metade da freqüência de operação do Processador e depois no formato FC-PGA na versões de 600, 650, 667, 700, 733, 750, 766, 800, 850, 866, 933 MHZ e tb 1 GHZ e 1.13 GHz, todos eles com FSB de 100 ou 133 MHz e com o cache de 256 KB mas operando na mesma freqüência de operação interna do processador. 56 Arquitetura e Montagem I Ainda foi lançada uma última série de processadores Pentium III nas versões de 1.13 GHz, 1.26 GHz e 1.4 GHz com FSB de 133 MHZ e com um cache de 512 KB na mesma freqüência de operação interna do processador. Existiam também adaptadores para que tanto o Pentium III quanto o Celeron FC-PGA pudessem ser utilizados em placas Slot 1. As novas tecnologias do Pentium III são: • Tecnologia SSE (Streaming SIMD Extensions): São 70 novas instruções com o conceito SIMD (ver capítulo passado). A idéia é parecida com a tecnologia 3DNow! da AMD, introduzida com o processador K6-2. É a segunda geração da tecnologia MMX. • Co-processador superescalar: permite o uso simultâneo de instruções MMX e SSE e do co-processador matemático. • Número de série: todos os processadores a partir do Pentium III têm um número de série único, que permite identificar o processador através de redes, especialmente da Internet. Isso permite a identificação imediata do usuário quando este se conectar a um site em que esteja cadastrado, por exemplo. • Acesso a até 4 GB de memória usando o cache. INSTRUÇÕES SSE (Streaming SIMD Extensions) A tecnologia SSE acrescenta oito novos registradores de 128 bits ao processador e funciona de modo similar à tecnologia MMX. Enquanto a tecnologia MMX tem instruções que basicamente operam com números inteiros (isto é, são instruções simples, como soma, subtração e comparação de bits), a tecnologia SSE apresenta instruções que trabalham com o mesmo conceito da tecnologia MMX (SIMD), porém com instruções que utilizam bastante o co processador matemático — o que certamente agilizará o processamento de programas 3D e de reconhecimento de voz escritos utilizando essas novas instruções. Da mesma forma que a tecnologia MMX, o programa deverá ser escrito para a tecnologia SSE de modo a aproveitar os benefícios desse conjunto de instruções. AMD ATHLON Criado em 1999 o Athlon, também conhecido como K7, foi um projeto totalmente novo da AMD inclusive em um novo encapsulamento, o Slot A, que era muito semelhante ao Slot 1 da Intel, entretanto não são compatíveis do ponto de vista elétrico. Assim como os primeiros Pentium II e Pentium III o Athlon possuia um cache de 512 MB, mas a sua velocidade era menor que a do processador, dependendo do modelo do Athlon a velocidade do cache L2 poderia ser de 1/2, 1/3 ou 2/5 da velocidade de operação do processador, segundo o quadro abaixo: 57 Escola Alcides Maya - Primeiro Módulo Processador Divisor Cache L2 Athlon 700 MHz 1/2 350 MHz Athlon 750 MHz 2/5 300 MHz Athlon 800 MHz 2/5 320 MHz Athlon 850 MHz 2/5 340 MHz Athlon 900 MHz 1/3 300 MHz Athlon 950 MHz 1/3 316 MHz Athlon 1.0 GHz 1/3 333 MHz As principais características do Athlon são: • Arquitetura superescalar: o Athlon tem nove unidades de execução trabalhando em paralelo, permitindo a execução de até nove microinstruções simultaneamente. Tem também três unidades de processamento com números inteiros, três unidades de geração de endereços (unidades de carga e armazenamento) e três unidades de ponto flutuante. • Unidade de ponto flutuante redesenhada: Os concorrentes da Intel (e os entusiastas de jogos 3D) sabem muito bem que esse é um ponto fraco dos processadores AMD. Por esse motivo, a empresa resolveu redesenhar completamente o seu co-processador matemático, de modo que este atinja desempenho superior. Segundo testes de desempenho que realizamos em laboratório, a unidade de ponto flutuante do Athlon tem desempenho similar ao de processadores Intel operando a um mesmo clock. • Enhanced 3DNow!: É a segunda geração da tecnologia 3DNow! da AMD, trazendo 24 novas instruções 3DNow! • Barramento externo: A grande novidade desse processador é o uso de um barramento externo transferindo dois dados por pulso de clock, em um esquema chamado DDR (Double Data Rate, Taxa de Transferência Dobrada). BARRAMENTO EXTERNO DOBRADO O Athlon foi criado para operar com um barramento externo de 200 MHz, este barramento emprega um método chamado DDR (Double Data Rate), já utilizado por vários barramentos para obter clocks maiores. Em cada período de clock, o Athlon realiza duas transferências de dados, portanto cada período vale por dois. Com o clock de 100 MHz e usando DDR, o resultado é equivalente ao de um clock de 200 MHz. Com 133 MHz e DDR, o resultado é 266 MHz. As primeiras versões do Athlon operavam com o FSB de 100 MHz x 2. Logo em seguida foram lançadas as versões com FSB de 133 MHz x 2. Note que um Athlon operando com 100 MHz e DDR produz um resultado melhor que um Pentium III usando 133 MHz, sem DDR. ATHLON THUNDERBIRD O Athlon “Thunderbird”, também conhecido somente como Athlon (ou K7) foi a segunda geração dos processadores Athlon da AMD, lançado no ano 2000. Assim como o Pentium III, o Athlon abandonou a plataforma do Slot-A para receber um novo encapsulamento em forma de soquete, muito semelhante ao FC-PGA do Pentium III, chamado de Socket-A, ou Socket-462, mas que curiosamente possuía apenas 453 pinos em uso (nove pinos foram bloqueados neste soquete para prevenir inserção acidental de processadores Socket-370 da Intel). A mudança de encapsulamento ocorreu pelo fato do Athlon também passar a ter a sua memória cache de 256 KB na mesma velociade de operação do núcleo do processador (e não mais uma velocidade fracionada, como no Athlon Slot-A). AMD DURON 58 Arquitetura e Montagem I Criado no ano 2000, junto com o Athlon Thunderbird, o Duron veio para ser o processador de baixo custo da AMD, sendo o concorrente direto do Intel Celeron. O Duron, de codinome Spitfire utilizava o mesmo soquete e a mesma arquitetura do Athlon Thunderbird, porém, vem com muito menos cache. Enquanto o Athlon Thunderbird vem com 256 KB de cache L2, o Duron vem com apenas 64 KB de cache L2, também com a mesma velocidade de operação do processador. Apesar da pouca quantidade de cache L2, o Duron traz um enorme cache L1 de 128 KB, totalizando 192 KB de cache, mais cache que o Celeron, que tem 32 KB de cache L1 e 128 KB de cache L2, totalizando 160 KB de cache. No Duron, o cache L2 é exclusivo, isto significa que os dados depositados no cache L1 e no cache L2 serão diferentes. Temos então realmente 192 KB de dados depositados em ambos os caches, já no Celeron, os 32 KB do cache L1 serão sempre cópias de dados armazenados no cache L2. Isto significa que no Celeron, temos apenas 128 KB de dados armazenados em ambos os caches, o que torna o Duron mais rápido. Na prática o Duron era um Athlon Thunderbird só que com muito menos cache e inicialmente só foram produzidos Durons com FSB de 200 MHz (100 MHz x 2). Pentium 4 Lançado no final do ano 2000, o Pentium 4 foi o primeiro CPU totalmente redesenhado desde o Pentium Pro, com um projeto novo começando do zero, seu nome código se chamava Willamette. O Pentium 4 também utilizava um novo soquete (Socket 423) assim sendo incompatível com placas de Pentium III. O Pentium 4 foi lançado nas versões: 1.3 GHz, 1.4 GHz, 1.5 GHz, 1.7 GHz, 1.9 GHz e 2.0 GHz, todos eles com 256 KB de memória cache na mesma velocidade de operação do processador. A arquitetura do Pentium 4 trazia uma série de inovações, são elas: • Novo Cache L1: Cache L1 de dados de 8 KB. Não há cache de instruções. Em vez disso, há um cache de microinstruções que é capaz de armazenar 12.288 microinstruções. Cada microinstrução do Pentium 4 é de 100 bits, significando que o cache de microinstruções possui 150 KB. • Novo Cache L2: Cache L2 de 256 KB operando na mesma freqüência de operação interna do processador. Comunica-se com o cache L1 de dados através de um barramento dedicado de 256 bits, fazendo com que essa comunicação seja quatro vezes mais rápida do que era nos processadores da geração passada. • Arquitetura superescalar Ampliada: Unidade de execução superescalar, com sete unidades de execução. As unidades de execução simples operam internamente com o dobro do clock interno do processador. • Barramento externo x4: O barramento externo do Pentium 4 opera transferindo quatro dados por pulso de clock, em vez de apenas um, como era nos processadores anteriores. Fisicamente falando, utiliza um barramento externo de 100 MHz mas que opera como se fosse de 400 MHz. 59 Escola Alcides Maya - Primeiro Módulo • Instruções SSE2: São 144 novas instruções de ponto flutuante de dupla precisão. Elas tem basicamente a mesma função das instruções SSE do Pentium III e do 3D-Now! Do Athlon: melhorar o desempenho do processador em aplicativos de ponto flutuante. A diferença é que as instruções do Pentium 4 são mais poderosas que os conjuntos anteriores e podem ser utilizadas em mais situações, caso aplicativos sejam otimizados para as novas instruções. • Tecnologia Hyper Pipelined: O uso de Pipelines permite que o processador seja capaz de processar várias instruções ao mesmo tempo, já que cada estágio cuida de uma fração do processamento. Quanto mais estágios, menor será o processamento executado em cada um. No caso do Pentium 4 cada estágio do Pipeline processa apenas metade do processado por um estágio do Pentium III, fazendo com que teoricamente o resultado final seja o mesmo, já que em compensação existem o dobro de estágios. O Pentium III possui 10 estágios, o Athlon possui 11 estágios, enquanto o Pentium 4 possui nada menos que 20 estágios, daí o nome “Hyper Pipelined”. Em 2002 foi lançado uma nova versão do Pentium 4, de codinome Northwood, com um novo soquete (Socket 478) e funcionando a 2.0 GHz, 2.2 GHz e 2.4 GHz. O Northwood combinava um aumento no tamanho da memória cache secundária (de 256 KB para 512 KB) e o núcleo passou a ser construído a partir de transistores menores, assim os chips podem funcionar com frequências maiores (ou à mesma velocidade) produzindo menos calor. Logo depois vieram as versões de 2.53 GHz quando o barramento externo foi aumentado de 4x100 MHz para 4x133 MHz (popularmente chamados de 400Mhz e 533 MHz), e versões de 2.6 GHz, 2.8 GHz de 3.06 GHz. Foi incorporada a esses processadores a tecnologia Hyper-threading, permitindo o processamento de diferentes tarefas simultaneamente duplicando algumas partes do processador de modo que o sistema operacional pensasse que existiam dois processadores instalados.O Hyper-Threading foi, de certa forma, um ensaio para os processadores dual-core que a Intel viria a lançar cerca de três anos depois. O ganho obtido ao ativar o Hyper-Threading não é nem próximo do obtido ao utilizar um processador dual-core de verdade, já que ele se baseia no melhor aproveitamento das unidades de execução do processador e não na presença de um segundo processador físico. Ao ativá-lo o sistema operacional e aplicativos precisam lidar com o trabalho adicional de dividir a carga entre os dois processadores. Embora sejam dois processadores lógicos, o impacto sobre o desempenho não é o mesmo de ter dois processadores reais.Em alguns aplicativos, ele pode resultar em ganhos de 10, ou até mesmo 20%, mas na maioria o ganho é muito pequeno, abaixo de 2%. Existe ainda um grande número de aplicativos onde ativar o HT reduz substancialmente o desempenho, o que anula em grande parte o ganho obtido em outros aplicativos. Em 2003 foram lançadas novas versões de codinome Prescott no Socket 478 e em um novo encapsulamento chamado de LGA-775 ou Socket-775. LGA significa Land Grid Array, onde os pinos se localizam no soquete da placa e não mais no processador. Esses novos modelos vieram com 1 ou 2 MB de memória cache e com um barramento externo de 4x200 MHz (popularmente chamados de 800 MHz) com velocidades de 2.26 GHz, 2.66 GHz, 3.0 GHz, 3.2 GHz e 3.4 GHz. Outra novidade foram as instruções SSE3: São 13 novas instruções do tipo MMX que agiliza funções de software tais como codificação de vídeo, conversão de números de ponto flutuante em inteiros e sincronização de tarefas. As últimas versões do Pentium 4 já possuíam as instruções EM64 de 64 Bits. Junto com as novas versões do Pentium 4 também surgiram as novas versões do Celeron baseadas no Northwood (Socket-478) e Prescott (LGA-775). Além de ter o cache reduzido pela metade, o Celeron trabalhava com o FSB de 4x133 MHz (533 MHz) ao invés do 4x200 MHz (800 MHz) do Pentium 4. Os Celeron não possuíam as instruções EM64 de 64 bits. 60 Arquitetura e Montagem I ATHLON XP Criado em 2001, a terceira geração do Athlon, tinha o codinome de Palomino, mas o nome comercial de Athlon XP, que significa Extreme Performance (e também em virtude do lançamento do Windows XP), por ter velocidades de clock bem menores que os do Pentium 4 (que já operava na casa dos 3.0 Ghz) a AMD passou a utilizar o chamado PR (Performance Rating) nos seus processadores, onde o nome do processador correspondia à sua performance equivalente e não ao seu clock real, conforme o quadro abaixo: PROCESSADOR CLOCK REAL FSB CLOCK DA PLACA MULTIPLICADOR Athlon XP 1500+ 1333 MHz 266 MHz 133 MHz 10x Athlon XP 1600+ 1400 MHz 266 MHz 133 MHz 10.5x Athlon XP 1700+ 1467 MHz 266 MHz 133 MHz 11x Athlon XP 1800+ 1533 MHz 266 MHz 133 MHz 11.5x Athlon XP 1900+ 1600 MHz 266 MHz 133 MHz 12x Athlon XP 2000+ 1667 MHz 266 MHz 133 MHz 12.5x Athlon XP 2100+ 1733 MHz 266 MHz 133 MHz 13x Com relação ao desempenho, o Palomino, com os mesmos 256 KB de cache L2, trouxe duas modificações importantes. A primeira foi a compatibilidade com as instruções SSE, que pela AMD foram chamadas de “3D-Now! Professional”. A segunda melhoria foi um sistema aperfeiçoado de data prefetch, que melhorou a eficiência dos caches, permitindo que o processador aproveitasse a banda ociosa no barramento com a memória para carregar instruções e dados que possuem uma grande probabilidade de serem utilizadas nos ciclos seguintes. Com isso, o número de ciclos de processamento perdidos foi reduzido, resultando em um pequeno ganho de velocidade. A partir do Palomino, veio também uma nova versão do Duron, de codinome Morgan. o Duron Morgan foi lançado em versões de 900, 950, 1000, 1100, 1200 e 1300 MHz, todas utilizando FSB de 2x100 MHz (200 MHz). Em 2002 a AMD apresentou uma nova versão do Athlon XP de codinome Thoroughbred, que manteve os mesmos 256 KB de cache L2 e demais características, mas que oferecia uma dissipação térmica muito mais baixa e era assim capaz de trabalhar a freqüências de clock mais elevadas. No mesmo ano a AMD lançou uma nova versão chamada Thoroughbred-B, nas versões XP 2400+ e 2600+, e com um novo FSB de 2x166 MHz (333 MHz) nos modelos 2600+, 2700+ e 2800+. O Thoroughbred deu origem à terceira geração do Duron, o Applebred, lançado em agosto de 2003, em versões de 1.4, 1.6 e 1.8 GHz, todas utilizando FSB de 2x133 MHz (266 MHz). Em 2003 foi lançada mais uma versão do Athlon XP de codinome Barton, o Barton inicialmente era idêntico ao Thoroughbred-B, mas com 512 KB de cache L2, Como o Barton mantém os 128 KB de cache L1 e mantém o uso do sistema exclusivo, ele é capaz de armazenar até 640 KB de dados em ambos os caches, melhorando sua performance. O Barton foi inicialmente lançado em três versões: 2500+ (1.83 GHz), 2800+ (2.08 GHz) e 3000+ (2.16 GHz). As três utilizavam bus de 166 MHz e mantinham compatibilidade com as placas anteriores. Mais adiante foram lançados os modelos 3000+ e 3200+ com um novo FSB de 2x200 Hz (400 MHz). 61 Escola Alcides Maya - Primeiro Módulo ATHLON 64 Também conhecido como K8 o Athlon 64, criado em 2003, foi o primeiro processador de 64 bits, chamada a arquitetura AMD64 (ou x64), produzida pela AMD. A diferença principal entre a arquitetura AMD64 e a de outros processadores, incluindo os processadores mais antigos da AMD, como o Athlon XP e o Athlon original, é o modo de operação de 64 bits para as instruções x86, o que ele faz é expandir os registradores de 32 bits existentes em registradores de 64 bits. Neste modo o barramento de endereço do processador também é expandido de 32 para 40 bits, habilitando o processador para acessar diretamente até 1 TB de memória RAM. Além disso, neste modo de operação o processador pode acessar até 256 TB de memória virtual. Outra inovação é que o controlador de memória está embutido dentro do processador, e não na ponte norte do chipset da placa-mãe. A comunicação entre os processadores AMD64 e o chip ponte é feita através de um barramento chamado HyperTransport. A velocidade deste barramento depende do modelo do processador. Valores típicos são 3.200 MB/s (também chamado 800 MHz e 1.600 MHz) ou 4.000 MB/s (também chamado 1.000 MHz e 2.000 MHz). O Athlon 64 não utiliza mais um barramento frontal, como nos processadores antigos, mas sim um link HyperTransport que liga o processador ao chipset. Existe um clock de referência de 200 MHz, que substitui o FSB, gerando a freqüência do processador, da memória e do próprio barramento HyperTransport. Outras novidades do Athlon 64 são: • • • • • 16 registradores de propósito geral (GPR) de 64 bits. Instruções 3DNow!, MMX, SSE, SSE2 64 KB de cache L1 de instruções e 64 KB de cache L1 de dados 512 KB ou 1 MB de cache L2 Hypertransport O Athlon 64 veio em um novo encapsulamento e três modelos de soquete, o primeiro foi o Socket-754, com HyperTransport de 800 MHz, e três versões. A primeira versão, de codinome Newcastle, vinha com 512 KB de cache, a segunda, de codinome Clawhammer, vinha com 1 MB de cache e a terceira, de codinome Venice, com 512 KB de cache e suportando as novas instruções SSE3. O segundo soquete do Athlon 64 foi o Socket-939, com HyperTransport de 1000 MHz e teve quatro versões. As Newcastle, Clawhammer e Venice, com as mesmas características do Socket-754, e mais a versão de codinome San Diego, com 1 MB de cache e instruções SSE3. O terceiro soquete, é conhecido como soquete AM2, de 940 pinos, com os codinomes Orleans e Lima, ambos com 512 KB de cache e Instruções SSE3, a diferença entre eles estava no tamanho dos transistores e na dissipação de calor. Os Athlon 64 foram produzidos nas versões: 2800+, 3000+, 3200+, 3400+, 3500+, 3700+, 3800+ e 4000+. 62 Arquitetura e Montagem I Pentium D Lançado em 2005, o Pentium D consiste em dois processadores Pentium 4 Prescott em um único soquete, foi o primeiro processador a apresentar a tecnologia chamada multicore no mercado. O codinome da primeira geração de Pentium D foi o Smithfield, com freqüências entre 2,8 e 3,2 GHz (modelos 820, 830 e 840), todos com FSB de 800 MHz. O Pentium D 805, com freqüência de 2,66 GHz e FSB de 533 MHz apareceu no inicio de 2006. A nova geração de Pentium D, de codinome Presler apresentava um encapsulamento único, possuindo dois núcleos em um, dando destaque ao processador com mais de um núcleo. Em 2006 foram lançados os modelos 920, 930, 940 e 950 (2.8, 3.0, 3.2 e 3.4 GHz). Após um período, o nome Pentium D deixou de ser utilizado e a Intel passou a utilizar o nome Pentium DualCore, que tinha o codinome Conroe. Todos os Pentium D e Pentium Dual-Core utilizavam o soquete LGA-775, e possuíam 1 MB de cache L2 por núcleo, FSB de 800 MHz as instruções EM64T, de 64 bits da Intel. Nenhum dos modelos suportava a tecnologia Hyper-Threading. Athlon 64 X2 O Athlon 64 X2 é a versão dual-core do Athlon 64, no caso do Athlon X2, temos os dois núcleos construídos sobre o mesmo wafer. A comunicação entre os dois núcleos é feita internamente, utilizando um barramento interno, batizado de SRI (System Request Interface), o que garante tempos de latência mais baixos e pequenos ganhos de desempenho ao rodar muitos aplicativos simultaneamente (que é justamente a área em que os processadores dual-core oferecem mais vantagens), além de permitir que o processador seja capaz de operar a freqüências um pouco mais elevadas. Cada processador possui seu próprio cache L2, mas ambos compartilham o mesmo controlador de memória e o mesmo barramento HyperTransport, através do qual é feita toda a comunicação com o chipset e os demais componentes do PC. Olhando uma foto ampliada do processador, você pode notar que os dois núcleos ficam no centro, envoltos pelos circuitos referentes ao controlador de memória e HyperTransport. O Athlon 64 X2 começa com o Manchester, lançado em maio de 2005. Ele era fabricado usando uma técnica de 0.09 micron, com 512 KB de cache L2 por core (1 MB no total) e suporte às instruções SS3. A versão mais lenta tinha metade do cache L2 desabilitado, de forma a aproveitar os cores com defeitos no cache. O Manchester foi usado nos Athlon 64 X2 3600+ (2.0 GHz, 2x 256 KB, soquete 939), 3800+ (2.0 GHz, 2x 512 KB, soquete 939), 4200+ (2.2 GHz, 2x 512 KB, soquete 939) e 4600+ (2.4 GHz, 2x 512 KB, soquete 939) O seguinte foi o Toledo, ainda fabricado em uma técnica de 0.09 micron, mas agora com 1 MB de cache por core, totalizando 2 MB. Ele foi lançado simultaneamente com o Manchester, e os modelos do X2 baseados em ambos conviveram durante mais de um ano. Apenas três dos modelos produzidos utilizando o core Toledo vieram com todo o cache ativo. O demais vinham com metade do cache desativado, o que os tornava praticamente indistinguíveis dos baseados no Manchester. O Toledo foi utilizado nos modelos 3800+ (2.0 GHz, 2x 512 KB, soquete 939), 4200+ (2.2 GHz, 2x 512 KB, soquete 939), 4400+ (2.2 GHz, 2x 1 MB, soquete 939), 4600+ (2.4 GHz, 2x 512 KB, soquete 939) e 4800+ (2.4 GHz, 2x 1 MB, soquete 939). Quase um ano depois, em maio de 2006, foi lançado o Windsor, que passou a utilizar o soquete AM2 e adicionou suporte ao AMD-V, mantendo a mesma técnica de produção de 0.09 micron e o uso de 2x 1 MB de cache. Assim como no Toledo, uma grande parte dos modelos vinham com metade do cache L2 desabilitado e 63 Escola Alcides Maya - Primeiro Módulo eram vendidos sob índices de desempenho mais baixos que os completos. O Windsor foi utilizado nos modelos 3800+ (2.0 GHz, 2x 512 KB, soquete AM2), 4000+ (2.0 GHz, 2x 1 MB, soquete AM2), 4200+ (2.2 GHz, 2x 512 KB, soquete AM2), 4400+ (2.2 GHz, 2x 1 MB, soque AM2), 4600+ (2.4 GHz, 2x 512 KB, soquete AM2), 5000+ (2.6 GHz, 2x 512 KB, soquete AM2), 5200+ (2.6 GHz, 2x 1 MB, soquete AM2), 5400+ (2.8 GHz, 2x 512 KB, soquete AM2), 5600+ (2.8 GHz, 2x 1 MB, soquete AM2) e 6000+ (3.0 GHz, 2x 1 MB, soquete AM2). Sempron Apesar de serem processadores completamente diferentes dos Semprons soquete A baseados no Barton, Thorton e Thoroughbred-B, a AMD continuou utilizando a marca “Sempron” ao lançar a linha de processadores de baixo custo, baseada na arquitetura K8. Além da questão do cache menor, as versões iniciais do Sempron vinham sem suporte ao AMD64, ou seja, sem suporte às instruções de 64 bits, incluindo os registradores extra e as outras melhorias trazidas pela arquitetura. Embora fossem baseados na arquitetura K8, eles eram processadores de 32 bits, sem praticamente nenhuma das inovações trazidas por ela. A primeira versão do Sempron K8 foi o Paris, uma versão simplificada do ClawHammer, produzido em uma técnica de 0.13 micron, que possuía nativamente apenas 256 KB de cache e vinha sem suporte às instruções de 64 bits, ao Cool’n’Quiet e também às instruções SSE3. A partir de 2005, o Paris foi rapidamente substituído pelo Palermo, produzido usando uma técnica de 0.09 micron. Nativamente, o core Palermo possui 256 KB de cache e oferecia em apenas alguns modelos o suporte às extensões de 64 bits e também às instruções SSE3. Finalmente, temos o Sempron Manila, ainda fabricado usando a técnica de 0.09 micron, mas agora com suporte ao soquete AM2. Ao contrário dos Palermos, todos os Manilas incluem suporte às instruções de 64 bits e SSE3, mas o Cool’n’Quiet é suportado apenas nas versões 3200+ em diante. Arquitetura Intel Core Os processadores Core 2 Solo, Core 2 Duo, Core 2 Quad e Core 2 Extreme são baseados na nova microarquitetura Core, lançada para substituir a microarquitetura Netburst que era usada no Pentium 4 e processadores derivados deste. Neste tutorial listaremos todos os modelos já lançados destes processadores bem como as suas principais características técnicas. A família dos processadores Core 2 é formada por quatro membros: • Core 2 Solo, que é um processador de um núcleo que substitui o Pentium M, sendo um modelo para notebooks; • Core 2 Duo, um processador de dois núcleos que substitui o Pentium 4 e o Pentium D; • Core 2 Quad, que é formado por dois processadores Core 2 Duo em um mesmo invólucro sendo, portanto, um processador de quatro núcleos; • Core 2 Extreme, que substitui o Pentium Extreme Edition, com modelos de dois e quatro núcleos. O Core 2 Extreme trabalha com clocks mais elevados e tem o multiplicador de clock destravado, o que permite fazer overclock alterando o multiplicador de clock do processador. 64 Arquitetura e Montagem I Cuidado para não confundir o processador Core 2 Duo com o Core Duo. O Core Duo (conhecido anteriormente pelo nome-código Yonah) é o nome comercial para um Pentium M com dois núcleos de processamento construído com tecnologia de 65 nm. Já o Core 2 Duo é o nome comercial para o processador que utiliza a microarquitetura Core da Intel. As principais características técnicas dos processadores da família Core 2 (Core 2 Duo, Core 2 Quad e Core 2 Extreme) são as seguintes: • Arquitetura Core • 64 KB de cache L1 (32 KB de dados + 32 KB de instruções) por núcleo • Tecnologia de um (Core 2 Solo), dois (Core 2 Duo, alguns modelos de Core 2 Extreme) ou quatro núcleos (Core 2 Quad, alguns modelos de Core 2 Extreme) • Tecnologia fabricação de 65 nm ou 45 nm • Soquete 775 nos modelos para computadores de mesa (soquete 771 no Core 2 Extreme QX9775) • Barramento externo de 800 MHz (200 MHz transferindo quatro dados por pulso de clock), 1.066 MHz (266 MHz transferindo quatro dados por pulso de clock), 1.333 MHz (333 MHz transferindo quatro dados por pulso de clock) ou 1.600 MHz (400 MHz transferindo quatro dados por pulso de clock). • 2 MB, 3 MB, 4 MB ou 6 MB de cache de memória L2 compartilhado. Nos processadores de quatro núcleos, cada par de núcleos tem seu próprio cache, compartilhado entre os dois núcleos mas independente dos outros dois. • Tecnologia de Virtualização (exceto no Core 2 Duo modelos E4x00, E7x00 e E81xx) • Tecnologia Intel EM64T • Instruções SSE3 • Instruções SSE4.1 nos modelos de 45 nm • Execute Disable • Intelligent Power Capability • Tecnologia Enhanced SpeedStep AMD PHENOM O AMD Phenom, de codinome Barcelona é o primeiro processador quad-core “nativo” desenvolvido pela AMD. Apesar de possuir nada menos do que 463 milhões de transístores, as versões iniciais do Barcelona ainda serão produzidas usando a técnica de 0.065 micron (65 nanômetros), mas a AMD pretende produzir versões de 0.045 micron a partir da segunda metade de 2009. Relembrando, os Athlons, Durons e Semprons de 32 bits fazem parte da plataforma K7, enquanto os Athlon 64, X2 e FX fazem parte da plataforma K8. Para evitar trocadilhos a AMD decidiu pular o “K9” (que é o nome de uma unidade de cães farejadores), de forma que o Barcelona e derivados formam a plataforma K10. O Phenom é composto por 4 núcleos idênticos, cada um contendo seu próprio cache L1 (de 128 KB, dividido em dois blocos de 64 KB, para dados e instruções) e 512 KB de L2. Entre os processadores temos os circuitos referentes ao Crossbar Switch (o componente responsável por dividir as requisições entre os dois cores e controlar o acesso de ambos ao controlador de memória, entre outras funções) e outros circuitos de gerenciamento. Outra grande vantagem diz respeito ao processamento das instruções SSE, área onde os processadores baseados na plataforma Core superam o Athlon 64 por uma boa margem. O problema fundamental da arquitetura K8 neste quesito é o fato de serem utilizadas unidades SSE de 64 bits. Isso faz com que instruções SSE de 128 bits precisem ser divididas e processadas na forma de duas instruções de 64 bits separadas, que consomem dois ciclos de clock. A ampliação das unidades SSE foi acompanhada também por melhorias no cache e nos decodificadores. 65 Escola Alcides Maya - Primeiro Módulo O K8 era capaz de realizar duas transferências de 64 bits por ciclo do cache L1 para as unidades SSE, e os decodificadores de instruções eram dimensionados para alimentar as unidades de execução com 16 bytes de instruções por ciclo. No Phenom, as transferências do cache L1 para as unidades SSE passarem a ser de 128 bits e os decodificadores passaram a ser capazes de alimentar as unidades de execução com 32 bytes por ciclo, tudo dimensionado de forma a acompanhar a ampliação das unidades SSE. A AMD chama esse conjunto de melhorias de “SSE128”. Você vai ver várias referências ao termo no material publicitário daqui em diante. Outra melhoria foi uma expansão dos buffers do controlador de memória, desenvolvida para tirar melhor proveito dos bursts oferecidos pelos módulos DDR2 e DDR3. Basicamente, os módulos de DDR2 e DDR3 oferecem taxas de transferência muito elevadas, mas em compensação trabalham com tempos de latência relativamente altos. Ao invés de realizar várias operações de escrita separadas (tendo que arcar com um lento acesso inicial para cada uma delas), o controlador pode acumular um certo volume de dados e escrevê-los de uma vez em um único burst de operações de escrita. Isso permite que as operações de escrita tomem menos tempo, deixando mais ciclos livres para as operações de leitura. As principais diferenças entre o Phenom e o Athlon 64 são as seguintes: • Uso de um cache de memória L3. • Uso de um barramento HyperTransport 3.0 entre o processador e o chipset, aumentando a largura de banda disponível entre o processador e o mundo externo. É importante notar que até o momento os processadores Phenom não trabalham com o desempenho máximo oferecido pelo barramento HyperTransport 3.0. • Uso de linhas separadas de alimentação para o processador e para o controlador de memória, que está embutido dentro do próprio processador (esta tecnologia também é conhecida como “split-plane” – “alimentação dividida” – ou DDPM, Dual Dynamic Power Management, ou Gerenciamento Elétrico Dinâmico Duplo). • Uso de um gerador de clock para o controlador de memória com um valor fixo. Isto resolve o problema que acontece com o Athlon 64 onde dependo do modelo do processador as memórias não funcionam em seu desempenho máximo. • Suporte para memórias DDR2 até DDR2-1066/PC2-8500 (processadores Athlon 64 suportam até DDR2800/PC2-6400) nos modelos para soquete AM2+; suporte para memórias DDR3 nos modelos para soquete AM3, que também suportam memórias DDR2 quando instalados em placas-mãe AM2+ certificadas. Até agora a AMD lançou modelos do Phenom de três e quatro núcleos, e Phenom II de dois, três e quatro núcleos, com as seguintes especificações técnicas para todos os modelos: • Cache de memória L1 de 128 KB por núcleo. • Cache de memória L2 de 512 KB por núcleo. • Cache de memória L3 de 2 MB compartilhado por todos os núcleos (4 MB ou 6 MB nos modelos Phenom II). • Barramento HyperTransport 3.0 trabalhando a 1,6 GHz (6.400 mb/s), 1,8 GHz (7.200 MB/s), 2 GHz (8.000 MB/s), dependendo do modelo. Note que o HyperTransport 3.0 oferece taxas maiores (2,4 GHz/9.600 MB/s e 2,6 GHz/10.400 MB/s) que ainda não estão sendo utilizadas; • Soquete AM2+ ou AM3 (alguns modelos do Phenom II). • Processo de fabricação de 65 nm (45 nm nos modelos Phenom II). • Conjunto de instruções “SSE4a”, que é simplesmente a adição de duas novas instruções SSE e não tem nada a ver com o SSE4.1 existente nos mais recentes processadores da Intel e que traz 47 novas instruções. • Modelos “Black Edition” possuem o multiplicador de clock destravado, significando uma maior capacidade para overclock, já que eles podem ser configurados como se fossem um processador de clock mais elevado. • 66 Arquitetura e Montagem I INTEL CORE i7 O Core i7 é o nome dos novos processadores com arquitetura Nehalem, assim batizados pela Intel. O Core i7 usa um novo encapsulamento, o LGA 1366. Muitas das melhoras de performance do i7 têm a ver com melhor acesso a memória e banda mais larga. Outra tecnologia usada há anos pela AMD é o controlador de memória integrado, finalmente adotado pela Intel no Core i7. Basicamente isso significa que o controlador de memória fica na CPU, reduzindo a latência de memória. Antes, com chips Intel, a comunicação tinha que acontecer pelo FSB, deixando tudo muito mais lento. O Core i7 também tem suporte a memória triple-channel DDR3. A Intel havia abandonado o Hyper-Threading depois do Pentium 4, mas agora ele está de volta no Core i7. As características do Core i7 São: • Tecnologia Intel Turbo Boost: maximiza a velocidade para os aplicativos exigentes, acelerando dinamicamente o desempenho de modo a corresponder-se à demanda da carga de trabalho, isto é, mais desempenho onde ele é mais necessário. Tecnologia Intel Hyper-Threading: habilita os aplicativos altamente segmentados a produzir mais, trabalhando em paralelo. Com 8 threads disponíveis ao sistema operacional, a multitarefa tornou-se ainda mais fácil. • Cache inteligente avançado Intel: fornece um subsistema de cache de alto desempenho mais eficiente. Otimizado para os jogos de múltiplos processos líderes do mercado. • Intel QuickPath Interconnect: é projetado para aumentar a largura de banda e diminuir a latência. Ele pode alcançar velocidades de transferência de dados de até 25,6 GB/s com o processador Extreme Edition. • Controladora de memória integrada: capacita três canais de memória DDR3 de 1066 MHz que resulta em até 25,6 GB/s de largura de banda de memória. Essa latência mais baixa e largura de banda mais alta da controladora de memória proporcionam um desempenho surpreendente para os aplicativos de uso intenso de dados. • Intel HD Boost: melhora significantemente uma ampla faixa de multimídia e aplicativos de uso intenso de computação. As instruções de 128 bits SSE são emitidas a uma taxa de transferência de um por ciclo do clock, o que permite um novo nível de eficiência de processamento com aplicativos otimizados para SSE4. • Outras tecnologias: MMX, SSE, SSE2, SSE3, SSE4.1, SSE4.2, Intel EM64T, Intel Virtualization, Intel SpeedStep, Execute Disable Bit. Foram lançadas as versões Core i7 920 de 2,66GHZ, Core i7 940 de 2,93GHZ e Core i7 965 de 3,20GHZ. Todos os modelos são Quad-Core, com 8MB de cache L3 compartilhado e 256Kb de cache L2 para cada núcleo. Todos produzidos com a tecnologia de 45nm. 9 Memórias RAM RAM significa Memória de acesso aleatório (Random Access Memory) é um tipo de memória que permite o acesso a leitura e a escrita a qualquer momento. A velocidade de funcionamento de uma memória é medida em Hz ou MHz. Este valor está relacionado com a quantidade de blocos de dados que podem ser transferidos durante um segundo. Existem no entanto algumas memórias RAM que podem efetuar duas transferências de dados no mesmo ciclo de clock, duplicando a taxa de transferência de informação para a mesma frequência de trabalho. Além disso, a colocação das memórias em paralelo (propriedade da arquitetura de certos sistemas) permite multiplicar a velocidade aparente da memória. Memória SIMM 67 Escola Alcides Maya - Primeiro Módulo SIMM, ou Single In-line Memory Module, é um tipo de módulo de memória RAM usada em computadores do início da década de 1980 até o final da década de 1990. A memória SIMM se dividia nos seguintes modelos: FPM 30 VIAS Fast Page Memory (Memória de Paginação Rápida) foi a primeira das memórias SIMM a ser utilizada nos computadores, eram memórias de 30 vias (30 conectores) e possuíam barramento de 8 Bits. Em computadores de 16 Bits era necessário que fossem ligadas aos pares e em computadores de 32 Bits (como os 386 e 486) eram necessários quatro pentes de memória para que o contato fosse efetuado. As memórias de 30 vias foram produzidas com 256KB, 512 KB, 1 MB e 4 MB. FPM 72 VIAS As Memórias de 72 vias foram criadas utilizando a mesma tecnologia das de 30 vias, mas com um barramento de 32 bits, o que dispensava a necessidade das memórias serem instaladas aos pares ou com quatro pentes idênticos. A SIMM de 72 vias era compatível apenas com os computadores 486 e os primeiros Pentium que foram lançados. Foram produzidos pentes com 4 MB, 8 MB e 16 MB. EDO 72 VIAS As memórias EDO foram criadas em 1994, e trouxeram mais uma melhoria significativa no modo de acesso a dados. Além de ser mantido o modo de acesso rápido das memórias FPM, foram feitas algumas modificações para permitir que o acesso à dados pode ser iniciado antes que o anterior termine, permitindo aumentar sensivelmente a velocidade dos acessos, com um ganho real 25%. Como eram usadas nos computadores Pentium, esses como utilizavam um barramento externo de 64 bits, exigia que fossem instaladas duas memórias EDO idênticas. As memórias EDO foram produzidas em pentes de 8 MB, 16 MB, 32 MB e 64 MB. 68 Arquitetura e Montagem I DIMM 168 VIAS As memórias DIMM se diferenciavam das memórias EDO em diversos aspectos. DIMM (Dual In-line Memory Module) tinha um barramento duplo, fechando os 64 bits e dispensando o isso de memórias aos pares no Pentium. Seu tamanho era bem maior que as EDO e usava um novo slot de encaixe com 168 vias. A memória DIMM também era muito mais rápida que a EDO por ser uma memória do tipo SDRAM (Sincronous Dynamic Random Access Memory), ou seja, uma memória que tinha sua velocidade síncrona com a da placa-mãe. Na época as placas-mãe rodavam em um barramento de 66 MHz, assim as memórias passaram a ter os mesmos 66 MHz de velocidade que a placa (e não os 33 Mhz como era nas memórias EDO), chamadas de SDRAM PC66. Com o avanço da tecnologia, as memórias passaram a ter velocidades mais altas como 100 e 133 MHz, conhecidas como PC-100 e PC-133. As memórias DIMM foram produzidas em pentes de 16 MB, 32 MB, 64 MB, 128 MB e 256 MB. RAMBUS As memórias Direct Rambus ou simplesmente Rambus, permitem um barramento de dados de apenas 16 bits de largura, em oposição aos 64 bits utilizados pelos módulos de memória SDRAM, suportando em compensação, velocidades de barramento de até 400 MHz com duas transferências por ciclo, o que na prática equivale a uma freqüência de 800 MHz. Em outras palavras, usando memórias Rambus o processador pode ler menos dados de cada vez, mas em compensação tem que esperar menos tempo entre cada leitura. Diferentemente das memórias DDR, que são apenas evoluções das memórias SDRAM, as memórias Direct Rambus trazem uma arquitetura completamente nova, que exige modificações muito maiores nos chipsets destinados a suportá-la, significando maiores custos de desenvolvimento e produção o que fez com que essas memórias fossem deixadas de ser utilizadas nos PCs. As memórias Rambus tinham encaixes de 184 vias, mas não são compatíveis com as 184 vias das DDR por terem encaixes diferentes. As Rambus vinham com um dissipador de calor sobre os chips para evitar o aquecimento demasiado dos mesmos e foram produzidas com pentes de 64MB, 128 MB, 256MB e 512 MB. 69 Escola Alcides Maya - Primeiro Módulo DDR As DDR SDRAM ou simplesmente DDR eram memórias com o mesmo tamanho das DIMM SDRAM, mas com 184 vias de encaixe na placa mãe. As DDR utilizavam a tecnologia DOUBLE DATA RATE (Dobro da Taxa de Dados) para leitura e gravação da memória. Na prática uma memória DDR tem o dobro da performance de uma memória SDRAM pois ela efetua duas operações a cada ciclo do clock. Assim ela tendo o dobro do desempenho de uma PC-133 foi chamada de DDR-266. Mais tarde novas velocidades foram criadas, as DDR-333 e DDR-400. As memórias DDR foram produzidas em pentes de 128 MB, 256 MB, 512 MB e 1 GB. Os módulos DDR podem ser vendidos tanto segundo sua freqüência de operação, quanto segundo sua taxa de transferência. • • • • • • DDR-200 (2x100 MHz) = PC1600 DDR-266 (2x133 MHz) = PC2100 DDR-333 (2x166 MHz) = PC2700 DDR-400 (2x200 MHz) = PC3200 DDR-466 (2x233 MHz) = PC3700 DDR-500 (2x250 MHz) = PC4000 DDR2 As memórias DDR2 são o avanço da tecnologia das memórias DDR, elas apresentam 240 vias de encaixe e um novo encapsulamento para os bancos de memória localizados no chip. O novo encapsulamento se fez necessário para que fosse possível alcançar velocidades mais altas. Quando ao desempenho, as memórias DDR2 trabalham com 4 operações por pulso de clock, assim mesmo ela sendo 133 MHz, ao realizar 4 operações ela tem um desempenho de 533 MHz. São produzidos DDR2 com pentes de 512MB, 1 GB e 2 GB. São encontradas memórias DDR2 nas velocidades: • • • • DDR2-533 (4x133 MHz) = PC4200 DDR2-667 (4x166 MHz) = PC5300 DDR2-800 (4x200 MHz) = PC6400 DDR2-1066 (4x266 MHz) = PC8500 70 Arquitetura e Montagem I DDR 3 As DDR3 utilizam as mesmas 240 de vias que as DDR2, mas os pentes possuem encaixes diferentes, o que não possibilita que sejam instaladas memórias DDR3 em placas que só suportam DDR2. Além de velocidades mais altas, as DDR3 tem um consumo menor de energia e chips ainda menores que os das DDR2. Quanto ao desempenho as DDR3 apresentam um buffer de 8 bits, onde as DDR2 usam 4 bits, e as DDR usam 2 bits. As DDR3 realizam 8 operações em cada pulso do clock, fazendo que a 133 MHz ela tenha um desempenho equivalente a 1066 MHz. São encontrados até o momento pentes de DDR3 de 512 MB, 1 GB e 2 GB e logo deverá ser anunciado os pentes de 4 GB. As DDR3 são encontradas nas velocidades: • • • • DDR3-1066 (8x133 MHz) = PC8500 DDR3-1333 (8x166 MHz) = PC10600 DDR3-1600 (8x200 MHz) = PC12800 DDR2-2000 (8x250 MHz) = PC16000 DUAL CHANNEL Além da velocidade das memórias o desempenho também aumenta se o barramento delas for superior, desde as memórias DIMM SDRAM que o barramento se mantém nos mesmos 64 bits, onde somente a velocidade em MHz vem aumentando. Pensando em aumentar a performance do barramento, foi criado o Dual Channel, para as memórias DDR, DDR2 e DDR3. O Dual Channel consiste em reconhecer 2 pentes de Memória IDÊNTICOS como se fosse um único pente com o dobro do barramento. Como cada pente possui barramento de 64Bits, com o Dual Channel o computador reconhece como 1 pente de 128 Bits. O Dual channel depende do modelo do chipset da placa mãe para funcionar ou não. 71 Escola Alcides Maya - Primeiro Módulo TRIPLE CHANNEL O Triple Channel ou simplesmente Tri-Channel, é a evolução do Dual Channel, e consiste em reconhecer TRÊS pentes de Memória IDÊNTICOS como se fosse um único pente com o TRIPLO do barramento. Como cada pente possui barramento de 64Bits, com o Tri-Channel o computador reconhece como 1 pente de 192 Bits. Até o momento o Tri-Channel só é possível em pentes de memória DDR3. 10 Discos Rígidos O disco rígido, Hard Disc, ou simplesmente HD, foi um dos componentes que mais evoluiu na história da informática. O primeiro disco rígido (o IBM 350) foi construído em 1956 e era formado por um conjunto de nada menos que 50 discos de 24 polegadas de diâmetro, com uma capacidade total de 4.36 MB. Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados de platters. O nome “disco rígido” vem justamente do fato de os discos internos serem extremamente rígidos. Os platters são compostos de duas camadas. A primeira é chamada de substrato, e nada mais é do que um disco metálico, feito de ligas de alumínio. Mais recentemente, alguns fabricantes passaram a utilizar também vidro, que oferece algumas vantagens, como a maior dureza, embora também seja mais difícil de se trabalhar. Os primeiros HDs com discos de vidro foram os IBM Deskstar 75GXP, lançados em 2001. Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar qualquer vibração dos discos, mesmo a altas rotações. Este é mais um componente que passa por um processo 72 Arquitetura e Montagem I de polimento, já que os discos devem ficar perfeitamente presos e alinhados. No caso de HDs com vários discos, eles são separados usando espaçadores, novamente feitos de ligas de alumínio. Temos o motor de rotação, responsável por manter uma rotação constante. O motor é um dos maiores responsáveis pela durabilidade do disco rígido, pois uma grande parte das falhas graves provém justamente do motor. Os HDs mais antigos utilizavam motores de 3.600 rotações por minuto, enquanto que atualmente são utilizados motores de 5.400, 7.200 ou 10.000 RPM. Nos HDs de notebook ainda são comuns motores de 4.200 RPM, mas os de 5.400 RPM já são maioria. Embora não seja o único, a velocidade de rotação é sem dúvida o fator que influencia mais diretamente no desempenho. Para ler e gravar dados no disco são usadas cabeças de leitura eletromagnéticas (heads) que são presas a um braço móvel (arm), o que permite seu acesso a todo o disco. O braço de leitura é uma peça triangular, também feita de ligas de alumínio, para que seja ao mesmo tempo leve e resistente. Nos primeiros discos rígidos, eram usados motores de passo para movimentar os braços e cabeças de leitura. Eles são o mesmo tipo de motor usado nos drives de disquete, onde ao receber um impulso elétrico o motor move o braço por uma curta distância, correspondente ao comprimento de uma trilha. O problema é que eles eram muito suscetíveis a problemas de desalinhamento e não permitiam densidades de gravação muito altas. Os discos acima de 80 MB utilizam um mecanismo bem mais sofisticado para essa tarefa, composto por um dispositivo que atua através de atração e repulsão eletromagnética, sistema chamado de voice coil. Basicamente temos um eletroímã na base do braço móvel, que permite que a placa controladora o movimente variando rapidamente a potência e a polaridade do ímã. Apesar de parecer suspeito à primeira vista, esse sistema é muito mais rápido, preciso e confiável que os motores de passo. Para você ter uma idéia, os HDs do início da década de 80, com motores de passo, utilizavam apenas 300 ou 400 trilhas por polegada, enquanto um Seagate de 750 GB atual utiliza nada menos do que 145.000. Para que o HD possa posicionar a cabeça de leitura sobre a área exata referente à trilha que vai ser lida, existem sinais de feedback gravados na superfícies do disco, que orientam o posicionamento da cabeça de leitura. Eles são sinais magnéticos especiais, gravados durante a fabricação dos discos (a famosa formatação física), que são protegidos através de instruções de bloqueio incluídas no firmware do HD contra alteração posterior. Esses sinais eliminam os problemas de desalinhamento que existiam nos primeiros HDs. Ao ler um arquivo, a controladora posiciona a cabeça de leitura sobre a trilha onde está o primeiro setor referente a ele e espera que o disco gire até o setor correto. Este tempo inicial, necessário para iniciar a leitura, é chamado de tempo de acesso, e mesmo os HDs atuais de 7.200 RPM fica em torno de 12 milésimos de segundo, o que é uma eternidade em se tratando de tempo computacional. O HD é relativamente rápido ao ler setores seqüenciais, mas ao ler vários pequenos arquivos espalhados pelo HD, o desempenho pode cair assustadoramente. É por isso que existem programas desfragmentadores, que procuram reorganizar a ordem dos arquivos, de forma que eles sejam gravados em setores contínuos. Outro dado interessante é a maneira como as cabeças de leitura lêem os dados, sem tocar na camada magnética. Se você tiver a oportunidade de ver um disco rígido aberto, verá que, com os discos parados, as cabeças de leitura são pressionadas levemente em direção ao disco, tocando-o com uma certa pressão. Aqui temos o braço de leitura de um HD, depois de removido. Veja que mesmo sem o disco magnético entre elas, as duas cabeças de leitura pressionam-se mutuamente: 73 Escola Alcides Maya - Primeiro Módulo O HD possui duas cabeças de leitura para cada disco (uma para cada face), de forma que um HD com 4 discos utilizaria 8 cabeças de leitura, presas ao mesmo braço móvel. Embora usar mais discos permita construir HDs de maior capacidade, não é comum que os fabricantes utilizem mais de 4, pois a partir daí torna-se muito difícil e caro produzir componentes com a precisão necessária para manter todos os discos alinhados. Antigamente, era comum que HDs de alta capacidade e alto custo, sobretudo os destinados a servidores, possuíssem 6, ou até mesmo 12 discos, mas eles saíram de moda a partir da década de 90, devido à baixa demanda. Desde então, os fabricantes padronizaram a produção em torno dos HDs com até 4 discos. Todo HD é montado e selado em um ambiente livre de partículas, as famosas salas limpas. Apesar disso, eles não são hermeticamente fechados. Em qualquer HD, você encontra um pequeno orifício para entrada de ar (geralmente escondido embaixo da placa lógica ou diretamente sob a tampa superior), que permite que pequenos volumes de ar entrem e saiam, mantendo a pressão interna do HD sempre igual à do ambiente. Esse orifício é sempre protegido por um filtro, que impede a entrada de partículas de poeira. Enquanto o HD está desligado, as cabeças de leitura ficam em uma posição de descanso. Elas só saem dessa posição quando os discos já estão girando à velocidade máxima. Para prevenir acidentes, as cabeças de leitura voltam à posição de descanso sempre que não estão sendo lidos dados, apesar dos discos continuarem girando. É justamente por isso que às vezes, ao sofrer um pico de tensão, ou o micro ser desligado enquanto o HD está sendo acessado, surgem setores defeituosos. Ao ser cortada a energia, os discos param de girar e é desfeito o colchão de ar, fazendo com que as cabeças de leitura possam vir a tocar os discos magnéticos. Para diminuir a ocorrência desse tipo de acidente, nos HDs modernos é utilizado um sistema que recolhe as cabeças de leitura automaticamente para a área de descanso quando a energia é cortada (tecnologia chamada de autoparking). A área de descanso é também chamada de “landing zone” e engloba algumas das trilhas mais centrais do disco, uma área especialmente preparada para receber o impacto do “pouso” das cabeças de leitura. Uma das tecnologias mais populares é a LZT (Laser Zone Texture), uma tecnologia desenvolvida pela IBM, onde um laser é usado para produzir pequenas cavidades ao longo da zona de pouso, que reduzem o atrito com a cabeça de leitura. Apesar de evitar danos físicos, o auto-parking nada pode fazer para evitar perda de dados ao desligar o micro incorretamente. Mesmo que todos os arquivos estejam salvos, ainda existem dados no cache de disco (criado pelo sistema operacional, usando parte de memória RAM) e também no cache do HD, que utiliza memória SDRAM (também volátil). Para acelerar as operações de gravação, todos os arquivos (sobretudo os pequenos) são salvos inicialmente nos caches e depois transferidos para os discos magnéticos em momentos de ociosidade. Quando o micro é desligado abruptamente, os dados em ambos os caches são perdidos, fazendo com que você sempre perca as últimas alterações, muitas vezes em arquivos que acreditava estarem salvos. Por causa de tudo isso, é sempre importante usar um nobreak em micros de trabalho. A longo prazo, os dados perdidos e possíveis danos ao equipamento por causa de quedas de energia acabam custando muito mais do que um nobreak popular. Mesmo assim, por melhores que sejam as condições de trabalho, o HD continua sendo um dispositivo baseado em componentes mecânicos, que têm uma vida útil muito mais curta que a de outros componentes do micro. De uma forma geral, os HDs para desktop funcionam de forma confiável por de dois a três anos (em um PC usado continuamente). Depois disso, é melhor substituir o HD por um novo e mover o antigo para outro micro secundário, onde ele não vá armazenar informações importantes, pois a possibilidade de defeitos começa a crescer exponencialmente. Placa Controladora A placa lógica, ou placa controladora, é a parte que faz a interface com a placa-mãe, controla a rotação do motor e o movimento das cabeças de leitura, de forma que elas leiam os setores corretos, faz a verificação das leituras, de forma a identificar erros, atualiza e usa sempre que possível os dados armazenados no cache de disco. 74 Arquitetura e Montagem I Assim como no caso dos processadores, o cache é um componente importante para o desempenho do HD. Ele armazena os dados acessados, diminuindo bastante o número de leituras. Dados armazenados no cache podem ser transferidos quase que instantaneamente, usando toda a velocidade permitida pela interface SATA ou IDE, enquanto um acesso a dados gravados nos discos magnéticos demoraria muito mais tempo. A placa controladora é um componente externo do HD, que pode ser rapidamente substituído caso necessário. Grande parte dos casos onde o HD queima devido a problemas na rede elétrica, ou defeitos diversos, podem ser solucionados através da troca da placa controladora, permitindo recuperar os dados sem ter que recorrer aos caros serviços de uma empresa especializada. Os HDs são conectados ao computador através de interfaces capazes de transmitir os dados entre um e outro de maneira segura e eficiente. Há várias tecnologias para isso, sendo as mais comuns os padrões IDE, SCSI e, mais recentemente, SATA. A interface IDE (Intelligent Drive Electronics ou Integrated Drive Electronics) também é conhecida como ATA (Advanced Technology Attachment) ou, ainda, PATA (Parallel Advanced Technology Attachment). Trata-se de um padrão que chegou para valer ao mercado na época da antiga linha de processadores 386. Com a popularização desse padrão, as placas-mãe passaram a oferecer dois conectores IDE (IDE 0 ou primário e IDE 1 ou secundário), sendo que cada um é capaz de conectar até dois dispositivos. Essa conexão é feita ao HD (e a outros dispositivos compatíveis com a interface) por meio de um cabo flat (flat cable) de 40 vias (foto abaixo). Posteriormente, chegou ao mercado um cabo flat de 80 vias, cujas vias extras servem para evitar a perda de dados causada por ruídos (interferência). 75 Escola Alcides Maya - Primeiro Módulo Tecnologias ATAPI e EIDE Na interface IDE, também é possível conectar outros dispositivos, como unidades de CD/DVD e zipdrives. Para que isso ocorra, é utilizado um padrão conhecido como ATAPI (Advanced Technology Attachment Packet Interface), que funciona como uma espécie de extensão para tornar a interface IDE compatível com os dispositivos mencionados. Vale frisar que o próprio computador, através de seu BIOS e/ou do chipset da placa-mãe, reconhece que tipo de aparelho está conectado em suas entradas IDE e utiliza a tecnologia correspondente (ATAPI para unidades de CD/DVD e outros, ATA para discos rígidos). Como já dito, cada interface IDE de uma placa-mãe pode trabalhar com até dois dispositivos simultaneamente, totalizando quatro. Isso é possível graças a EIDE (Enhanced IDE), uma tecnologia que surgiu para aumentar a velocidade de transmissão de dados dos discos rígidos e, claro, permitir a conexão de dois dispositivos em cada IDE. Tecnologias DMA e UDMA Antigamente, somente o processador tinha acesso direto aos dados da memória RAM. Com isso, se qualquer outro componente do computador precisasse de algo na memória, teria que fazer esse acesso por intermédio do processador. Com os HDs não era diferente e, como conseqüência, havia um certo desperdício dos recursos de processamento. A solução não demorou muito a aparecer. Foi criada uma tecnologia chamada DMA (Direct Memory Access). Como o próprio nome diz, essa tecnologia tornou possível o acesso direto à memória pelo HD ou pelos dispositivos que usam a interface IDE, sem necessidade do “auxílio” do processador. Quando o DMA não está em uso, normalmente é usado um esquema de transferência de dados conhecido como modo PIO (Programmed I/O), onde, grossamente falando, o processador executa a transferência de dados entre o HD e a memória RAM. Cada modo PIO existente trabalha com uma taxa distinta de transferência de dados, conforme mostra a seguinte tabela: Modo PIO Taxa de transferência Modo 0 3,3 MB/s Modo 1 5,2 MB/s Modo 2 8,3 MB/s Modo 3 11,1 MB/s Modo 4 16,7 MB/s Modo 5 20 MB/s É importante frisar que os HDs IDE mais recentes trabalham com um padrão conhecido como Ultra-DMA (UDMA). Logo em seguida foi criada uma nova denominação para a interface, chamada de ATA (Advanced Technology Attachment), ou ainda de Ultra-ATA. O ATA se tornou o padrão que reuniu todas as tecnologias anteriores (E-IDE, ATAPI e UDMA) Essa tecnologia permite a transferência de dados em uma taxa de, pelo menos, 33,3 MB/s (megabytes por segundo). O padrão UDMA não funciona se somente for suportada pelo HD. É necessário que a placa-mãe também a suporte (através de seu chipset), caso contrário, o HD trabalhará com uma taxa de transferência mais baixa. Veja o porque: existe 4 tipos básicos de Ultra-DMA (ou Ultra ATA): ATA 33, ATA 66, ATA 100 e ATA 133. Os números nestas siglas representam a quantidade de megabytes transferível por segundo. Assim, o ATA 33 transmite ao computador dados em até 33 MB/s. O ATA 66 faz o mesmo em até 66 MB/s, e assim por diante. Agora, imagine que você instalou um HD ATA 133 em seu computador. No entanto, a placa-mãe só suporta ATA de 100 MB/s. Isso não significa que seu HD vai ficar inoperante. O que vai acontecer é que seu computador somente trabalhará com o HD na taxa de transferência de até 100 MB/s e não na taxa de 133 MB/s. Com a introdução do Serial ATA em 2003, esta configuração foi renomeada para Parallel ATA (ou PATA, ATA Paralelo) referindo-se ao método como os dados eram transferidos pelos cabos desta interface, assim não causando 76 Arquitetura e Montagem I confusões com a nova tecnologia. Configuração de jumpers Encontramos normalmente na placa-mãe duas interfaces IDE, chamadas de IDE primária e IDE secundária. Cada interface permite a conexão de dois dispositivos, que devem ser configurados como Master (mestre) e Slave (escravo). O mestre da IDE primária é chamado de Primary Master, ou mestre primário, enquanto o Slave da IDE secundária é chamado de Secondary Slave, ou escravo secundário. Esta configuração é necessária para que o BIOS possa acessar os dispositivos, além de também determinar a letra dos drives (C:, D:, E:, etc). A configuração em Master ou Slave é feita através de jumpers localizados no disco rígido ou CD-ROM. A posição dos jumpers para o Status desejado é mostrada no manual do disco ou normalmente se faz presente também no próprio corpo do disco, de forma impressa. Geralmente você encontrará apenas 3 opções na tabela: Master, Slave e Cable Select. A opção de Cable Select é uma espécie de plug-and-play para discos rígidos: escolhendo esta opção, um disco IDE será automaticamente reconhecido como Master, e o outro será reconhecido como Slave. O problema é que para a opção de Cable Select funcionar, é preciso um cabo flat especial, motivo pelo qual esta opção é pouco usada. Configurando seus discos manualmente como Master e Slave, não importa a posição nem o tipo do cabo IDE, a configuração que for colocada nos jumpers será detectada pelo BIOS do computador, não podendo ser alterada. Obrigatoriamente um dos discos deverá ser configurado como Master, e o outro como Slave, caso contrário haverá um conflito, e ambos não funcionarão. Em alguns discos, além das opções de Master, Slave e Cable Select, você encontrará também as opções “One Drive Only” e “Drive is Master, Slave is Present”. Neste caso, a opção one drive only indica que o disco será instalado como Master da controladora, e que não será usado nenhum Slave. A opção Drive is Master, Slave is Present, indica que o disco será instalado como Master da controladora mas que será instalado também um segundo disco como Slave. No caso dos CD-ROMs IDE, a configuração dos jumpers é ainda mais fácil, sendo feita através de um único jumper de três posições localizado na sua parte traseira, que permite configurar o drive como Master, Slave ou Cable Select. Geralmente você encontrará também uma pequena tabela, indicando a posição do jumper para cada opção. “MA” significa Master, “SL” Slave e “CS” Cable Select. É quase um padrão que o jumper no centro configure o CD como Slave, à direita como Master e à esquerda como Cable Select, sendo raras as exceções. 77 Escola Alcides Maya - Primeiro Módulo Ao instalar dois dispositivos numa mesma interface IDE, ambos compartilharão a interface, causando perda de desempenho. Por isso, é sempre recomendável instalar um na interface primária e outro na interface secundária. Ao instalar um HD e um CD-ROM por exemplo, a melhor configuração é o HD como Master da IDE primária e o CD-ROM como Master ou mesmo Slave da IDE secundária. Serial ATA O padrão Serial ATA (ou SATA - Serial Advanced Technology Attachment surgiu no mercado no ano 2003 para substituir a tradicional interface ATA (PATA ou IDE). O nome de ambas as tecnologias já indica a principal diferença entre elas: o PATA faz transferência de dados de forma paralela, ou seja, transmite vários bits por vez, como se estes estivessem lado a lado. No SATA, a transmissão é em série, tal como se cada bit estivesse um atrás do outro. Por isso, você deve imaginar que o PATA é mais rápido, não? Na verdade, não é. A transmissão paralela de dados (geralmente com 16 bits por vez) causa um problema conhecido como “ruído”, que nada mais é do que a perda de dados ocasionada por interferência. Para lidar com isso nos HDs PATA, os fabricantes utilizam mecanismos para diminuir o ruído. Um deles é recomendar a utilização de um cabo IDE (o cabo que liga o HD à placa-mãe do computador) com 80 vias (ou seja, oitenta fios) ao invés dos tradicionais cabos com 40 vias. As vias a mais atuam como uma espécie de blindagem contra ruídos. No caso do padrão SATA o ruído praticamente não existe, mesmo porque seu cabo de conexão ao computador possui apenas 4 vias e também é blindado. Isso acaba trazendo outro ponto de vantagem ao SATA, pois como o cabo tem dimensão reduzida, o espaço interno do computador é melhor aproveitado, facilitando inclusive a circulação de ar. O padrão Paralell ATA tem sua velocidade de transmissão de dados limitada por causa do ruído. A última especificação dessa tecnologia é o ATA 133 que permite, no máximo, uma taxa de transferência de 133 MB por segundo. O Serial ATA, por sua vez, pode utilizar uma velocidade maior. Há outra característica interessante no SATA: HDs que utilizam essa interface, não precisam de jumpers para identificar o disco master (primário) ou secundário (slave). Isso ocorre porque cada dispositivo usa um único canal de transmissão (o PATA permite até dois dispositivos por canal), atrelando sua capacidade total a um único HD. No entanto, para não haver incompatibilidade com dispositivos PATA, é possível instalar esses aparelhos em interfaces seriais através de placas adaptadoras. Muitos fabricantes de placas-mãe oferecem placas-mãe com ambas as interfaces. Outra novidade interessante do SATA é a possibilidade de uso da técnica “hot-swap”, que torna possível a troca de um dispositivo Serial ATA com o computador ligado. Por exemplo, é possível trocar um HD sem ser necessário desligar a máquina para isso. Este recurso é muito útil em servidores que precisam de manutenção/ reparos, mas não podem parar de funcionar. 78 Arquitetura e Montagem I Velocidade do padrão SATA A primeira versão do SATA trabalha com taxa máxima de transferência de dados de 150 MB por segundo (MB/s). Essa versão recebeu os seguintes nomes: SATA 150, SATA 1.0, SATA 1,5 Gbps (1,5 gigabits por segundo) ou simplesmente SATA I. Não demorou muito para surgir uma versão denominada SATA II (ou SATA 3 Gbps) cuja principal característica é a velocidade de transmissão de dados a 300 MB/s, o dobro do SATA I. E já há previsão para a 3ª geração de HDs SATA com velocidade de transmissão de dados de 600 MB/s. É necessário fazer uma observação quanto ao aspecto de velocidade: na prática, dificilmente os valores mencionados (150 MB e 300 MB) são alcançados. Essas taxas indicam a capacidade máxima de transmissão de dados entre o HD e sua controladora (presente na placa-mãe), mas dificilmente são usadas em sua totalidade, já que isso depende de uma combinação de fatores, como conteúdo da memória, processamento, tecnologias aplicadas no disco rígido, etc. RAID O sistema RAID consiste em um conjunto de dois ou mais discos rígidos com dois objetivos básicos: tornar o sistema de disco mais rápido através de uma técnica chamada divisão de dados (data stripping ou RAID 0) ou tornar o sistema de disco mais seguro, através de uma técnica chamada espelhamento (mirroring ou RAID 1). Essas duas técnicas podem ser usadas isoladamente ou em conjunto. Em ambos os sistemas RAID é necessário que na máquina tenhamos ao menos dois discos rígidos idênticos, no que diz respeito ao tamanho, velocidade, marca e modelo. No RAID 0 (data stripping), o micro enxergará os dois discos (por exemplo, 2 HDs de 250 GB) como sendo um único disco de 500 GB, onde ele sempre fará a gravação e leitura dos dados nos dois discos simultaneamente, usando metade dos dados em cada um, fazendo com isso que tenhamos um grande ganho de performance. O único problema de se utilizar o RAID 0 é que se um dos discos apresentar problemas, os dados de ambos os discos serão perdidos. O sistema RAID 0 não é limitado a apenas dois discos rígidos. Podemos, em princípio, colocar quantos discos quisermos. Nesse mesmo exemplo, se usarmos quatro discos iguais em vez de um, o micro pensará que os quatro discos são apenas um e dividirá automaticamente o arquivo em quatro, quadruplicando a velocidade de leitura e gravação do arquivo. No RAID 1 (mirroring) é feito o chamado “espelhamento” do disco, onde cada dado gravado no primeiro disco, também será gravado no segundo, fazendo uma cópia fiel de todas as informações de um disco no outro, caso o primeiro disco estrague, todas as informações estarão no segundo disco, como um backup. É importante frisar que o RAID 1 não traz nenhum ganho de performance, apenas garante a segurança dos dados por fazer o backup em tempo real. É possível ainda utilizar os dois sistemas RAID simultaneamente, o chamado RAID 0 + 1 é uma combinação dos níveis 0 (striping) e 1 (mirroring), onde os dados são divididos entre os discos para melhorar o rendimento, mas também utilizam outros discos para duplicar as informações. Assim, é possível utilizar o bom rendimento do nível 0 com a redundância do nível 1. No entanto, é necessário pelo menos 4 discos para montar um RAID desse tipo. Tais características fazem do RAID 0 + 1 o mais rápido e seguro, porém o mais caro de ser implantado. No RAID 0+1, se um dos discos falhar, o sistema vira um RAID 0. 79 Escola Alcides Maya - Primeiro Módulo Tecnologia SSD SSD (Solid-State Drive) a Unidade de Estado Sólido é uma nova tecnologia de armazenamento que não possui partes móveis, sendo composta de vários chips de memória flash não volátil. Neles, a informação está gravada em células elétricas, da mesma forma que as memórias RAM. A informação está sempre armazenada em (ou está trafegando por) um material sólido. A escrita ou leitura não envolvem nenhum fenômeno magnético ou óptico, por isso não há necessidade de partes móveis. Os dispositivos SSD tem características que constituem vantagens sobre os dispositivos de armazenamento convencionais, como tempo de acesso reduzido , uma vez que o acesso a memória RAM é muito menor do que os tempos de acesso aos dispositivos magnéticos e óticos. A eliminação de partes mecânicas reduz vibrações e os torna completamente silenciosos e são muito mais resistentes contra eventuais choques do que os HD convencionais, além de possuírem um menor peso, menor consumo de energia e a possibilidade de trabalhar em maiores temperaturas (acima dos 70º C) e uma banda muito maior que os demais dispositivos, com 250 MB/s na gravação e até 700 MB/s na leitura. Os discos SSD utilizam a mesma interface dos discos atuais (SATA) e são reconhecidos tanto pelo BIOS quanto pelo Sistema Operacional como um disco rígido tradicional. a sua única diferença se faz pela sua tecnologia que é completamente diferente dos HDs. 80