Arquitetura e Montagem I
ESCOLA
Arquitetura e
Montagem I
1
Escola Alcides Maya - Primeiro Módulo
2
Arquitetura e Montagem I
Sumário
Arquitetura e Montagem I
1 Arquitetura dos Computadores..................................................................................................... 4
2 Tensão, Corrente e Potência........................................................................................................... 4
3 Equipamentos de proteção.............................................................................................................. 8
4 Fontes de Alimentação................................................................................................................... 10
5 BIOS................................................................................................................................................ 28
6 Placa Mãe........................................................................................................................................ 31
7 Portas e Conectores........................................................................................................................ 39
8 Processadores................................................................................................................................. 44
9 Memórias RAM.............................................................................................................................. 67
10 Discos Rígidos............................................................................................................................... 72
3
Escola Alcides Maya - Primeiro Módulo
1 Arquitetura dos Computadores
PC significa “Personal Computer”, ou “Computador pessoal”. Os computadores que hoje são chamados de
PCs são derivados do IBM PC, criado no início dos anos 80. Os PCs modernos não são mais exclusividade de
um pequeno grupo de grandes fabricantes. Como todas as peças que formam um PC são encontradas com
facilidade no comércio, qualquer pequena loja pode ser produtora de PCs. Muitos usuários também constroem
seus próprios PCs, basta que tenham conhecimento técnico para tal.
Qualquer PC é composto pelos mesmos componentes básicos: processador, memória, HD, placa-mãe, placa
de vídeo e monitor. Essa mesma divisão básica se aplica também a outros aparelhos eletrônicos, como palmtops
e celulares. A principal diferença é que neles os componentes são integrados numa única placa de circuito
(muitas vezes no mesmo chip) e são utilizados chips de memória flash no lugar do HD.
Antigamente, a placa-mãe funcionava apenas como um ponto central, contendo os slots e barramentos
usados pelos demais componentes. Além do processador e pentes de memória, era necessário comprar a placa
de vídeo, placa de som, modem, rede, etc. Cada componente era uma placa separada.
Com a integração dos componentes, a placa-mãe passou a incluir cada vez mais componentes, dando origem
às placas “tudo onboard” que utilizamos atualmente (existem placas que já vêm até com o processador e chips de
memória!). Isso permitiu que os preços dos PCs caíssem assustadoramente, já que, com menos componentes,
o custo de fabricação é bem menor. Para quem quer mais desempenho ou recursos, é sempre possível instalar
placas adicionais, substituindo os componentes onboard.
Com o micro montado, o próximo passo é instalar o sistema operacional e programas, que finalmente vão
permitir que ele seja utilizado da maneira que o usuário desejar.
2 Tensão, Corrente e Potência
A Tensão elétrica é a diferença de potencial elétrico entre dois pontos. Sua unidade de medida é o volt
(V) e o seu nome é em homenagem ao físico italiano Alessandro Volta. A tensão elétrica é a força que faz a
movimentação dos elétrons ou seja. No Brasil.
No Brasil a palavra “voltagem” é usada de forma errada, já que o modo correto de se referir a quantidade de
Volts é tensão.
As tensões da rede no Brasil são de 127V e 220V. Grande parte dos computadores possuem uma chave
comutadora atrás do gabinete possibilitando a transição das tensões.
Corrente elétrica é um movimento ordenado de cargas elementares. Ela pode ser um simples jato de partículas
no vácuo, como acontece em uma tela de TV comum, em que um feixe de elétrons é lançado contra a tela. No
entanto, na maioria dos casos, a corrente elétrica não ocorre no vácuo, mas sim no interior de um condutor. A
unidade de medida é o ampér .
Potência elétrica é o trabalho realizado pela corrente elétrica em um determinado intervalo de tempo, ou
seja, é a quantidade de energia térmica que passa durante uma quantidade de tempo. A unidade de medida é o
Watts.
4
Arquitetura e Montagem I
A potência utilizada pelo computador é em função de quanto de energia ele utiliza ou dissipa, dado pela
equação P=V.I, onde P é potência, V é tensão e I é corrente.
Para saber quanto de potência o computador consome é necessário somas todas as potências dos
componentes internos do gabinete.
Por exemplo, um processador consome em média de 40W a 70W. Um disco rígido, entre 10 e 20 Watts.
Rede elétrica
A rede elétrica é um assunto muito controverso na área de informática. Mas se um computador for ligado a
uma rede elétrica inadequada, pode haver danos ao equipamento e inclusive perigo aos usuários.
Nas residências ou escritórios, as redes de energia apresentam dois fios, sendo um deles denominado como
fase e o outro como neutro. A tensão existentes nessas redes elétricas é normalmente de 110/127V ou 220V,
variando conforme a cidade em questão.
O computador pode ser ligado em qualquer uma das redes, funcionamento perfeitamente. Porém, os
fabricantes dos componentes dos computadores exigem que as redes elétricas tenham um terceiro fio, chamado
de terra.
Este fio é realmente ligado ao solo, segundo determinadas especificações, de forma a fazer o aterramento,
pois este protege contra interferências e choques elétricos os computadores.
Um bom aterramento é conseguido enterrando uma haste metálica, normalmente de cobre no solo. O tamanho
desta haste vai depender do solo a ser utilizado, em ferragens é encontrado normalmente em tamanhos que
variam entre 1m e 2,5m. Na ponta desta haste é conectado um fio que será levado até as tomadas. Este tipo de
aterramento pode ser utilizado para qualquer equipamento elétrico, porém, recomenda-se utilizar um aterramento
exclusivo para os computadores.
Pode-se, ainda, obter o aterramento ligando-se o fio às partes metálicas existentes na casa, tubulações de
água, tubulações da própria rede elétrica, porém este tipo de aterramento não tem sua eficiência garantida.
A tomada que fica na parede, deve ficar com três terminais, os dois tradicionais fase e neutro mais o terra.
Requisitos para um bom funcionamento
A tensão da rede elétrica costuma variar bastante dos 115V necessários para o funcionamento normal,
qualquer variação muito brusca desse valor pode causar graves problemas.
Existem três problemas com a eletricidade da rede: tensão excessiva, tensão insuficiente e ruídos.
Excesso de tensão
Os excessos de tensões são picos de alta potência semelhantes a raios que invadem o computador, podendo
danificá-lo.
Em um grande espaço de intervalo de tempo, se a tensão variar em até 10% do seu valor nominal, pode
se dizer que as condições de funcionamento aproximam-se do ideal. Nessas condições, os equipamentos que
fazem a estabilização atuam eficientemente.
As características mais importantes dos dispositivos de proteção contra o excesso de tensão são a rapidez e
a quantidade de energia que dissipam, geralmente, quanto mais rápido o tempo de resposta, melhor.
Quanto maior a capacidade de absorção de energia de um dispositivo de proteção, melhor, sendo que essa
capacidade de absorção é medida em Watts por segundo.
Tensão insuficiente
É uma tensão inferior a necessária. Elas podem variar de quedas, que são perdas de alguns volts, até a falta
completa, chamada de blackout.
As quedas momentâneas ou mesmo os blackouts, não chegam a ser problemáticos a menos que durem
algumas dezenas de milissegundos.
A maioria dos computadores são projetados de modo a suportar quedas de tensão prolongadas de até 20%
sem desligar. Quedas maiores ou blackouts farão com que eles sejam desligados.
5
Escola Alcides Maya - Primeiro Módulo
Ruídos
O ruído é um problema na fonte de alimentação da maioria dos equipamentos eletrônicos, incluindo os
computadores.
Ruído é o termo que usamos para identificar todos os sinais espúrios que os fios captam ao percorrer
campos eletromagnéticos. Em muitos casos esses sinais podem atravessar os circuitos de filtragem das fontes
de alimentação e interferir com os sinais normais do equipamento.
Instalação elétrica
A instalação elétrica vai refletir em um duradouro e confiável funcionamento dos equipamentos, evitando
principalmente problemas esporádicos ou intermitentes, muitas vezes difíceis de descobrir sua fonte.
As posições dos fios fase, neutro e terra devem obedecer aos padrões, como mostra a figura abaixo:
Segundo os padrões brasileiros (NBR), olhando a tomada com o pino terra para baixo, o fio fase deve ficar
sempre do lado direito da tomada, o fio neutro deve ficar do lado esquerdo e o fio terra na parte inferior.
O aterramento é de extrema importância, para evitar todos os problemas que a falta ou o mau aterramento
podem causar.
Em um aterramento ideal, a diferença de potencial entre o terra e o neutro não pode variar mais de 5 Volts
AC.
Já a diferença de potencial entre o fio fase e o fio neutro, deverá ser de 127V ou de 220V, caso o padrão da
rede elétrica da cidade seja 220V. Se o padrão da cidade for de 127V, não será encontrado fase e neutro e sim
dois fios fases diferentes na tomada.
Ainda, se for verificada a diferença de potencial entre o fio fase e o fio terra, o valor encontrado deverá ser a
subtração do valor encontrado no diferencial de fase e neutro pelo valor encontrado entre neutro e terra.
6
Arquitetura e Montagem I
Esquema ideal de aterramento:
Eletricidade Estática
A possibilidade de se ter descargas eletrostáticas é bastante grande, atingindo centenas e até milhares de
volts. Essas descargas podem causar danos irreversíveis nos componentes eletrônicos. Apenas um toque com o
dedo poderá causar danos definitivos ou parciais, responsáveis por funcionamentos intermitentes.
Deve-se evitar encostar nos componentes, circuitos ou contatos metálicos de uma placa ou dispositivo,
procurando segurá-los pela carcaça ou pelas bordas. O mais recomendado é o uso de pulseiras conectadas a
um local aterrado, normalmente a carcaça do equipamento, descarregando assim a eletricidade estática. Outra
maneira é ficar encostado na carcaça do equipamento enquanto está sendo feito a manuseio dos dispositivos ou
placas, mas para isso, é importante que o cabo de alimentação esteja conectado a rede elétrica aterrada para
garantir o aterramento quando estivermos efetuando a descarga eletrostática.
7
Escola Alcides Maya - Primeiro Módulo
3 Equipamentos de proteção
Fusível
O fusível é um componente de proteção dos circuitos eletrônicos contra um curto circuito e ou uma sobre
carga.
Existem vários tipos de fusível, sendo o mais conhecido os de forma cilíndrica de vidro, como mostra a
figura.
Para sabermos exatamente qual fusível deve ser utilizado no equipamento, devemos dividir a potência do
equipamento pela tensão da rede elétrica, por exemplo, se utilizamos um estabilizador de 1000VA ou 1KVA, e
temos uma rede elétrica em 110V fazemos:
1000VA/110V=9,09A
Por não haver um fusível de 9,09A, eleva-se o valor para a próxima casa decimal, ou seja, 10A.
Filtro de linha
O filtro de linha é utilizado para proteger seu equipamento, removendo ruídos e picos provenientes da rede
elétrica. Além de remover esses ruídos e picos, o filtro de linha deve ter outras duas funções, a primeira é garantir
que todos os seus equipamentos estão aterrados, pois normalmente temos apenas uma tomada de 3 pinos,
assim utilizando o filtro teremos mais tomadas com o aterramento. A segunda função é a proteção contra curtocircuito e sobrecarga de tensão. A maioria dos filtros de linha têm um disjuntor ou fusível responsável por desligar
a alimentação elétrica caso a corrente total exigida por seu equipamento seja maior do que a correte rotulada no
mesmo.
Porém, hoje no mercado praticamente todos os modelos de filtro de linha não tem suas funções garantidas,
sendo eles utilizados apenas como uma extensão, pois eles não tem componentes que possam fazer a função
de filtro.
8
Arquitetura e Montagem I
Estabilizador
O estabilizador é um equipamento eletrônico de proteção, responsável pela correção dos problemas existentes
na rede elétrica, como a sobretensão, subtensão e os transientes, fornecendo assim uma alimentação estável
e segura para os equipamentos eletrônicos. A grande parte dos estabilizadores vendidos hoje no Brasil também
possuem um filtro de linha.
Os estabilizadores, bem como a maioria dos equipamentos de proteção, têm sua potência medida em Volt
Ampér (VA), sendo os mais populares de 300VA, porém os equipamentos eletrônicos têm sua potência medida
em Watts. Para que possamos saber se o equipamento de proteção suporta os nossos equipamentos eletrônicos,
precisamos saber qual o fator de potência (FP) do equipamento de proteção, ou seja, quanto realmente da
potência dele é disponibilizado para o uso, já que uma parte é perdido em calor por exemplo.
Cada equipamento tem o seu fator de potência diferente, após descoberto o fator de potência do equipamento
efetuamos o seguinte cálculo: W=VA*FP.
Por exemplo, se tivermos um estabilizador de 300VA e o Fator de potência dele for de 70% aplicamos estes
valores a fórmula:
W=300*0,7
Nesse exemplo o estabilizador suporta até 210W de potência.
No-Break
O no-break é um dispositivo semelhante ao estabilizador, porém oferece uma proteção extra ao seu
equipamento. No caso da falta de energia elétrica, o no-break continua alimentando o seu computador para que
as informações possam ser salvas e o computador desligado de forma adequada.
Essa alimentação é provida por uma bateria, que fica sendo carregada enquanto a rede elétrica está
funcionando corretamente. Essa bateria possui uma autonomia, que em geral não é muito grande, por esse
motivo recomenda-se que se ligue somente o essencial no no-break, ou seja o gabinete e o monitor assim a
autonomia da bateria fica menos prejudicada. Os no-breaks são classificados em dois tipos: off-line e on-line.
Os no-breaks off-line são os mais baratos e apresentam um retardo em seu acionamento. Quando a luz
acaba, o no-break demora um tempo para detectar que a luz acabou e acionar a bateria. Embora esse retardo
seja pequeno, pode afetar o funcionamento de equipamentos mais sensíveis. Um tipo de no-break off-line
muito comum é o line interactive. Um cuidado que precisamos ter ao utilizar um no-break off-line é que estes
equipamentos não funcionam como estabilizador, tendo que ser adquirido em separado.
Há os no-breaks on-line não oferecem qualquer tipo de retardo no acionamento da bateria quando a luz acaba,
pois estão de forma integral alimentando os equipamentos ligados a ele pelas baterias, além de funcionarem
como estabilizador sendo, portanto, melhores do que os no-breaks off-line.
9
Escola Alcides Maya - Primeiro Módulo
4 Fontes de Alimentação
Neste capítulo explicaremos tudo o que você precisa saber sobre as fontes de alimentação para PCs, incluindo
padrões, eficiência, correção do fator de potência (PFC), barramentos virtuais, proteções, ripple e ruído e muito
mais. Você aprenderá que a potência de uma fonte não deve ser o único fator a ser levado em consideração na
hora da compra de uma fonte de alimentação.
Antes de continuarmos, vamos explicar exatamente qual é o papel de uma fonte de alimentação.
Por se tratar de um dispositivo elétrico o computador precisa de eletricidade para que todos os seus
componentes funcionem de forma adequada. O dispositivo responsável por prover eletricidade ao computador
é a de fonte de alimentação. De forma bastante sucinta poderíamos dizer que a principal função da fonte de
alimentação é converter a tensão alternada fornecida pela rede elétrica presente na tomada de sua casa ou
escritório (também chamada CA ou AC) em tensão contínua (também chamada CC ou DC). Em outras palavras,
a fonte de alimentação converte os 110 V ou 220 V alternados da rede elétrica convencional para as tensões
contínuas utilizadas pelos componentes eletrônicos do computador, que são: +3,3 V, +5 V, +12 V e -12 V (tensões
alternadas variam pelo mundo e mesmo no Brasil variam de cidade a cidade; durante este tutorial nós usaremos
o termo “110 V” para nos referenciarmos às tensões de 110 V, 115 V e 127 V, já quando usarmos o termo “220
V” estamos nos referenciando às tensões de 220 V, 230 V e 240 V. O Japão é o único país cuja tensão alternada
está fora deste intervalo, operando a 100 V. A fonte de alimentação também participa do processo de refrigeração
do micro, como explicaremos depois.
Existem dois tipos básicos de fonte de alimentação: linear e chaveada.
As fontes de alimentação lineares pegam os 110 V ou 220 V da rede elétrica e, com ajuda de um transformador,
reduzem esta tensão para, por exemplo, 12 V. Esta tensão reduzida, que ainda é alternada, passa então por
um circuito de retificação (composto por uma série de diodos), transformando esta tensão alternada em tensão
pulsante. O próximo passo é a filtragem, que é feito por um capacitor eletrolítico que transforma esta tensão
pulsante em quase contínua. Como a tensão contínua obtida após o capacitor oscila um pouco (esta oscilação
é chamada “ripple”), um estágio de regulação de tensão é necessário, feito por um diodo zener (normalmente
com a ajuda de um transistor de potência) ou por um circuito integrado regulador de tensão. Após este estágio a
saída é realmente contínua.
Embora fontes de alimentação lineares trabalhem muito bem para aplicações de baixa potência – telefones
sem fio, por exemplo –, quando uma alta potência é requerida, fontes de alimentação lineares podem ser
literalmente muito grandes para a tarefa.
O tamanho do transformador e a capacitância (e o tamanho) do capacitor eletrolítico são inversamente
proporcionais à freqüência da tensão alternada na entrada da fonte: quanto menor a freqüência da tensão
alternada maior o tamanho dos componentes e vice-versa. Como fontes de alimentação lineares ainda usam os
60 Hz (ou 50 Hz, dependendo do país) da freqüência da rede elétrica – que é uma freqüência muito baixa –, o
transformador e o capacitor são muito grandes.
10
Arquitetura e Montagem I
Construir uma fonte de alimentação linear para PCs seria loucura, já que ela seria muito grande e muito
pesada. A solução foi o uso de um conceito chamado chaveamento em alta freqüência.
Em fontes de alimentação chaveadas em alta freqüência a tensão de entrada tem sua freqüência aumentada
antes de ir para o transformador (tipicamente na faixa de KHz). Com a freqüência da tensão de entrada aumentada,
o transformador e os capacitores eletrolíticos podem ser bem menores. Este é o tipo de fonte de alimentação
usada nos PCs e em muitos outros equipamentos eletrônicos, como aparelho de DVD. Tenha em mente que
“chaveada” é uma forma reduzida de se falar “chaveamento em alta freqüência”, não tendo nada a ver se a fonte
tem ou não uma chave liga/desliga.
A fonte de alimentação talvez seja o componente mais negligenciado do computador. Normalmente na hora
de comprar um computador, só levamos em consideração o tipo e o clock do processador, o modelo da placamãe, o modelo da placa de vídeo, a quantidade de memória instalada, a capacidade de armazenamento do disco
rígido, e esquecemo-nos da fonte de alimentação, que na verdade é quem fornece o “combustível” para que as
peças de um computador funcionem corretamente.
Uma fonte de alimentação de boa qualidade e com capacidade suficiente pode aumentar a vida útil do seu
equipamento e reduzir sua conta de luz (nós explicaremos o porque disso quando falarmos de eficiência). Para
se ter uma idéia, uma fonte de alimentação de qualidade custa menos de 5% do preço total de um micro. Já uma
fonte de alimentação de baixa qualidade pode causar uma série de problemas intermitentes, que na maioria das
vezes são de difícil resolução. Uma fonte de alimentação defeituosa ou mal dimensionada pode fazer com que
o computador trave, pode resultar no aparecimento de setores defeituosos (“bad blocks”) no disco rígido, pode
resultar no aparecimento da famosa “tela azul da morte” e resets aleatórios, além de vários outros problemas.
Falaremos sobre os aspectos básicos que todos os usuários devem saber. Se você quiser aprender mais
sobre os componentes internos da fonte de alimentação nós recomendamos que você leia a continuação do
presente tutorial, Anatomia das Fontes de Alimentação Chaveadas, one explicamos em detalhes como os
principais componentes de dentro da fonte funcionam.
Conexão CA
A primeira coisa que você deve saber é que sua fonte de alimentação precisa ser compatível com a tensão
CA usada em sua cidade. As tensões mais comuns são “110 V” (que abrange tensões próximas como 115 V e
127 V) e “220 V” (que abrange tensões próximas como 230 V e 240 V).
A maioria das fontes de alimentação tem uma chave 110 V/220 V ou então pode ser do tipo “automática”,
“bivolt” ou “auto range”, o que significa que a fonte pode funcionar em qualquer tensão CA (normalmente entre
100 V e 240 V; a faixa de operação suportada está impressa na etiqueta da fonte de alimentação em um campo
chamado “AC Input” ou “Entrada CA”) e por essa razão fontes com seleção automática de tensão não têm uma
chave 110 V/220 V. Normalmente os fabricantes fazem a seleção automática de tensão através do circuito PFC
ativo. Portanto todas as fontes de alimentação com PFC ativo são do tipo “bivolt” e não têm uma chave 110 V/220
V. Apenas raríssimas fontes com seletor automático de tensão não terão PFC ativo. Claro que falaremos mais
sobre este circuito depois.
Além disso, nem todas as fontes de alimentação que não têm uma chave 110 V/220 V são “automáticas”.
Algumas fontes podem operar apenas em determinada tensão e este caso é o mais comum em algumas fontes
voltadas para o mercado europeu, que só funcionam em 220 V. Portanto se você vir uma fonte de alimentação sem
uma chave 110 V/220 V é sempre bom verificar na etiqueta da fonte a tensão CA em que ela pode trabalhar.
11
Escola Alcides Maya - Primeiro Módulo
Chave 110 V/220 V em uma fonte de alimentação.
Fonte de alimentação com seleção automática de tensão – não há chave 110V/220V.
Na maioria das vezes isto significa que a fonte tem PFC ativo.
12
Arquitetura e Montagem I
A faixa de tensão que as fontes com seleção automática podem trabalhar está descrita na etiqueta da fonte
de alimentação.
A conexão entre a fonte de alimentação e a tomada é feita através de um cabo de força. Este cabo precisa ter
um plugue compatível com o padrão usado em seu país ou você precisará usar um adaptador.
O Brasil adota um padrão chamado ABNT NBR 14136:2002, que possui dois tipos de plugue, o popular
plugue com dois pinos redondos e um novo plugue de três pinos redondos que será obrigatório a partir de 2010,
adicionando o pino terra. O problema é que fontes de alimentação vendidas no Brasil vêm com o cabo de força do
padrão Norte-Americano, portanto, você tem de obrigatoriamente trocar a tomada da sua casa ou escritório onde
o computador (ou no-break, estabilizador, etc) será instalado caso ele não seja do tipo NEMA 5-15. É possível
que a partir de 2010 fabricantes oficialmente estabelecidos no Brasil passem a incluir o cabo de força ABNT NBR
14136:2002 de três pinos na caixa do produto.
Outros países podem usar tipos de plugues diferentes (por exemplo, a maioria dos países da Europa usa o
plugue padrão CEE 7/7, mas a Inglaterra usa um plugue chamado BS 1363, e por aí vai).
Cabo de força norte-americano.
13
Escola Alcides Maya - Primeiro Módulo
Plugues de alimentação
Atualmente as fontes de alimentação oferecem os seguintes conectores para alimentar os componentes do
micro:
Conector principal da placa mãe
Este é um dos cabos que você precisa conectar na placa mãe do micro.Ele usa um plugue grande de 24
pinos,que é o maior plugue encontrado na fonte de alimentação.
A maioria das fontes de alimentação permitirá a você este plugue de 24 pinos em um de 20 pinos (normalmente
removendo os 4 pinos extras), que é o padrão usado em placas mãe antigas.Placas-mãe que usam o conector
de 24 pinos são chamadas ATX 2.x, enquanto que placas-mãe que usam o conector de 20 pinos podem ser tanto
ATX 1.x ou ATX. Note que esses nomes se referem a conexão elétrica da placa-mãe e não ao seu tamanho físico.
ATX também é um nome usado para descrever o tamanho placa-mãe,o que pode confundir alguns usuários
(você pode ter um placa-mãe ATX com conector ATX 2.x,por exemplo; neste caso ATX significa o tamanho da
placa-mãe ,30,5 cm x 24,4 cm).
Conector de alimentação da principal da placa-mãe (plugue de 24 pinos). Veja como ele pode ser transformado
em um conector de 20 pinos.
Conector de alimentação principal da placa-mãe (plugue de 24 pinos).
Conector ATX12v: este conector de 4 pinos é usado para fornecer corrente elétrica para o processador do
micro e deve ser instalado na placa-mãe.
A conexão deste é necessária a menos que você use o conector Eps12v, veja abaixo:
14
Arquitetura e Montagem I
Conector ATX12v.
Conector ATX12v.
Conector EPS12V: Este conector de 8 pinos tem o mesmo objetivo do ATX12V, ou seja, fornecer corrente
elétrica para o processador do micro. Como ele tem oito pinos em vez de quatro, ele é capaz de fornecer mais
corrente. Nem todas as fontes de alimentação e placas-mãe vêm com este conector. Em algumas fontes o conector
EPS12V pode ser obtido juntando-se dois conectores ATX12V. Se sua placa-mãe e a sua fonte de alimentação
tiverem este conector, use-o em vez do ATX12V. Placas-mãe que vêm com este conector normalmente vem
com metade dele coberto por uma etiqueta adesiva ou uma proteção plástica, permitindo a você usar o conector
ATX12V da fonte de alimentação no conector EPS12V da placa-mãe. Você pode instalar o conector ATX12V da
fonte de alimentação no conector EPS12V na placa-mãe, apesar de não ser um procedimento recomendado.
Conector EPS12v.
15
Escola Alcides Maya - Primeiro Módulo
Em algumas fontes de alimentação o conector EPS12V pode ser obtido juntando dois conectores ATX12V.
Conector de EPS12v em uma placa-mãe.
Conectores de alimentação auxiliar PCI Express: Esses conectores são usados para fornecer mais
corrente elétrica para os dispositivos PCI Express, especialmente placas de vídeo. Por essa razão eles também
são chamados conectores de alimentação para placas de vídeo ou simplesmente PEG (PCI Express Graphics).
Nem todas as placas de vídeo precisam de alimentação extra, mas se sua placa de vídeo tem este tipo de plugue
você deve instalar o conector de alimentação auxiliar. Esses conectores têm seis ou oito pinos. Praticamente
todas as placas de vídeo que precisam de alimentação extra requerem a versão de seis pinos deste conector;
apenas as placas de vídeo muito topo de linha requerem o conector de oito pinos. Algumas placas de vídeo topo
de linha podem ainda necessitar do uso de dois cabos de alimentação para alimentá-las. Você deve prestar
atenção no conector de oito pinos porque ele se parece bastante com o conector EPS12V. Em teoria você não
pode instalar um plugue EPS12V em uma placa de vídeo, mas caso você consiga esta proeza poderá causar
um grande curto-circuito (felizmente todas as fontes de alimentação têm uma proteção contra curto-circuito e
não ligará caso você tente esta ligação). No conector EPS12V os fios de +12 V (amarelos) estão localizados
no mesmo lado da pequena trava presente no conector, enquanto que no plugue de alimentação da placa de
vídeo de oito pinos os fios terra (pretos) são aqueles que estão nesta posição. Atualmente todas as fontes de
alimentação precisam ter pelo menos um plugue de seis pinos, com as fontes mais potentes tendo dois, três
ou quatro cabos, fornecendo alimentação extra para mais de uma placa de vídeo ou alimentação adicional para
placas de vídeo topo de linha que necessitam de dois cabos de alimentação. Você também pode transformar
qualquer plugue de alimentação para periféricos em um conector de alimentação para placa de vídeo com a
utilização de um adaptador, que é muito útil caso você esteja instalando uma placa de vídeo adicional ou tem
uma fonte de alimentação antiga e não quer substituí-la.
16
Arquitetura e Montagem I
O conector PEG de seis pinos. Esta fonte de alimentação em particular tem dois pinos extras para você
transformar este plugue de seis pinos em um plugue de oito pinos. Nós chamamos este tipo de conector de
conector 6/8 pinos.
Um conector PEG de seis pinos em uma placa de vídeo.
Conectores de alimentação SATA: Este tipo de plugue é usado para fornecer alimentação para os dispositivos
Serial ATA (SATA), tais como discos rígidos e unidades ópticas. Se sua fonte de alimentação não tem conectores
suficientes deste tipo você pode converter qualquer plugue de alimentação para periféricos em um plugue de
alimentação SATA mediante a utilização de um adaptador. Fisicamente ele é chato e tem 15 pinos.
Plugue de alimentação SATA.
17
Escola Alcides Maya - Primeiro Módulo
Conector de alimentação SATA em um disco rígido.
Conectores para periféricos: Este é um conector de alimentação de quatro pinos em formato trapezoidal
freqüentemente usado para alimentar discos rígidos, unidades ópticas, ventoinhas, sistemas de iluminação, etc
– apesar de atualmente os novos discos rígidos e unidades ópticas serem conectados na fonte de alimentação
através de plugues de alimentação SATA. Além disso, antes do lançamento do conector PEG placas de vídeo
topo de linha usavam este tipo de plugue para alimentação extra. Esses conectores existem desde o lançamento
do primeiro IBM PC em 1981 e a IBM usou um empresa chamada Molex como fornecedora desses conectores.
Muitas pessoas chamam esses plugues de “Molex” porque nos primeiros PCs o nome “Molex” estava impresso
nos conectores e muita gente achou que este era o nome do conector, desconhecendo o fato de que Molex era
na verdade o fabricante. Nós preferimos chamá-los “plugues de alimentação para periféricos”.
Plugues de alimentação para periféricos.
Conector de alimentação para periférico em uma unidade óptica.
18
Arquitetura e Montagem I
Conector de alimentação da unidade de disquete: Este é a versão miniaturizada do plugue anterior, usado
para alimentação unidades de disquete de 3 ½”. Algumas placas de vídeo mais antigas usavam este plugue para
fornecer alimentação extra em vez de usar o conector anterior.
Conector de alimentação da unidade de disquete.
Conector de alimentação em uma unidade de disquete.
Plugues de Alimentação Antigos
Os dois plugues descritos abaixo não são mais usados, mas você poderá encontrá-los em computadores
antigos.
Conector de alimentação auxiliar de seis pinos da placa-mãe: este conector foi lançado juntamente com a
especificação ATX 1.x, mas apenas algumas placas-mãe (notavelmente placas-mãe soquete 423 e as primeiras
placas-mãe soquete 478) usavam este conector.
19
Escola Alcides Maya - Primeiro Módulo
Conector de alimentação auxiliar de seis pinos.
Conector de 12 pinos da placa-mãe: Este era o conector principal em placas-mãe e fontes AT. Ele ficou
obsoleto com a introdução do padrão ATX. Ele usava dois conectores de seis pinos (P8 e P9) e o grande problema
era que esses conectores, apesar de possuírem somente um modo correto de instalação, podiam ser instalados
em qualquer lado do conector de 12 pinos da placa-mãe, caso o usuário monte com os cabos invertidos, pode
causar danos à placa-mãe. Para evitar erros você deve instalar esses conectores de modo que os fios pretos
sempre fiquem juntos ao centro do conector.
Conector de alimentação AT.
Padrões
Existem vários diferentes padrões de fontes de alimentação para PCs. Esses padrões definem não apenas o
tamanho físico, mas também o tipo de conectores de uma fonte de alimentação. ATX12V 2.x e EPS12V são os
padrões de fontes de alimentação para PCs mais comuns atualmente.
Padrão AT: Este padrão foi introduzido pelo IBM PC AT em 1984 e foi usado até o padrão ATX ganhar
popularidade em meados dos anos 90. Fontes de alimentação AT fornecem quatro tensões, +5 V, +12 V, -5 V e
-12 V, e o cabo principal da placa-mãe usa um conector de 12 pinos (veja na página anterior). Dos conectores
apresentados nas páginas anteriores este tipo de fonte usa apenas os conectores de alimentação para periféricos
e o conector de alimentação da unidade de disquete, além do cabo da placa-mãe de 12 pinos, é claro.
20
Arquitetura e Montagem I
Padrão ATX: Em 1996 a Intel introduziu um novo formato de placa-mãe chamado ATX para substituir o antigo
formato AT. Como a placa-mãe ATX tinha dimensões físicas completamente diferentes, novos gabinete foram
necessários (“gabinetes ATX”, ao contrário dos “gabinetes AT” usados até então). Com este novo formato de
placa-mãe a Intel também propôs um novo tipo de fonte de alimentação com novos recursos, tais como o uso de
um conector da placa-mãe de 20 pinos e a introdução de novas tensões, +3,3 V e +5VSB, também conhecida
como “tensão de standby”. Esta saída está sempre ligada mesmo quando o computador está desligado, o que
permite ao micro desligar sozinho sem a necessidade do usuário pressionar o botão liga/desliga. Dos conectores
apresentados nas páginas anteriores este tipo de fonte de alimentação usa apenas um conector da placa-mãe de
20 pinos, os conectores de alimentação para periféricos e o conector de alimentação da unidade de disquete.
ATX12V v1.x: Com os modernos processadores consumindo cada vez mais, dois conectores de alimentação
extras foram adicionados às fontes de alimentação ATX: um conector de quatro pinos de 12 V (conector ATX12V)
e um conector auxiliar de seis pinos. A versão 1.3 das fontes ATX12V introduziu um conector de alimentação
Serial ATA.
ATX12V v2.x: Este padrão foi introduzido com o lançamento do barramento PCI Express e atualizou o
conector de alimentação da placa-mãe para um modelo de 24 pinos e introduziu o conector de alimentação
auxiliar PCI Express. Este é o padrão usado atualmente.
Ventilação
A fonte de alimentação desempenha um papel importantíssimo no processo de remoção do calor de dentro
do micro. Sua função é justamente remover o ar quente existente dentro do gabinete do micro e jogá-lo para fora.
O fluxo de ar dentro do micro funciona da seguinte forma: o ar frio entra através de ranhuras existente na parte
frontal do gabinete. Esse ar é aquecido devido a trocas de calor com outros dispositivos, como o processador,
placas de vídeo, chipset, etc. Como o ar quente é menos denso do que o ar frio, a sua tendência natural é subir.
Com isso, o ar quente fica retido na parte superior do gabinete. A ventoinha existente na fonte de alimentação
funciona como um exaustor, puxando o ar quente desta região e soprando-o para fora do micro.
Fluxo de ar dentro do gabinete do micro.
Tradicionalmente as fontes de alimentação para PCs utilizam uma ventoinha de 80 mm na parte traseira,
como você pode ver na Figura 25. Há alguns anos os fabricantes de fontes começaram a usar uma ventoinha de
120 mm ou maior na parte de baixo da fonte, substituindo a ventoinha do painel traseiro da fonte por uma grade.
Normalmente a uso de uma fonte de alimentação com ventoinha maior fornece um maior fluxo de ar e um menor
nível de ruído, já que uma ventoinha maior pode girar mais lentamente para produzir o mesmo fluxo de ar do que
uma ventoinha menor.
21
Escola Alcides Maya - Primeiro Módulo
Fonte de alimentação com uma ventoinha traseira de 80 mm.
Figura 26: Fonte de alimentação com uma ventoinha inferior de 120 mm.
Algumas fontes de alimentação podem ter mais do que uma ventoinha enquanto que alguns fabricantes
oferecem controle de velocidade de rotação para a ventoinha da fonte ou um cabo para você monitorar a
velocidade de rotação da ventoinha através do seu programa de monitoramento favorito (este cabo deve ser
instalado em um conector de ventoinha na placa-mãe). Esses recursos não muito comuns.
O problema da ventoinha da fonte e/ou as ventoinhas extras é o ruído produzido por elas. Em alguns casos
o barulho é tão irritante que o simples fato de trabalhar com o computador torna-se algo estressante. De modo
a reduzir o ruído atualmente a maioria das fontes de alimentação usa um circuito para controlar a velocidade
de rotação da ventoinha de acordo com a temperatura interna da fonte, ou seja, quando a fonte está “fria” a
ventoinha gira mais lentamente, produzindo assim menos ruído.
De modo a oferecer um maior fluxo de ar e organização dentro do micro algumas fontes de alimentação
utilizam um sistema de cabeamento modular, onde em vez de serem permanentemente presos à fonte os cabos
para periféricos são conectados à fonte através de conectores. Dessa forma você pode remover os cabos que
voc6e não utilizará. Alguns fabricantes vendem cabos extras para seus sistemas de cabeamento modular,
ajudando os usuários em futuros upgrades. Normalmente em fontes de alimentação com sistema de cabeamento
modular o cabo principal da placa-mãe e os cabos ATX12V são permanentemente presos à fonte.
22
Arquitetura e Montagem I
Sistema de cabeamento modular.
Potência
As fontes de alimentação são rotuladas de acordo com a potência máxima que conseguem fornecer – pelo
menos em teoria. O problema é que muitas fontes não conseguem fornecer sua potência rotulada, isto porque
o fabricante:
- Rotulou a fonte com a potência máxima de pico, que pode ser fornecida durante alguns segundos e, em
alguns casos, em menos de um segundo.
- Mediu a potência máxima da fonte com uma temperatura ambiente irrealística, normalmente a 25°C, enquanto
que a temperatura dentro do micro sempre estará maior do que isto – pelo menos em 35°C. Os semicondutores
e indutores têm um efeito físico chamado “de-rating”, onde eles perdem a capacidade de fornecer corrente (e
conseqüentemente potência) com a temperatura. Portanto uma potência máxima medida em uma temperatura
menor pode não ser obtida quando há um aumento na temperatura da fonte.
- Simplesmente mentiu: Este é provavelmente o caso de fontes “genéricas”.
Só para ilustrar como o efeito da temperatura afeta a capacidade de uma fonte em fornecer corrente, considere
a curva de “de-rating” apresentada na Figura 28, que pertence a um transistor chamado FQA24N50. Como você
pode ver, este transistor pode fornecer até 24 A quando está trabalhando a 25°C, mas assim que a temperatura
aumenta (eixo x) a corrente máxima suportada (eixo y) diminui. Em 100°C a corrente máxima que este dispositivo
pode fornecer é de 15 A, uma redução de 37,5%. A potência, medida que watts, é um fator entre a corrente e a
tensão (P = V x I). Se este transistor estivesse operando a 12 V nós veríamos uma redução na potência máxima
de 288 W (12 V x 24 A) para 180 W (12 V x 15 A).
Curva de “de-rating” de um transistor.
23
Escola Alcides Maya - Primeiro Módulo
Conhecendo esta situação bons fabricantes começaram a divulgar a que temperatura suas fontes foram
rotuladas. Você pode encontrar algumas fontes de alimentação no mercado onde o fabricante garante que elas
conseguem fornecer sua potência rotulada a 40°C, 45°C ou até mesmo 50°C. Em outras palavras, o fabricante
garante que elas podem fornecer sua potência rotulada em um cenário do mundo real e não apenas no laboratório
do fabricante. Este é um bom parâmetro na hora de decidir que fonte de alimentação comprar.
Você pode achar que a quantidade máxima de potência que uma fonte de alimentação pode fornecer é
simplesmente a soma da quantidade máxima de potência que cada saída pode fornecer. Mas na verdade a
matemática não é tão simples assim por causa da forma como as fontes de alimentação para PCs funcionam
internamente: as principais saídas positivas (+12V, +5 V e +3,3 V) compartilham alguns componentes e por isso
apesar de cada saída ter uma corrente (e conseqüentemente potência) máxima individual, este máximo pode
apenas ser atingido quando nenhuma corrente estiver sendo extraída das outras saídas.
O caso mais comum é com as saídas +5 V e +3,3 V. Apesar de elas terem correntes máximas e limites de
potência individuais, esses valores máximos podem ser extraídos apenas quando nenhuma corrente estiver
sendo extraída da outra saída: juntas elas têm uma potência máxima combinada, que é menor do que a simples
adição da capacidade máxima das saídas de +5 V e +3,3 V.
Para um exemplo prático considere a fonte de alimentação da próxima figura. Sua etiqueta diz que a saída
de +5 V pode fornecer até 24 A (que é igual a 120 W, 5 V x 24 A) e a saída de +3,3 V também pode fornecer até
24 A (que é igual a 79,2 W, 3,3 V x 24 A). A potência máxima combinada impressa na etiqueta é de 155 W, que
é menor do que a simples adição da potência máxima que cada saída pode fornecer individualmente (que seria
199,2 W, 120 W + 79,2 W).
A mesma idéia é válida para as saídas de +12 V. Na fonte de alimentação da Figura 29 cada barramento de
+12 V pode fornecer até 16 A (192 W, 12 V x 16 A), mas a potência máxima combinada para as saídas de +12 V
é 504 W, e não 768 W (192 W x 4).
E finalmente nós temos uma potência combinada para +12 V, +5 V e +3,3 V ao mesmo tempo, que não
é simplesmente uma adição da potência máxima combinada para as saídas de +5 V/+3,3 V com a potência
combinada para as saídas de +12 V. Na fonte de alimentação de nosso exemplo a potência máxima combinada
para essas saídas é de 581,5 W e não 659 W (155 W + 504 W).
Etiqueta típica de uma fonte de alimentação.
Finalmente nós temos a distribuição da potência, que é algo que poucos usuários se preocupam. Duas
fontes de alimentação com a mesma potência máxima podem ter uma distribuição de potência completamente
diferente.
Atualmente um micro típico extrai mais corrente/potência das saídas de +12 V. Isto acontece porque os dois
componentes que mais consomem no micro, o processador e a placa de vídeo, estão conectados nas saídas de
+12 V (através do conector ATX12V/EPS12V e através do conector PEG, respectivamente).
Dê uma outra olhada na etiqueta da fonte de alimentação da figura acima. Observe que esta fonte usa um
projeto atualizado, onde a fonte de alimentação é capaz de fornecer mais potência nas saídas de +12 V (504 W)
do que nas saídas de +3,3 V/+ 5 V (155 W).
Agora considere a fonte de alimentação da figura abaixo. Esta fonte pode fornecer mais potência/corrente
nas suas saídas de +5 V/+3,3 V do que nas suas saídas de +12 V, o que significa que esta fonte usa um projeto
desatualizado. Acredite, esta fonte ainda está sendo vendida e existem muitas outras iguais a ela sendo vendidas
por aí.
24
Arquitetura e Montagem I
Etiqueta de uma fonte de alimentação com um projeto desatualizado.
Em resumo, compre fontes de alimentação onde a capacidade máxima está nas saídas de +12 V e não nas
linhas de +5 V/+3,3 V.
Finalmente você precisará saber a quantidade de potência que seu micro realmente consumirá antes de
escolher uma fonte de alimentação. Existem várias calculadoras na internet que podem ajudá-lo nesta tarefa; nós
recomendamos esta. Nós também recomendamos que você escolha uma fonte de alimentação que funcionará
entre 40% e 60% da sua capacidade máxima. Existem duas razões para isto. Primeiro, a eficiência, assunto
da próxima página. Segundo, você terá margem para futuros upgrades. Portanto anote o resultado obtido pela
calculadora e multiplique por dois. Esta é a potência da fonte que recomendamos que você compre (você ficará
surpreso ao ver que a maioria dos micros requerem uma fonte de alimentação com menos de 450 W, mesmo
com o ajuste recomendado).
Eficiência
A eficiência de uma fonte de alimentação refere-se à quantidade de corrente extraída da rede elétrica que é
efetivamente convertida em corrente contínua. Eficiência é a relação entre a potência que está sendo extraída da
rede elétrica e a potência que está sendo na verdade fornecida ao micro.
Eficiência = Potência CC / Potência CA
Por exemplo, se o micro está consumindo 250 W e a fonte de alimentação está extraindo 350 W da rede
elétrica, isto significa que a eficiência da fonte de alimentação é de 71,4%.
Boas fontes de alimentação têm eficiência de pelo menos 80%. Quanto maior esse valor, melhor. Nós
recomendamos que você compre fontes de alimentação com eficiência de pelo menos 80%.
Uma fonte de alimentação com alta eficiência oferece duas vantagens. Primeira, redução na conta de luz.
Usando o exemplo acima, se você substituir esta fonte por uma com eficiência de 80% você extrairia apenas
312,5 W da rede elétrica, economizando, portanto, 37,5 W. Se você usa muito o micro (por exemplo, durante o
dia inteiro, todos os dias), esta economia pode ser relevante e no final vale à pena comprar uma fonte com alta
eficiência, mesmo que ela custe um pouco mais.
A segunda vantagem é que menos calor é produzido. Em nosso primeiro exemplo a fonte de alimentação
estaria convertendo 100 W em calor, enquanto que em nosso segundo exemplo a dissipação térmica cairia para
62,5 W, uma redução de 37,5% na dissipação do calor. Isto é realmente interessante e é sempre bom manter o
micro trabalhando mais refrigerado quanto possível.
Se você vir uma curva de eficiência típica você notará que a eficiência varia de acordo com a potência que está
sendo fornecida e normalmente a fonte de alimentação atinge sua eficiência máxima quando está fornecendo
25
Escola Alcides Maya - Primeiro Módulo
entre 40% e 60% de sua capacidade máxima. A eficiência também é maior quando a fonte de alimentação está
operando em 220 V. Veja na figura abaixo para um exemplo real:
Exemplo de uma curva de eficiência.
Por causa deste efeito é recomendável que você compre uma fonte de alimentação com o dobro de potência
que você realmente precisará. Isto explica a disponibilidade de fontes de alimentação acima de 700 W. Os
fabricantes não esperam que você extraia toda a potência que a fonte é capaz de fornecer, mas que você extraia
delas cerca de 50% para uma alta eficiência (durante nossos testes, no entanto, nós precisamos verificar se a
fonte de alimentação realmente pode fornecer sua potência rotulada, ou seja, em uma fonte rotulada como sendo
de 600 W nós queremos ser capazes de extrair 600 W dela). A única desvantagem nesta abordagem é o preço
de uma fonte de alimentação assim. Mas no longo prazo é uma boa idéia comprar uma fonte de grande porte, já
que você economizará em sua conta de luz, seu micro trabalhará mais refrigerado, você terá uma margem maior
para futuros upgrades e você não terá problemas de estabilidade na hora de rodar jogos pesados configurados
com os recursos de qualidade de imagem no máximo durante horas. Como mencionamos você ficará surpreso
ao ver que a maioria dos micros requerem uma fonte de alimentação com menos de 450W..
Correção do Fator de Potência
Todos os equipamentos que tenham motores e transformadores – como é o caso da fonte de alimentação –
consomem dois tipos de energia: ativa (medida em kWh) e reativa (medida em kVArh). Energia ativa é aquela
que produz trabalho, por exemplo, a rotação do eixo de um motor. Energia reativa (também chamada energia
magnetizante) é aquela que não produz trabalho mas é necessária para produzir o fluxo magnético necessário ao
funcionamento dos motores, transformadores, etc. A composição dessas duas energias consumidas é chamada
energia aparente e é medida em kVAh. Para clientes industriais, a concessionária de energia elétrica mede e
cobra a energia aparente, mas para clientes residenciais e comerciais, a energia medida e cobrada é a energia
ativa.
O problema é que a energia reativa, apesar de necessária para motores e transformadores, ela “ocupa
espaço” no sistema que poderia ser usado por mais energia ativa.
Fator de potência é a relação entre energia ativa e a energia aparente de um circuito (fator de potência =
energia ativa / energia aparente). Esta relação está compreendia entre 0 (0%) e 1 (100%) e quanto mais próximo
de 1 este fator, melhor, pois significa que o circuito está consumindo pouca energia reativa.
Existem dois tipos de circuito de correção de potência: passivo e ativo. O circuito passivo usa componentes
que não necessitam de alimentação (tais como bobinas com núcleo de ferrite) e faz com que o fator de potência
fique entre 0,60 (60%) a 0,80 (80%). Já o circuito ativo utiliza componentes eletrônicos tais como circuitos
integrados, transistores e diodos e, de acordo com os fabricantes, faz com que o fator de potência fique na faixa
de 0,95 (95%). Fontes de alimentação sem qualquer circuito de correção de potência têm um fator de potência
inferior a 0,60 (60%).
A correção de potência não está relacionada com eficiência e este é o equívoco mais comum que vemos no
mercado. Este circuito não faz com que o seu micro consuma menos eletricidade do tipo que nós pagamos. O
26
Arquitetura e Montagem I
circuito de correção de potência serve para fazer com que a fonte consuma menos energia reativa do sistema
elétrico e, com isso, otimizar a rede elétrica (permitindo que a concessionária forneça mais energia ativa). A
inclusão deste tipo de circuito foi feita somente para atender às legislações sobre consumo elétrico, em particular
a européia. Como a tendência é que outros países comecem a adotar legislações similares, os fabricantes já
estão se preparando, fabricando fontes com este tipo de circuito.
Estabilidade da Tensão, Ripple e Ruído
As tensões nas saídas de uma fonte de alimentação precisam estar bem próximas de seus valores nominais.
Em outras palavras, nós queremos ver as saídas de +12 V fornecendo +12 V e não +13 V!
As tensões tendem a cair com o aumento na carga. Fontes de alimentação chaveadas são sistemas de
laço fechado, o que significa que elas estão constantemente lendo os valores na saída e reconfigurando a fonte
automaticamente para certificar-se de que as saída estão sempre fornecendo suas tensões corretas.
Uma pequena diferença de até 5% para as tensões positivas ou até 10% para as tensões negativas é tolerável.
Veja a tabela abaixo. A tensão de -5 V não é mais usada e nós a incluimos na tabela apenas para referência.
Saída|tolerância|mínimo |máximo
+12v | +-5%
|+-11,40v |+12,60v
+5v | +-5%
|+-11,40v |+5,25v
+5vsb| +-5%
|+-4,75v |+5,25v
+3,3v | +-5%
|+-4,75v |+3,47v
-12v | +-10% | - 3,2
|-10,8v
-5v | +-10% |- 5,25v |-4,75v
Com isso, a fonte de alimentação precisa ser capaz de fornecer uma saída “limpa”. Em um mundo perfeito as
tensões nas saídas da fonte seriam descritas como uma única linha horizontal quando vista em um osciloscópio.
Mas no mundo real elas não são perfeitamente retas, elas apresentam uma pequena oscilação, chamada ripple.
No topo desta oscilação você pode ver alguns picos ou ruídos. O ripple e o ruído juntos não podem exceder 120
mV nas saídas de +12 V e 50 mV nas saídas de +5 V e +3,3 V. Esses valores são pico-a-pico.
Vamos mostrar a você alguns exemplos para uma melhor compreensão desta questão. Na figura abaixo
temos a saída de +12 V da fonte de alimentação PC Power & Cooling Silencer 750 Quad fornecendo 750 W.
Como nosso osciloscópio estava ajustado em 0,02 V/div, isto significa que cada quadrado verde representa 0,02
V (20 mV) no eixo y. O nível de ruído medido por nosso osciloscópio foi de 50 mV, muito longe do limite máximo
de 120 mV. Agora compare a Figura 33 com a Figura 34. A Figura 34 mostra a saída de +12 V da fonte WiseCase
WSNG-650WR-2*8+APFC fornecendo 650 W. Nosso osciloscópio mediu 115,4 mV. Apesar de estar (quase no
limite) dentro da especificação, nós sempre queremos ver fontes de alimentação com valores de ripple e ruído
com os menores valores possíveis. Metade do nível máximo permitido é uma boa medida.
O nível de ruído é certamente algo que a maioria dos usuários não se preocupa e é apenas analisado em
testes como os publicados pelo Clube do Hardware. A maioria dos sites não tem um osciloscópio para executar
testes de fontes de alimentação, publicando testes inúteis (para uma melhor discussão sobre este assunto leia
nosso artigo Porque 99% dos Testes de Fontes de Alimentação Estão Errados).
27
Escola Alcides Maya - Primeiro Módulo
Proteções
Proteção é sempre desejável, mas uma coisa que muita gente não sabe é que de acordo com os padrões
ATX12V e EPS12V apenas as proteções contra sobretensão (OVP), curto-circuito (SCP) e sobrecarga de
corrente (OCP) são exigidas. Todas as demais proteções são opcionais e cabe ao fabricante implementá-las ou
não. Claro, quanto mais proteções uma fonte tiver, melhor.
Vamos primeiro listar as proteções mais comuns disponíveis e depois falaremos sobre alguns fatos
interessantes sobre elas.
• Proteção Contra Curto-Circuito (SCP, Short-Circuit Protection): como o nome já sugere, a função desta
proteção é desligar a fonte caso qualquer saída estiver em curto. Esta é uma proteção obrigatória.
• Proteção Contra Subtensão (UVP, Under Voltage Protection): desliga a fonte caso a tensão em qualquer
das saídas dela estiver abaixo de um determinado valor. Esta é uma proteção opcional.
• Proteção Contra Sobretensão (OVP, Over Voltage Protection): desliga a fonte caso a tensão em qualquer
das saídas dela estiver acima de um determinado valor. Esta é uma proteção obrigatória.
• Proteção Contra Sobrecarga de Corrente (OCP, Over Current Protection): desliga o barramento que
está sendo monitorando caso este barramento esteja extraindo mais do que um determinado valor. Esta é uma
proteção obrigatória. Leia a página anterior para mais detalhes sobre esta proteção.
• Proteção Contra Sobrecarga de Potência (OPP, Over Power Protection, ou OLP, Over Load Protection):
desliga a fonte caso você esteja extraindo mais potência do que um determinado valor. Esta é uma proteção
opcional.
• Proteção Contra Superaquecimento (OTP, Over Temperature Protection): desliga a fonte caso sua
temperatura interna atinja um determinado valor. Esta proteção opcional não é muito comum.
A idéia das proteções é desligar a fonte caso algo de errado aconteça, impedindo que ela queime e/ou possa
pegar fogo. Por exemplo, se você extrair mais potência do que a fonte é capaz de fornecer ela pode queimar caso
a proteção contra sobrecarga de potência não tenha sido implementada. Com esta proteção a fonte desligará
em vez de queimar.
Todas as proteções são configuráveis pelo fabricante. Pegue a proteção contra sobretensão (OVP). Os
padrões ATX12V e EPS12V sugerem uma faixa de tensão que o fabricante pode usar para ativar este circuito,
mas fica a critério do fabricante escolher que valor será usado.
5 BIOS
O BIOS contém todo o software básico, necessário para inicializar a placa-mãe, checar os dispositivos
instalados e carregar o sistema operacional, o que pode ser feito a partir do HD, CD-ROM, pendrive, ou qualquer
outra mídia disponível. O BIOS inclui também o Setup, o software que permite configurar as diversas opções
oferecidas pela placa. O processador é programado para procurar e executar o BIOS sempre que o micro é
ligado, processando-o da mesma forma que outro software qualquer. É por isso que a placa-mãe não funciona
“sozinha”, você precisa ter instalado o processador e os pentes de memória para conseguir acessar o Setup. :)
Por definição, o BIOS é um software, mas, como de praxe, ele fica gravado em um chip espetado na placa-mãe.
Na grande maioria dos casos, o chip combina uma pequena quantidade de memória Flash (256, 512 ou 1024
KB), o CMOS, que é composto por de 128 a 256 bytes de memória volátil e o relógio de tempo real. Nas placas
antigas era utilizado um chip DIP, enquanto nas atuais é utilizado um chip PLCC (plastic leader chip carrier), que
é bem mais compacto:
28
Arquitetura e Montagem I
Chip PLCC que armazena o BIOS da placa-mãe
O CMOS serve para armazenar as configurações do setup. Como elas representam um pequeno volume de
informações, ele é bem pequeno em capacidade. Assim como a memória RAM principal, ele é volátil, de forma
que as configurações são perdidas quando a alimentação elétrica é cortada. Por isso, toda placa-mãe inclui uma
bateria, que mantém as configurações quando o micro é desligado. A mesma bateria alimenta também o relógio
de tempo real (real time clock), que, apesar do nome pomposo, é um relógio digital comum, que é o responsável
por manter atualizada a hora do sistema, mesmo quando o micro é desligado.
Se você prestou atenção nos três parágrafos anteriores, deve estar se perguntando por que as configurações
do Setup não são armazenadas diretamente na memória Flash, em vez de usar o CMOS, que é volátil. Isso
seria perfeitamente possível do ponto de vista técnico, mas a idéia de usar memória volátil para guardar as
configurações é justamente permitir que você possa zerar as configurações do Setup (removendo a bateria, ou
mudando a posição do jumper) em casos onde o micro deixar de inicializar por causa de alguma configuração
incorreta.
Um caso clássico é tentar fazer um overclock muito agressivo e o processador passar a travar logo no início
do boot, sem que você tenha chance de entrar no setup e desfazer a alteração. Atualmente basta zerar o setup
para que tudo volte ao normal, mas, se as configurações fossem armazenadas na memória Flash, a coisa seria
mais complicada.
Para zerar o CMOS, você precisa apenas cortar o fornecimento de energia para ele. Existem duas formas de
fazer isso. A primeira é (com o micro desligado) remover a bateria da placa-mãe e usar uma moeda para fechar
um curto entre os dois contatos da bateria durante 15 segundos. Isso garante que qualquer carga remanescente
seja eliminada e o CMOS seja realmente apagado. A segunda é usar o jumper “Clear CMOS”, que fica sempre
posicionado próximo à bateria. Ele possui duas posições possíveis, uma para uso normal e outra para apagar o
CMOS (“discharge”, ou “clear CMOS”). Basta mudá-lo de posição durante 15 segundos e depois recolocá-lo na
posição original.
Uma dica é que muitas placas vêm de fábrica com o jumper na posição “discharge”, para evitar que a carga
da bateria seja consumida enquanto a placa fica em estoque. Ao montar o micro, você precisa se lembrar de
verificar e, caso necessário, mudar a posição do jumper, caso contrário a placa não funciona, ou exibe uma
mensagem de erro durante o boot e não salva as configurações do Setup.
Jumper Clear CMOS
Como todo software, o BIOS possui bugs, muitos por sinal. De tempos em tempos, os fabricantes disponibilizam
versões atualizadas, corrigindo problemas, adicionando compatibilidade com novos processadores (e outros
componentes) e, em alguns casos, adicionando novas opções de configuração no Setup. É muito comum
que você precise atualizar o BIOS da placa para que ela funcione em conjunto com novos processadores, de
fabricação mais recente que a placa-mãe.
29
Escola Alcides Maya - Primeiro Módulo
Atualizar o BIOS consiste em dar boot através de um disquete ou CD-ROM, contendo o software que faz a
gravação, indicar a localização do arquivo com a nova imagem e deixar que ele regrave a memória Flash com o
novo código.
O primeiro passo é visitar a área de suporte ou downloads do site do fabricante e procurar por atualizações
para a sua placa-mãe. Se você usa Windows, aproveite para verificar se não estão disponíveis novas versões dos
drivers, que também podem corrigir problemas e adicionar novos recursos. Por exemplo, uma Asus K8N4-E SE,
que testei certa vez, tinha um problema estranho com a placa de rede, que parava de funcionar aleatoriamente
depois de algumas horas de uso contínuo, que foi solucionado com a atualização do BIOS da versão 0106 para
a 0110. Muitos fabricantes ainda disponibilizam disquetes de boot, contendo uma versão reduzida do FreeDOS
ou MS-DOS, mas muitos já passaram a disponibilizar CDs de boot (basta gravar a imagem .iso usando o Nero,
K3B ou outro programa de gravação e dar boot), o que elimina a necessidade de ter que instalar um drive de
disquetes na máquina só para poder atualizar o BIOS.
Uma idéia nova, que foi inaugurada pela Asus e vem sendo adotada por cada vez mais fabricantes, é incluir
o utilitário de atualização diretamente no próprio BIOS. Nesse caso, você só precisa pressionar uma combinação
de teclas durante o boot e indicar a localização do arquivo de atualização. Na maioria das placas, ele precisa ser
gravado num disquete ou CD-ROM (você precisa queimar um CD, colocando o arquivo no diretório raiz), mas
algumas já suportam também o uso de pendrives e cartões de memória instalados com a ajuda de um adaptador
USB. Na maioria dos casos, você pode acessar o utilitário de atualização pressionando ALT+F2 durante a
contagem de memória. Em muitas placas, a opção também fica disponível através do Setup. Nas placas da Asus,
por exemplo, ela fica dentro do menu “Tools”. Dentro do programa, basta indicar o arquivo a ser gravado. Eles
geralmente possuem em torno de 512 KB e utilizam a extensão “.BIN” ou “.ROM”:
Atualização de BIOS
Atualizar o BIOS é sempre um procedimento potencialmente perigoso, já que sem ele a placa não funciona.
Na grande maioria dos casos, o programa também oferece a opção de salvar um backup do BIOS atual antes de
fazer a atualização. Esse é um passo importante, pois se algo sair errado, ou você tentar gravar uma atualização
para um modelo de placa diferente, ainda restará a opção de reverter o upgrade, regravando o backup da versão
antiga.
A maioria das placas atuais incorpora sistemas de proteção, que protegem áreas essenciais do BIOS, de
forma que, mesmo que acabe a energia no meio da atualização, ou você tente gravar o arquivo errado, a placa
ainda preservará as funções necessárias para que você consiga reabrir o programa de gravação e terminar o
serviço. Em alguns casos, a placa chega a vir com um “BIOS de emergência”, um chip extra, com uma cópia do
BIOS original, que você pode instalar na placa em caso de problemas.
Placas antigas não possuem essas camadas de proteção, de forma que um upgrade malsucedido podia
realmente inutilizar a placa. Nesses casos, a solução era remover o chip e levá-lo a alguém que tivesse um
gravador de EEPROM. Depois de regravado, o chip era reinstalado na placa e tudo voltava ao normal. Ou seja,
mesmo nesses casos, a placa não era realmente danificada, ficava apenas “fora de serviço”.
Um truque muito usado era utilizar uma placa-mãe igual, ou pelo menos de modelo similar, para regravar
o BIOS da placa danificada. Nesses casos, você dava boot com o disquete ou CD de atualização (na placa
boa), removia o chip com o BIOS e instalava no lugar o chip da placa danificada (com o micro ligado), dando
prosseguimento ao processo de regravação. Dessa forma, você usava a placa “boa” para regravar o BIOS da
placa “ruim”. Naturalmente, a troca precisava ser feita com todo o cuidado, já que um curto nos contatos podia
inutilizar a placa-mãe.
30
Arquitetura e Montagem I
Concluindo, existem também programas de gravação para Windows, que são incluídos nos CDs de drivers de
muitas placas. Eles são mais fáceis de usar, mas fazer a atualização através deles é considerado menos seguro,
já que, dentro do Windows e com outros programas e serviços rodando, a possibilidade de algo inesperado
acontecer é maior.
Hoje em dia, a maioria dos dispositivos incluindo o HD, drive óptico, placa wireless e placa de vídeo possuem
um software de inicialização, similar ao BIOS da placa-mãe. Ele pode ser gravado diretamente no dispositivo,
em um chip de memória Flash, ou mesmo em algum tipo de memória ROM, ou ser incorporado ao driver. Essa
segunda solução vem sendo cada vez mais adotada pelos fabricantes, pois permite eliminar o chip de memória,
reduzindo o custo. É por isso que, muitas vezes (sobretudo ao tentar ativar sua placa wireless ou scanner no
Linux), você precisa baixar, além do driver ou módulo necessário, também os arquivos que compõem o firmware
da placa.
6 Placa Mãe
A placa-mãe é o componente mais importante do micro, pois é ela a responsável pela comunicação entre
todos os componentes. Pela enorme quantidade de chips, trilhas, capacitores e encaixes, a placa-mãe também
é o componente que, de uma forma geral, pode apresentar defeitos. É comum que um slot PCI pare de funcionar
(embora os outros continuem normais), que instalar um pente de memória no segundo soquete faça o micro
passar a travar, embora o mesmo pente funcione perfeitamente no primeiro e assim por diante.
Assim como os demais componentes do micro, placa-mãe também tem marca. Abit, Asus, Soyo, FIC,
PCChips, MSI, Gigabyte, Chaintech, A-Trend, ECS, Tomato/Zida são apenas algumas das inúmeras marcas que
você encontrará no mercado. Entretanto, muitas pessoas acabam chamando a placa-mãe pela marca do chipset,
isto é, pela marca dos circuitos existentes na placa. Por exemplo, muita gente chama placas-mãe com chipset
SiS de “placa-mãe SiS ou placas-mãe com chipset Intel de “placa-mãe Intel”, o que está tecnicamente errado, a
não ser que o fabricante do chipset seja o mesmo fabricante da placa-mãe.
Chipset
São os circuitos de apoio da placa-mãe. Apesar de existir uma infinidade de fabricantes de placas-mãe no
mundo, há somente alguns poucos fabricantes de chipsets. Os mais conhecidos são Intel, Nvidia, ATI (AMD),
VIA, SIS (Silicon Integrated Systems) e ALi (Acer Laboratories, Inc). No passado haviam outros fabricantes de
chipsets, tais como OPTi e UMC (United Microelectronics Corporation).
O desempenho de uma placa-mãe está intimamente relacionado ao chipset utilizado. Por esse motivo, muitos
técnicos acabam se preocupando mais com o chipset que a placa-mãe tem do que com a sua marca. Testes
de desempenho comprovam que a diferença de desempenho entre placas-mãe tem mais a ver com o chipset
usado do que com a marca. Assim, placas-mãe de marcas diferentes que usam o mesmo chipset em geral têm
desempenho similar.
Em geral as placas-mãe têm dois circuitos: um chamado Ponte Norte e outro chamado Ponte Sul:
Ponte Norte: também chamado controlador de sistema, esse é o circuito mais importante do chipset e o
desempenho da placa-mãe está intimamente ligado a ele. Temos, integrados dentro do controlador de sistema,
o controlador de memória, a ponte barramento local-PCI, a ponte barramento local-AGP e, no caso dos chipsets
mais antigos, controlador de memória cache L2 (chipsets para placas-mãe soquete 7, por exemplo). Atualmente,
a Ponte Norte precisa ser dotada de um dissipador de calor. Em alguns casos, inclusive dotado de uma pequena
ventoinha.
31
Escola Alcides Maya - Primeiro Módulo
Ponte Sul: Também chamado controlador de periféricos, esse circuito tem a importante função de ponte PCIISA, fazer a conexão com os periféricos básicos integrados à placa-mãe (especialmente com as portas IDE),
além de barramentos externos de expansão (USB e FireWire). O controlador de periféricos tem integrados o
controlador de interrupções, o controlador de DMA, o relógio de tempo real (RTC) e a memória de configuração
(CMOS). Um outro circuito, genericamente chamado super I/O (em geral por outro fabricante, como Winbond e
ITE), é conectado à Ponte Sul e tem integrado o controlador de teclado, o controlador de unidades de disquete,
portas seriais e paralela. Alguns chipsets têm integrados dentro de sua Ponte Sul as funções do super I/O que
controlam outros componentes onboard.
Padrão AT
AT é a sigla para Advanced Tecnology. Trata-se de um padrão antigo, em que nenhum computador novo
utiliza mais esse padrão. Seu uso foi constante de 1983 até 1996. Um dos fatos que contribuíram para que o
padrão AT deixasse de ser usado, é o espaço interno pequeno, que com ajuda dos vários cabos do computador,
dificultavam a circulação de ar, levando, em alguns casos, a danos na máquina. Isso exigia grande habilidade
do montador para aproveitar o espaço disponível da melhor maneira. Além disso, o conector de alimentação da
fonte AT, que deve ser ligada na placa-mãe, é composta por dois plugs (P8 e P9, cada um com seis pinos), que
devem ser encaixados lado a lado, sendo que os fios de cor preta de cada um devem ficar localizados no. Caso
esse cabo seja ligado de forma errada, a placa-mãe terá grandes chances de ser queimada.
Nas placas-mãe AT, o conector do teclado era o único conector visível acoplado à placa e segue o padrão
chamado DIN, enquanto o mouse utilizava porta seria Com1. Já os conectores das portas paralelas e seriais não
são encaixados diretamente na placa. Eles ficam disponíveis num adaptador, que é ligado na parte de trás do
gabinete e ligado à placa-mãe através de um cabo. Outras características de uma placa-mãe AT podemos ver
na figura abaixo:
32
Arquitetura e Montagem I
Padrão ATX
ATX é a sigla para Advanced Tecnology Extendend. Pelo nome, é possível notar que trata-se do padrão AT
melhorado. Um dos principais desenvolvedores do ATX foi a Intel. Como desde o início, o objetivo do ATX foi o
de solucionar os problemas do padrão AT (citados anteriormente), o padrão apresenta uma série de melhoras
em relação ao anterior, sendo, portanto, amplamente usado atualmente. Praticamente todos os computadores
novos vem baseados neste padrão.
Entre as principais características do ATX, está o maior espaço interno, proporcionando uma ventilação
adequada, conectores de teclado e mouse no formato PS/2 (tratam-se de conectores menores e mais fáceis de
encaixar), conectores serial e paralelo ligados diretamente na placa-mãe, sem a necessidade de cabos, melhor
posicionamento do processador, evitando que o mesmo impeça a instalação de placas de expansão por falta de
espaço.
Quanto a fonte de alimentação, também houve melhoras significativas. A começar pelo conector de energia
ligado à placa-mãe. Ao contrário do padrão AT, nele não é possível encaixar o plug de forma invertida. Cada pino
do conector possui um formato, que impede o encaixamento errado.
33
Escola Alcides Maya - Primeiro Módulo
Abaixo, vemos uma placa-mãe padrão ATX e ao lado desta, os conectores que são ligados de forma fixa na
placa-mãe, diferente de como é no padrão AT.
Quanto aos conectores, os fabricantes de placa-mãe adotaram um esquema de cores para cada tipo. Assim,
os dispositivos que fazem uso de determinadas portas, possuem seus conectores na mesma cor delas (as
primeiras placas-mãe não usavam este esquema). Observe a foto abaixo e veja as cores. Repare também que
não há cabos ligando os conectores à placa-mãe. Tais encaixes estão acoplados diretamente na peça.
Outra grande diferença é que placas-mãe ATX necessariamente precisam ser instaladas em gabinetes do
tipo ATX, pois as placas-mãe ATX possuem um comprimento maior possuem uma largura menor que placas-mãe
AT.
34
Arquitetura e Montagem I
É interessante notar que algumas placas-mãe AT podem ser instaladas em gabinetes ATX, desde que a placamãe possua conector de alimentação ATX, o que tem ocorrido com algumas placas-mãe durante a transição da
tecnologia. Nas placas com a fonte de alimentação ATX permite-se que o micro seja desligado por software,
o que pode ser muito útil em tarefas agendadas (por exemplo, você pode programar o micro para fazer um
download de um arquivo da Internet e se auto-desligar após o download).
ONBOARD x OFF BOARD
As primeiras placas mãe para PC, eram apenas um grande circuito integrado, onde praticamente todos os
componentes eram conectados à ela externamente, com o passar dos anos, e com a evolução dos PCs as
placas-mãe começaram a apresentar uma série de componentes (que antes eram externos) já inseridos na
própria placa, de onde surgiu o nome ONBOARD.
O primeiro componente onboard presente nas placas-mãe foi a controladora IDE e Super I/O, incorporada à
placa-mãe e controlada pela ponte sul, ela é a responsável pela conexão dos componentes IDE (discos rígidos
e unidades óticas), discos flexíveis e portas seriais e paralelas. A controladora IDE onboard foi vista nas placas
compatíveis com as últimas versões de 486, 586 e em todas as placas de Pentium.
A partir de 1997, começaram a surgir uma série de componentes como placa de vídeo, placa de som, fax/
modem e placa de rede integrados na própria placa-mãe, foi de onde surgiu o termo “Onboard”, que é o termo
empregado para identificar placas-mãe que possuem um ou mais dispositivos de expansão integrados. Já
as placas que não possuíam placas de expansão integradas, passaram a ser chamadas de “offboard”. Uma
característica marcante na maioria das placas-mãe onboard é o fato de ter um número bastante reduzido de
slots de expansão, o que já não ocorre nas placas offboard. Na maioria das vezes, uma placa onboard impede a
atualização de todos os seus componentes integrados, uma vez que não há slots de expansão suficientes.
A vantagem de se utilizar placas onboard é a redução de custo do computador, uma vez que deixa-se de
comprar determinados dispositivos porque estes já estão incluídos na placa-mãe. No entanto, é necessário
ter cuidado: quanto mais itens onboard uma placa-mãe possuir, mais o desempenho do computador será
comprometido. Isso porque o processador acaba tendo que executar as tarefas dos dispositivos integrados.
Na maioria dos casos, placas de som e rede onboard não influenciam significantemente no desempenho, mas
placas de vídeo e modems onboard reduzem bastante o desempenho do computador.
35
Escola Alcides Maya - Primeiro Módulo
As placas de vídeo, mesmo os modelos mais simples, possuem um chip gráfico que é responsável pela
geração de imagens. Este, por sua vez, requer memória para tal, principalmente quando trata imagens em 3D.
Uma placa de vídeo onboard, mesmo quando acompanhada de um chip gráfico integrado (que é controlado
pela ponte norte), acaba utilizando muitos recursos do processador, além de usar parte da memória RAM para
o processamento de vídeo.
Nos dias de hoje é praticamente impossível encontrar placas-mãe sem nenhum recurso onboard, mesmo as
placas-mãe mais conceituadas do mercado normalmente apresentam placas de som e de rede integradas. Já
as placas consideradas de “baixo custo” sempre apresentam a placa de vídeo onboard além das demais. Assim,
atualmente consideramos uma placa onboard, aquela que apresenta a placa de vídeo integrada (e na maioria
das vezes, todas as outras placas também), e as outras, apesar de possuírem som e rede integradas, ainda sim
as chamamos de placas offboard.
BARRAMENTOS
Barramentos (ou, em inglês, bus) são padrões de comunicação utilizados em computadores para a
interconexão dos mais variados dispositivos.
Barramento ISA (Industry Standard Architecture)
O barramento ISA é um padrão não mais utilizado, sendo encontrado apenas em computadores antigos. Seu
aparecimento se deu na época do IBM PC e essa primeira versão trabalha com transferência de 8 bits por vez e
clock de 8,33 MHz (na verdade, antes do surgimento do IBM PC-XT, essa valor era de 4,77 MHz).
Repare na imagem acima que o slot contém uma divisão. As placas de 8 bits utilizam somente a parte maior.
Como você já deve ter imaginado, as placas de 16 bits usam ambas as partes. Por conta disso, as placas-mãe da
época passaram a contar apenas com slots ISA de 16 bits. Curiosamente, alguns modelos foram lançados tendo
tanto slots de 8 bits quanto slots de 16 bits. O barramento ISA pode apresentar dois tipos de placas compatíveis:
as de Legado (Legacy ISA) que necessitam de “jumpers” para configuração e as ISA PnP (Plug-and-Play) que
foram criadas depois para uma maior compatibilidade com os novos sistemas operacionais.
36
Arquitetura e Montagem I
Barramento VESA (Video Electronics Standards Association)
Também chamado de VLB (VESA Local Bus), esse padrão funciona, fisicamente, como uma extensão do
padrão ISA (há um encaixe adicional após um slot ISA nas placas-mãe compatíveis com o padrão). O VLB pode
trabalhar a 32 bits e com a freqüência do barramento externo do processador (na época, o padrão era de 33
MHz), fazendo com que sua taxa de transferência de dados pudesse alcançar até 132 MB por segundo. Apesar
disso, a tecnologia não durou muito tempo, principalmente com a chegada do barramento PCI.
Barramento PCI (Peripheral Component Interconnect)
O barramento PCI surgiu no início de 1990 pelas mãos da Intel. Suas principais características são a
capacidade de transferir dados a 32 bits e clock de 33 MHz, especificações estas que tornaram o padrão capaz
de transmitir dados a uma taxa de até 132 MB por segundo. Os slots PCI são menores que os slots ISA, assim
como os seus dispositivos, obviamente. Mas, há uma outra característica que tornou o padrão PCI atraente: o
recurso Bus Mastering. Em poucas palavras, trata-se de um sistema que permite a dispositivos que fazem uso
do barramento ler e gravar dados direto na memória RAM, sem que o processador tenha que “parar” e interferir
para tornar isso possível. Note que esse recurso não é exclusivo do barramento PCI.
Outra característica do PCI é a sua compatibilidade com o recurso Plug and Play (PnP). Com essa
funcionalidade, o computador é capaz de reconhecer automaticamente os dispositivos que são conectados ao
slot PCI. Atualmente, tal capacidade é comum nos computadores, isto é, basta conectar o dispositivo, ligar o
computador e esperar o sistema operacional avisar sobre o reconhecimento de um novo item para que você
possa instalar os drivers adequados (isso se o sistema operacional não instalá-lo sozinho). Antigamente, os
computadores não trabalhavam dessa maneira e o surgimento do recurso Plug and Play foi uma revolução
nesse sentido. Além de ser utilizada em barramentos atuais, essa funcionalidade chegou a ser implementada em
padrões mais antigos, como vimos no ISA.
Barramento AGP (Accelerated Graphics Port)
Se antes os computadores se limitavam a exibir apenas caracteres em telas escuras, hoje eles são capazes
de exibir e criar imagens em altíssima qualidade. Mas, isso tem um preço: quanto mais evoluída for uma
aplicação gráfica, em geral, mais dados ela consumirá. Para lidar com o volume crescente de dados gerados
pelos processadores gráficos, a Intel anunciou em meados de 1996 o padrão AGP, cujo slot serve exclusivamente
às placas de vídeo.
37
Escola Alcides Maya - Primeiro Módulo
A primeira versão do AGP (chamada de AGP 1.0) trabalha a 32 bits e tem clock de 66 MHz, o que equivale a
uma taxa de transferência de dados de até 266 MB por segundo, mas na verdade, pode chegar ao valor de 532
MB por segundo. Explica-se: o AGP 1.0 pode funcionar no modo 1x ou 2x. Com 1x, um dado por pulso de clock
é transferido. Com 2x, são dois dados por pulso de clock. Em meados de 1998, a Intel lançou o AGP 2.0, cujos
diferenciais estão na possibilidade de trabalhar também com o novo modo de operação 4x (oferecendo uma taxa
de transferência de 1.066 MB por segundo) e alimentação elétrica de 1,5 V (o AGP 1.0 funciona com 3,3 V).
Algum tempo depois surgiu o AGP 3.0, que conta com a capacidade de trabalhar com alimentação elétrica de
0,8 V e modo de operação de 8x, correspondendo a uma taxa de transferência de 2.133 MB por segundo. Além
da alta taxa de transferência de dados, o padrão AGP também oferece outras vantagens. Uma delas é o fato
de sempre poder operar em sua máxima capacidade, já que não há outro dispositivo no barramento que possa,
de alguma forma, interferir na comunicação entre a placa de vídeo e o processador (lembre-se que o AGP é
compatível apenas com placas de vídeo).
Barramento PCI Express
O padrão PCI Express (ou PCIe ou, ainda, PCI-EX) foi concebido pela Intel em 2004 e se destaca por
substituir, ao mesmo tempo, os barramentos PCI e AGP. Isso acontece porque o PCI Express está disponível
em vários segmentos: 1x, 2x, 4x, 8x e 16x (há também o de 32x, mas até o momento, ainda não é utilizado
efetivamente). Quanto maior esse número, maior é a taxa de transferência de dados. Como mostra a imagem
abaixo, essa divisão também reflete no tamanho dos slots PCI Express:
O PCI Express 16x, por exemplo, é capaz de trabalhar com taxa de transferência de cerca de 4 GB por
segundo, característica que o faz ser utilizado por placas de vídeo, um dos dispositivos que mais geram
dados em um computador. O PCI Express 1x, mesmo sendo o mais “fraco”, é capaz de alcançar uma taxa de
transferência de cerca de 250 MB por segundo, um valor suficiente para boa parte dos dispositivos mais simples.
Com o lançamento do PCI Express 2.0, que aconteceu no início de 2007, as taxas de transferência da tecnologia
praticamente dobraram.
Barramentos AMR, CNR e ACR
Os padrões AMR (Audio Modem Riser), CNR (Communications and Network Riser) e ACR (Advanced
Communications Riser) são diferentes entre si, mas compartilham da idéia de permitir a conexão à placa-mãe
de dispositivos Host Signal Processing (HSP), isto é, dispositivos cujo controle é feito pelo processador do
computador. Para isso, o chipset da placa-mãe precisa ser compatível. Em geral, esses slots são usados por
placas que exigem pouco processamento, como placas de som, placas de rede ou placas de modem simples.
38
Arquitetura e Montagem I
7 Portas e Conectores
Porta Serial
Criadas junto com os primeiros IBM/PC as portas seriais vieram para que se pudesse acoplar periféricos
externos no microcomputador. O nome serial vem do fato da porta transmitir os dados “em série”, ou seja, um bit
de dados de cada vez.
Originalmente as portas seriais transmitiam a apenas 9.600 bits por segundo, depois foram aperfeiçoadas, e
assim passaram a transmitir a 115 Kbits por segundo.
Os computadores possuem apenas duas portas seriais, chamadas porta de comunicações COM1 e porta de
comunicações COM2. A COM1 era tradicionalmente utilizada para a conexão do mouse serial (padrão da época)
e a porta COM2 era utilizada para outros periféricos externos, como modems externos, as primeiras câmeras
digitais e cabos de conexão entre 2 PCs (RS-232).
A porta serial COM1 possui 9 pinos machos (chamada DB 9 MACHO) e a COM2, 25 pinos machos (DB 25
MACHO), mas efetivamente só utiliza os mesmos 9 pinos que a COM1.
Porta Paralela
Assim como as portas seriais, a porta paralela também existe desde os primeiros PCs, A grande diferença
dessa porta é que ela transmite 8 bits de dados de cada vez, isso ocorre pelo fato dessa porta possuir 25 vias de
transmissão, contra apenas 9 vias das portas seriais, assim com mais vias, a porta transmite os dados de forma
paralela, com uma largura de banda maior que a serial.
A porta paralela, conhecida como LPT1, inicialmente tinha uma taxa de transferência de 150 Kbytes por
segundo, depois foi criada a porta paralela ECP, o padrão atual para a porta paralela que transmite a 1.2
Megabytes por segundo.
39
Escola Alcides Maya - Primeiro Módulo
A porta LPT1 possui 25 pinos tipo fêmea (DB 25 Fêmea) e foi criada como a porta padrão das impressoras,
mas também é utilizada para outros periféricos, como scanners, zip-drives ou CD-ROMs externos.
Um grande problema é que os PCs possuem apenas uma porta paralela, o que é um problema se houverem
mais de um periférico que utilize essa porta.
Porta USB
USB é a sigla para Universal Serial Bus. Trata-se de uma tecnologia que tornou mais simples, fácil e rápida
a conexão de diversos tipos de aparelhos (câmeras digitais, HDs externos, pendrives, mouses, teclados, MP3players, impressoras, scanners, leitor de cartões, etc) ao computador, evitando assim o uso de um tipo específico
de conector para cada dispositivo.
Antigamente, conectar dispositivos ao computador era uma tarefa pouco intuitiva, muitas vezes digna apenas
de técnicos ou usuários com experiência no assunto. Diante de situações desse tipo, a indústria entendeu a
necessidade de criar um padrão que facilitasse a conexão de dispositivos ao computador. Assim, em 1995, um
conjunto de empresas - entre elas, Microsoft, Intel, NE e, IBM formou um consórcio para estabelecer um padrão.
A primeira versão oficial do USB (chamado de USB 1.1) tinha taxa de transmissão é de até 1,5 Mbps (LowSpeed), ou seja, de cerca de 190 KB por segundo. Por sua vez, nas conexões mais rápidas, esse valor é de até
12 Mbps (Full-Speed), cerca de 1,5 MB por segundo. Já no ano 2000 foi lançado o padrão USB 2.0 oferecendo
a velocidade de 480 Mbps (High-Speed), o equivalente a cerca de 60 MB por segundo. O padrão de conexão
continua sendo o mesmo da versão anterior. Além disso, o USB 2.0 é totalmente compatível com dispositivos
que funcionam com o USB 1.1. No entanto, nestes casos, a velocidade da transferência de dados será a do
1.1, obviamente. Isso ocorre porque o barramento USB tentará se comunicar à velocidade de 480 Mbps (HighSpeed). Se não conseguir, tentará à velocidade de 12 Mbps (Full-Speed), e, por fim, se não obter êxito, tentará
se comunicar à taxa de 1,5 Mbps (Low-Speed).
Conectores USB
A tecnologia USB conta com vários tipos de conectores, sendo o tipo A o mais conhecido, uma vez que está
presente na maioria dos computadores, além de poder ser encontrado em outros tipos de aparelhos. Uma vez
que o objetivo principal do padrão USB é facilitar a conexão de variados dispositivos ao computador, geralmente
os cabos desses aparelhos são do tipo A em uma ponta e de algum dos outros tipos na outra, podendo a segunda
ponta ter também algum formato proprietário, isto é, específico de um fabricante.
40
Arquitetura e Montagem I
Vantagens do padrão USB
Um dos principais motivos que levou à criação da tecnologia USB é a necessidade de facilitar a conexão de
variados dispositivos ao computador. Sendo assim, o USB oferece uma série de vantagens:
- Padrão de conexão: qualquer dispositivo compatível como USB usa padrões definidos de conexão (ver mais
no tópico sobre conectores), assim não é necessário ter um tipo de conector específico para cada aparelho;
- Plug and Play: quase todos os dispositivos USB são concebidos para serem conectados ao computador e
utilizados logo em seguida. Apenas alguns exigem a instalação de drivers ou softwares específicos. No entanto,
mesmo nesses casos, o sistema operacional reconhecerá a conexão do dispositivo imediatamente;
- Alimentação elétrica: a maioria dos dispositivos que usam USB não precisa ser ligada a uma fonte de
energia, já que a própria conexão USB é capaz de fornecer eletricidade. Por conta disso, há até determinados
dispositivos, como telefones celulares e MP3-players, que têm sua bateria recarregada via USB. A exceção fica
por conta de aparelhos que consomem maior quantidade de energia, como scanners e impressoras;
- Hot swap ou Hot swapping: (Troca a quente) a capacidade de retirar e de plugar componentes USB no
computador, enquanto opera normalmente a máquina (não é necessário reiniciar o computador);
- Conexão de vários aparelhos ao mesmo tempo: é possível conectar até 127 dispositivos ao mesmo
tempo em uma única porta USB. Isso pode ser feito, por exemplo, através de hubs, dispositivos que utilizam uma
conexão USB para oferecer um número maior delas. Mas, isso pode não ser viável, uma vez que a velocidade
de transmissão de dados de todos os equipamentos envolvidos pode ser comprometida. No entanto, com uma
quantidade menor de dispositivos, as conexões podem funcionar perfeitamente;
- Ampla compatibilidade: o padrão USB é compatível com diversas plataformas e sistemas operacionais.
O Windows, por exemplo, o suporta desde a versão 98. Sistemas operacionais Linux e Mac também são
compatíveis. Atualmente, é possível encontrar portas USB em vários outros aparelhos, como televisores, sistemas
de comunicação de carros e até aparelhos de som
USB 3.0
As especificações desse padrão foram definidas no final de 2008, mas ainda não existe nenhum dispositivo
USB 3.0 no mercado. Os primeiros produtos compatíveis com o novo padrão deverão chegar aos consumidores
finais já em 2010. Eis as principais características do USB 3.0 (SuperSpeed):
Transmissão bidirecional de dados: até a versão 2.0, o padrão USB permite que os dados trafeguem do
dispositivo A para o B e do dispositivo B para o A, mas cada um em sua vez. No padrão 3.0, o envio e a recepção
de dados entre dois dispositivos poderá acontecer ao mesmo tempo;
- Maior velocidade: a velocidade de transmissão de dados será de até 4,8 Gbps, equivalente a cerca de 600
MB por segundo, um valor absurdamente mais alto que os 480 Mbps do padrão USB 2.0;
- Alimentação elétrica mais potente: o padrão USB 3.0 poderá oferecer maior quantidade de energia: 900
miliampéres contra 100 miliampéres do USB 2.0;
- Compatibilidade: conexões USB 3.0 poderão suportar dispositivos USB 1.1 e USB 2.0;
- Conectividade: o USB 3.0 poderá fazer uso de novos tipos de conectores.
41
Escola Alcides Maya - Primeiro Módulo
Porta PS/2
As portas PS/2 foi criada pela IBM para o computador Personal System/2, Sucessor do antigo computador
Personal System/1. São portas criadas especificamente para a utilização do teclado (porta roxa) e mouse (porta
verde). Após o PS/2 ter sido descontinuado pela IBM, a Intel quando criou o padrão ATX, passou a utilizar as
portas PS/2 como o novo padrão para teclado e mouse. Os conectores de teclado e mouse PS/2 são chamados
de conectores Mini-Din e possuem 6 pinos.
Sobre as portas PS/2 é importante frisar também que, diferente das portas USB, as portas PS/2 não permitem
o “Hot Swap”, assim deve-se sempre desligar o computador para que se conecte ou desconecte um teclado ou
mouse de uma porta PS/2. Caso não seja feito esse procedimento, pode causar a queima da porta.
Porta FireWire 1394
O barramento FireWire (também conhecido por IEEE 1394) é um barramento externo, similar ao USB, o
FireWire foi desenvolvido pela Apple nos anos 90, e com mais de 30 vezes a velocidade do USB 1.1, transformouse num padrão da indústria para transferência de dados a alta velocidade.
Assim como o USB, o FireWire suporta Plug-and-Play e Hot Swap, através de sua porta podem ligar-se até
63 periféricos com a utilização de hubs contra 127 periféricos do USB. O FireWire fornece ainda até 45 watts de
potência por porta, contra 2.5 watts do USB, permitindo a ligação de dispositivos de consumo moderado sem
alimentação separada de corrente.
A primeira versão do FireWire (chamada também de FireWire 400) pode transferir dados entre dispositivos
em índices de 100, 200, ou 400 Mbit/s, embora o USB 2.0 seja capaz de velocidades até 480 Mbit/s, o FireWire,
devido à sua baixa latência, é mais rápido.
A segunda versão do FireWire, chamada de FireWire 800 (padrão IEEE 1394b) foi introduzido comercialmente
pela Apple em 2003. Esta nova especificação possui mais um par de condutores para blindagem, permitindo uma
taxa de transferência de 800 Mbit/s.
Apesar de inicialmente estar disponível apenas nos computadores Apple, o FireWire pode ser encontrado
em várias placas-mãe para PC ou em adaptadores PCI, com isso, vários fabricantes adotaram o FireWire para
uma ampla gama de dispositivos, como câmeras DV, discos rígidos externos, câmaras fotográficas digitais, áudio
profissional, impressoras e scanners. Há também cabos adaptadores que permitem que se utilize dispositivos
FireWire 400 na porta FireWire 800.
42
Arquitetura e Montagem I
Conector VGA (Video Graphics Array)
O conector VGA está presente na maioria dos monitores, inclusive nos monitores LCD, além de serem ainda
o padrão utilizado pela maioria das placas de vídeo.
O conector VGA, é composto por três fileiras de cinco pinos (na placa-mãe o VGA é fêmea, e no monitor é
macho). Esses pinos são conectados a um cabo cujos fios transmitem, de maneira independente, informações
sobre as cores vermelha (red), verde (green) e azul (blue) - isto é, o conhecido esquema de cores RGB. É
comum encontrar também monitores cujo cabo VGA possui menos pinos. Não se trata de um defeito, embora os
conectores VGA utilizem um encaixe com 15 pinos, nem todos são utilizados.
Conector DVI (Digital Video Interface)
Os conectores DVI são bem mais recentes que os conectores VGA e tendem a substituí-los por proporcionarem
qualidade de imagem superior. Isso ocorre porque, conforme indica seu nome, as informações das imagens
podem ser tratadas de maneira totalmente digital, o que não ocorre com o padrão VGA.
Quando, por exemplo, um monitor LCD trabalha com conectores VGA, precisa converter o sinal que recebe
para digital. Esse processo faz com que a qualidade da imagem diminua. Como o DVI trabalha diretamente com
sinais digitais, não é necessário fazer a conversão, portanto, a qualidade da imagem é mantida. Por essa razão,
a saída DVI é ótima para ser usada em monitores LCD, DVDs, TVs de plasma, entre outros.
É necessário frisar que existe mais de um tipo de conector DVI:
• DVI-A: é um tipo que utiliza sinal analógico, porém oferece qualidade de imagem superior ao padrão
VGA;
• DVI-D: é um tipo similar ao DVI-A, mas utiliza sinal digital. É também mais comum que seu similar,
justamente por ser usado em placas de vídeo;
• DVI-I: esse padrão consegue trabalhar tanto com DVI-A como com DVI-D. É o tipo mais encontrado
atualmente.
Há ainda conectores DVI que trabalham com as especificações Single Link e Dual Link. O primeiro suporta
resoluções de até 1920x1080 e, o segundo, resoluções de até 2048x1536, em ambos os casos usando uma
freqüência de 60 Hz.
Assim como o VGA, o DVI é macho no conector e fêmea na placa. O DVI é composto, basicamente, por
quatro pares de fios trançados, sendo um par para cada cor primária (vermelho, verde e azul) e um para o
sincronismo. Os conectores, por sua vez, variam conforme o tipo do DVI, mas são parecidos entre si, como
mostra a imagem a seguir:
43
Escola Alcides Maya - Primeiro Módulo
8 Processadores
O processador é o cérebro do computador. É o componente eletrônico responsável por executar todos os
programas. Quanto mais rápido for o processador, mais rápida será a execução das tarefas. Alguns exemplos
de processadores são: Core2Duo, Phenom, Pentium 4, Celeron, Athlon e Sempron. Os Processadores
tradicionalmente utilizavam um encapsulamento de cerâmica cinza, mas os processadores mais modernos utilizam
atualmente o encapsulamento PPGA (Plastic Pin GridArray) que é um encapsulamento plástico, semelhante ao
utilizado nas memórias RAM.
Os dois principais fabricantes de processadores para PCs na atualidade são a Intel e a AMD. A cada ano são
lançados novos modelos de processadores.
O processador é composto basicamente por quatro partes:
• Unidade de Controle (UC): É responsável pela tarefa de controle das ações a serem realizadas pelo
computador, comandando todos os outros componentes.
• Unidade lógica e aritmética (ULA): Realiza todas as operações lógicas e de cálculo que serão usadas
para executar uma tarefa.
• Registradores: São pequenas memórias velozes que armazenam comandos ou valores que utilizados no
controle e processamento de cada instrução.
Os registradores mais importantes são: Contador de Programa (PC) e Registrador de Instrução (IR).
• Gerenciador de Memória: É um dispositivo de hardware que transforma endereços virtuais em endereços
físicos e administra a memória principal do computador.
Lei de Moore
Gordon Earl Moore foi cofundador da Intel, empresa fabricante de microprocessadores. Em 1965 Moore
estabeleceu um conceito que definia que o poder de processamento dos computadores dobraria a cada 18 meses,
a Lei de Moore se mostrou correta no que diz respeito ao avanço dos processadores nos últimos 30 anos. Muitos
acreditam que os processadores possam continuar dobrando de potência a cada 18 meses, ou até em menos
tempo pelos próximos 50 ou 80 anos. Apesar do ciclo evolutivo dos transistores estar próximo do fim, eles ainda
devem continuar evoluindo por pelo menos mais uma década, até o limite físico da arquitetura dos processadores.
Depois disso, ainda restará aos fabricantes otimizar suas arquiteturas e adicionar mais transistores. Esgotadas
as possibilidades dos transístores, ainda restam os chips óticos, os nanotubos, os processadores quânticos e o
que mais poderá surgir pela frente. A evolução dos computadores não deverá parar tão cedo.
44
Arquitetura e Montagem I
Intel 4004
Criado em 1971, era um processador extremamente simples de 4 bits e possuía pouco mais de 2.000
transistores e operava a 740 kHz. Originalmente foi criado para ser utilizado em calculadoras científicas, mas sua
base foi utilizada para a arquitetura dos processadores mais modernos que foram criados nos anos seguintes.
Intel 8008
Criado em 1972, o 8008 era bastante superior ao 4004, com uma arquitetura de 8 bits, ele podia operar
com números entre 0 e 255 levando metade do tempo do 4004 para realizar uma mesma tarefa. As primeiras
versões do 8008 operavam a 500 kHz. Esta velocidade foi depois aumentada até aos 800 kHz. O 8008 tinha um
desempenho aceitável apenas para a utilização como um terminal, e não suportava maiores tarefas.
Intel 8080
Com um clock de 3 MHz o microprocessador Intel 8080 foi lançado em abril de 1974, era também um processador
de 8 bits, mas uma evolução do 8008, por ser muito mais rápido. O 8080 foi o primeiro microprocessador a ser
usado em larga escala nos chamados “computadores pessoais”. Antes deles, os microcomputadores eram
usados apenas em laboratórios científicos, em fábricas e em universidades. O 8080 popularizou o uso de
microcomputadores por pequenas empresas e até para uso pessoal. Já no final dos anos 70 eram comuns os
micros pessoais utilizando o 8080 e microprocessadores de outras empresas, baseados na mesma tecnologia do
8080, como o MC6800 da Motorola e o 6502, usados nos primeiros computadores da APPLE e o Z-80 fabricado
pela ZILOG, usado em um antigo computador chamado TRS-80.
45
Escola Alcides Maya - Primeiro Módulo
Intel 8086 e 8088
Em 1978 a Intel criou o processador 8086, que se tornaria o primeiro processador da chamada “arquitetura
x86”. O 8086 possuía um barramento de 16 bits e clocks de 4 a 10 MHz, O 8086 possuía ainda um barramento
de endereços de 20 bits que o permitia ter até 1 MB de memória RAM.
Já o 8088, apesar de ter sido criado depois (em 1979), era um processador inferior ao 8086. Suas arquiteturas
eram quase idênticas, ambos tinham um barramento interno de 16 bis, mas o 8088 possuía um barramento
externo de 8 bits, contra 16 bits do 8086. Pode-se dizer que o 8088 era uma versão de baixo custo e baixo
consumo de energia, comparado ao 8086.
Em 1981 a IBM escolheu o processador 8088 com clock de 4.77 MHz para ser utilizado em seu
microcomputador pessoal, chamado de IBM Personal Computer, ou simplesmente IBM-PC. Logo depois a IBM
implementou melhorias no projeto do seu computador pessoal, lançnado o IBM PC-XT, a sigla XT significava
Extended Tecnology (tecnologia extendida).
80286
Lançado pela Intel em 1982, o 80286 (ou simplesmente 286) com clocks de 6 a 8 MHz e posteriormente com
clocks que chegaram aos 25 MHz, o 286 trouxe, além da velocidade, uma série de avanços:
•
•
•
•
•
•
A utilização de palavras binárias de 16 bits tanto interna quanto externamente;
Modos de operação (Modo real e protegido)
Acesso a até 16 MB de memória (através do barramento de endereços de 24 bits)
Multitarefa
Memória virtual em disco
Memória protegida
Em 1984, o 80286 foi utilizado em outro modelo da IBM chamado de IBM PC-AT. A sigla AT significa Advanced
Technology (Tecnologia Avançada).
Modo Real x Modo Protegido
No modo real, o processador se comporta exatamente como um 8086 só que com mais velocidade, Essa
funcionalidade existe para qualquer processador a partir da classe 80286 oferecendo total compatibilidade com
os programas mais antigos existentes. Já no modo protegido, ele manifesta todo o seu potencial, incorporando
funções mais avançadas. É no modo protegido que o processador é capaz de reconhecer toda a RAM instalada
no sistema, além de incorporar recursos como a multitarefa e a memória virtual em disco. É neste modo que
usamos a interface gráfica do Windows e rodamos seus aplicativos.
46
Arquitetura e Montagem I
80386
O 80386 ou simplesmente 386 foi criado pela Intel em 1985, em tinha uma série de inovações em relação
ao 286. O 386 possuía um barramento de 32 bits de dados tanto internamente quanto externamente e ainda era
capaz de acessar as memórias através de um barramento de endereços de 32 bits. O 386 foi o primeiro a utilizar
multitarefa preemptiva (capacidade de executar mais de uma aplicação ao mesmo tempo) e o modo protegido de
maneira realmente eficiente. O 386 apresentava as versões de 16MHz, 20MHz, 25 MHz e 33 MHz.
O problema é que os 386 acima de 20 MHz eram muito rápidos para as memórias RAM existentes na época.
Por isso, a cada acesso, o processador tinha que ficar “esperando” os dados serem liberados pela memória RAM
para poder concluir suas tarefas, perdendo muito em desempenho.
Para solucionar esse problema, passaram a ser usadas pequenas quantidades de memória cache na grande
maioria das placas mãe para micros 386 e superiores.
Como o 386 era um processador de 32 bits, foi preciso desenvolver toda uma nova categoria de chipsets e
circuitos de apoio para trabalhar com ele, o que acabou encarecendo bastante os sistemas baseados no 386 e
afastando muitos compradores em potencial. Para contornar este problema, a Intel optou por lançar uma versão
de baixo custo do 386, batizada de 386SX, que apesar de continuar funcionando internamente com 32 bits de
dados, comunicava-se com a memória RAM e os demais periféricos usando apenas 16 bits (como o 286). Para
diferenciar os dois processadores, a Intel passou a chamar o 386 original de 386DX.
A partir do 386, começaram a surgir “clones” dos processadores da Intel, empresas como a AMD e Cyrix
apresentaram as suas versões de 386, só que com um clock mais alto que o da Intel, que era de 33 MHz, o 386
da AMD tinha um clock de 40 MHz.
80486
Criado em 1989, o 486 foi o primeiro processador a trazer a memória cache integrada ao processador.
Eram 8 Kbytes, mas que eram capazes de fornecer dados a cada ciclo do processador. Como os fabricantes
continuaram incluindo memória cache também na placa mãe, um pouco mais lentos, mas em maior quantidade,
surgiu também a distinção entre o cache L1 e o L2.
Outra evolução foi o coprocessador matemático. Ao invés de um componente que precisaria ser adquirido
separadamente, o coprocessador passou a ser um item de série (Unidade de Ponto Flutuante). Este foi o impulso
que faltava para a popularização de vários programas e o surgimento de jogos bem mais elaborados. O 486 é
quase duas vezes mais rápido do que um 386 da mesma frequência. Em alguns aplicativos, que dependem do
coprocessador matemático, um 486 chega a ser 10 vezes mais rápido que um 386.
Como fez anteriormente com o 386, a Intel criou um 486 de baixo custo chamado de 486SX. A diferença
entre o SX e o 486 original, que passou a ser chamado de 486DX. Os dois compartilhavam a mesma arquitetura,
mas o SX vinha sem o coprocessador matemático, o que o tornava muito mais lento em aplicativos gráficos e
científicos.
A Intel criou versões do 486 de 25Mhz, 33 MHz e 50MHz, este último devido à sua freqüência elevada, causava
certos problemas, o que fez com que a Intel passasse a trabalhar com um recurso chamado de Multiplicação
do Clock, através do qual o processador trabalha internamente à uma velocidade maior do que a da placa mãe.
Foram lançados então os processadores 486DX2 (que trabalhavam ao dobro da freqüência da placa mãe) e logo
depois os 486DX4 (que trabalhavam ao triplo da freqüência da placa mãe).
47
Escola Alcides Maya - Primeiro Módulo
Assim como nos 386, uma série de empresas também criaram a sua versão do 486, tais como AMD, Cyrix,
IBM e Texas Instruments, entre deles, o 486 DLC (DX Low Cost) e o 486 SLX (SX Low Cost), da Cyrix, era
nada mais que um chip com instruções 486, mas de baixo desempenho pois sua pinagem era compatível com
as placas de 386. Já outros fabricantes, como a AMD fizeram chips idênticos aos da Intel, e alguns com clocks
diferentes, como o de 40 MHz de clock para a placa mãe. Dessa forma os clocks dos 486 DX2 e DX4 ficaram
assim:
FABRICANTE
PROCESSADOR
PLACA MÃE
MULTIPLICADOR
Intel
486 DX2-50
25 MHz
2x
Intel/AMD/Cyrix
486 DX2-66
33 MHz
2x
AMD/Texas
486 DX2-80
40 MHz
2x
Intel
486 DX4-75
25 MHz
3x
Intel/AMD/Cyrix
486 DX4-100
33 MHz
3x
AMD
486 DX4-120
40 MHz
3x
MULTIPLICAÇÃO DO CLOCK
O recurso de multiplicação do clock foi criado para que os processadores não ficassem limitados às freqüências
da placa-mãe que são muito mais baixas. Os recursos de multiplicação começaram nos 486 (x2 e x3) e nos
processadores mais modernos, podem chegar a 20 vezes a velocidade da placa mãe. O recurso de multiplicação
de clock é indispensável atualmente, pois sem ele seria impossível desenvolver processadores mais rápidos, já
que não é possível aumentar a freqüência das placas mãe e dos demais periféricos na mesma proporção do
aumento do clock nos processadores. A freqüência da placa mãe chamamos de Front Side Bus.
FRONT SIDE BUS
Front Side Bus (ou Barramento Frontal) é o barramento de transferência de dados que transporta informações
entre o processador e a placa-mãe. Esse barramento sempre vai operar na mesma freqüência de trabalho da
placa-mãe e representa o valor a ser multiplicado pelo multiplicador do processador.
Assim FSB x Multiplicador = Clock Real do Processador.
Por exemplo um 486 DX4 120 possui Front Side Bus(FSB) de 40 MHz e multiplicador igual a 3, assim
teremos: 40 (FSB) x 3(multiplicador) = 120 MHz.
48
Arquitetura e Montagem I
PENTIUM
Criado em 1993, o Pentium corresponde à 5ª geração de processadores Intel, seguindo a arquitetura x86,
seu nome seria 80586, mas a Intel, cansada de ver o seus processadores sendo clonados por outras empresas,
e pela impossibilidade de se patentear números como nome, ele foi batizado de Pentium, no grego PENTA é
igual a cinco.
Os primeiros Pentiuns tinham clocks de 60 e 66 MHz, posteriormente foram criadas versões com clocks de
75 MHz, 90 MHz, 100 MHz, 133 MHz, 150MHz, 166 MHz, 180MHz, 200 MHz e 233 MHz.
PROCESSADOR
Front Side Bus
MULTIPLICADOR
Pentium 60
60
1x
Pentium 66
66
1x
Pentium 75
50
1,5x
Pentium 90
60
1,5x
Pentium 100
66
1,5x
Pentium 133
66
2x
Pentium 150
60
2,5x
Pentium 166
66
2,5x
Pentium 180
60
3x
Pentium 200
66
3x
Pentium 233
66
3,5x
O Pentium tinha como características:
• Barramento de dados de 64 bits: O acesso à memória é feito a 64 bits por vez, o que significa uma maior
velocidade, pois pode transportar simultaneamente dois dados de 32 bits. No 386 e 486, esse acesso era feito a
32 bits por vez. Note que o Pentium continua sendo um processador de 32 bits.
• Cache L1 de 16 KB: O cache interno do Pentium (cache primário ou L1) é maior (16 KB), sendo dividido
em dois, um de 8 KB para o armazenamento de dados e outro de 8 KB para instruções. Essa divisão faz com que
o desempenho do cache de memória seja maior.
• Arquitetura Superescalar: O Pentium funciona internamente como se fossem dois processadores 486
trabalhando em paralelo. Dessa forma, é capaz de processar duas instruções simultaneamente por pulso de
clock, o que, nos processadores anteriores, era impossível.
• Multiprocessamento: Os processadores da Intel permitem trabalhar em placas-mãe com mais
de um processador diretamente. No caso do Pentium, este pode ser utilizado em placas-mãe com até dois
processadores.
• Co-processador matemático mais rápido: O co-processador matemático do Pentium trabalha de uma
forma mais eficiente que o co-processador do 486. Segundo a Intel, isso faz com que ele seja, em média, de
três a cinco vezes mais rápido que o co-processador matemático do 486DX. Para aplicações corriqueiras (como
soma e multiplicação), o co-processador matemático do Pentium chega a ser até dez vezes mais rápido que o
do 486.
• Instrução de identificação: O Pentium passou a ter uma nova instrução, chamada CPUID, onde o
processador avisa qual a sua classe. Dessa forma um programa tem como saber em que processador está
sendo executado, facilitando sua configuração.
49
Escola Alcides Maya - Primeiro Módulo
ARQUITETURA SUPERESCALAR
Com essa arquitetura, o processador passa a ter mais de uma unidade de Execução. O Pentium tem duas
unidades de execução, chamadas Canalizações. A primeira unidade de execução chama-se U e a segunda, V
Com isso, o processador é capaz de executar até duas instruções por pulso de clock.
Vamos dizer que tenhamos um programa com duas instruções seguidas: A + B e C + D. Podemos executá-las
em qualquer ordem, não? Executar C + D antes de A + B não irá interferir em nada no resultado final. O Pentium é
capaz de executar simultaneamente duas instruções independentes, uma em cada canalização, obtendo o dobro
do desempenho sobre qualquer microprocessador convencional.
PIPELINE
Pipeline é a capacidade de um determinado hardware que permite que a CPU realize a busca de uma ou
mais instruções além da próxima a ser executada. Estas instruções são colocadas em uma fila de memória
(dentro da CPU) onde aguardam o momento de serem executadas.
O Pipeline é utilizado para acelerar a velocidade de operação da CPU, uma vez que a próxima instrução a ser
executada está normalmente armazenada dentro da CPU e não precisa ser buscada da memória, normalmente
muito mais lenta que a CPU.
Algumas CPUs incluem conceitos muito mais avançados de Pipeline:
• Pré-decodificação: a CPU pode iniciar a decodificação de diversas instruções (paralelamente) e antes do
momento das mesmas serem executadas.
• Execução fora de seqüência: algumas CPUs podem além de pré-decodificar, executar previamente um
determinado número de instruções. Numa etapa posterior, a ordem de execução é verificada e os resultados das
operações são consolidados na sua ordem correta.
• Previsão de desvio: caso exista uma instrução de desvio dentro do Pipeline e a sua execução for
consolidada, todas as instruções posteriores à mesma e que se encontram na fila devem ser abortadas.
Tecnologia MMX
Criada em 1997, a tecnolgia MMX (que significa Multimedia Extensions) era formada por dois conjuntos de
instrução: o primeiro com as instruções tradicionais da família Intel x86 e o segundo com as chamadas instruções
MMX.
O conjunto de instruções MMX tem 57 instruções, todas muito simples, como soma, subtração e comparação.
A grande vantagem é a possibilidade de que essas instruções utilizem um conceito chamado SIMD (Single
Instruction, Multiple Data), ou Instrução única para Múltiplos Dados, que permite que vários dados de poucos bits
sejam manipulados simultaneamente.
A Intel fez com que o conjunto de instruções MMX compartilhasse o circuito do coprocessador matemático
integrado (unidade de ponto flutuante) utilizando os registradores já existentes. Assim, o acesso ao conjunto de
instruções MMX é tão simples quanto o conjunto de instruções do coprocessador matemático. Os programas
podem acessar livremente as instruções MMX em qualquer momento, independentemente do modo de operação
do processador, o qual identificará que o circuito utilizado é o coprocessador.
50
Arquitetura e Montagem I
Um micro com um processador MMX é absolutamente igual a um micro com um processador convencional.
A diferença é que, enquanto, no primeiro, você pode executar programas MMX, no segundo, não.
As novas instruções MMX podem ser agrupadas em:
•
•
•
•
•
•
•
Instruções Aritméticas
Instruções de Comparação
Instruções de Conversão
Instruções Lógicas
Instruções de Deslocamento
Instruções de Transferência de Dados
Instrução de Inicialização (EMMS)
SIMD (Single Instruction, Multiple Data)
A idéia do conceito SIMD é aproveitar o fato de que os registradores internos dos processadores são grandes
e utilizá-los para a soma de vários dados de poucos bits simultaneamente. Como os registradores da unidade de
ponto flutuante (e que são compartilhados pelo conjunto de instruções MMX) armazenam 64 bits, poderíamos
embutir em um registrador destes até oito dados de 8 bits, quatro dados de 16 bits ou, ainda, dois dados de 32
bits.
Para o caso de dados de 8 bits, vimos que uma instrução tradicional é capaz de fazer somente uma soma por
vez. Já uma instrução MMX é capaz de fazer oito somas simultâneas de diferentes dados de 8 bits. Isso refletirá
em um aumento drástico de desempenho quando utilizarmos instruções MMX para a manipulação de muitos
dados pequenos.
Repare que esse aumento de desempenho é conseguido graças à utilização de instruções MMX para a
manipulação de dados pequenos. Programas tradicionais não ganharão desempenho algum em processadores
que sejam MMX, pois ainda estão programados para utilizarem instruções tradicionais. Para haver um ganho de
desempenho, o programa deverá ser compilado especificamente para processadores MMX, ou seja, o programa
deverá ser escrito para ler a instrução MMX.
As aplicações mais beneficiadas pela tecnologia MMX são as multimídia, em especial a manipulação de
imagens. Por um motivo muito simples: os dados utilizados são de apenas 8 bits.
Pentium Pro
Lançado em 1995 com o intuito de ser um processador voltado ao mercado de alto desempenho equipando
Workstations e servidores. Apesar de usar um pouco da tecnologia do Pentium, o Pentium Pro é um projeto
quase que totalmente novo, trazendo brutais alterações na arquitetura.
Entre as inovações trazidas pelo Pentium Pro, podemos destacar a arquitetura superescalar com três
canalizações, o suporte a multiprocessamento com até 4 processadores trabalhando em paralelo e o cache L2
integrado ao corpo do processador. O barramento de endereços do Pentium Pro também foi ampliado, de 32
para 36 bits, permitindo ao Pentium Pro endereçar até 64 GB de memória. Por ter sido lançado antes do Pentium
MMX, o Pentium Pro não possuía as extensões MMX.
51
Escola Alcides Maya - Primeiro Módulo
Ao integrar-se a cache L2 ao processador, criou-se assim um novo barramento, batizado de Backside Bus
dedicado unicamente à comunicação entre o núcleo do processador e o cache L2. O uso de um barramento
separado permite que o cache opere na mesma freqüência do processador, independentemente da velocidade
da placa mãe.
Mesmo com o cache L2 trabalhando na mesma freqüência do processador, o cache L1 continua sendo
necessário, pois apesar dos dois caches operarem na mesma freqüência, o barramento de dados do cache L1 é
bem maior, o que permite taxas de transferências muito mais altas. O tempo de resposta do L1 também é menor,
pois além de nele serem usadas memórias mais rápidas, a distância física a ser percorrida pelo sinal será sempre
muito menor, já que o L1 faz parte do núcleo do processador.
Quanto à frequência de operação, existiram apenas duas versões, de 166 MHz e 200 MHz. A limitação básica
não foi a arquitetura do processador, mas sim o cache. Na época, a Intel tinha condições de lançar versões bem
mais rápidas, mas não tinha como produzir chips de cache capazes de operar a mais de 200 MHz.
Com a grande mudança na arquitetura do processador e o novo encapsulamento, o Pentium Pro deixou de
ser compatível com as velhas placas soquete 7 usadas pelos processadores anteriores.
Foi criado então um novo tipo de soquete, batizado de soquete 8, que foi utilizado apenas em placas para
processadores Pentium Pro. Estas placas são naturalmente incompatíveis com o Pentium, MMX, K6, etc.
AMD 5x86
No início, a AMD produzia clones de processadores Intel, utilizando os projetos desenvolvidos pela Intel e
pagando royalties em troca. Porém, devido a várias divergências, o contrato acabou sendo desfeito e a AMD
passou a criar os seus próprios projetos de processadores.
O AMD 5x86 não passa de um 486 funcionando a 133 MHz, com FSB de 33 MHz e multiplicador x4, seu
desempenho era levemente superior a um 486DX4-100, sendo mais ou menos equivalente ao de um Pentium de
75 MHz. Aliás, outra medida de marketing tomada pela AMD na época, foi criar um índice Pr, ou “Pentium Rating”,
comparando o desempenho do 5x86 ao do Pentium. O 5x86 de 133 MHz recebeu o índice Pr 75, indicando
possuir um desempenho semelhante ao apresentado por um Pentium de 75 MHz.
Cyrix Cx5x86
Essse processador, era uma alternativa barata em relação aos Pentium, já que apresentava um desempenho
bastante superior a um 486 comum, pois tinha um cache L1 de 16 KB além de algumas outras melhorias que
tornam seu desempenho cerca de 35% superior ao de um 486 do mesmo clock. A versão de 100 MHz do Cx5x86
possuia um desempenho equivalente ao 5x86 de 133 MHz da AMD e ao Pentium 75, enquanto a versão de 120
MHz rivaliza em desempenho com um Pentium 90.
Assim como o 5x86 da AMD, Cx5x86 era totalmente compatível com as placas mãe para 486, bastando
configurar a placa com multiplicador de 3x e FSB de 33 MHz para instalar a versão de 100 MHz e, 3x 40 MHz
para utilizar a versão de 120 MHz.
52
Arquitetura e Montagem I
AMD K5
A AMD finalmente conseguiu lançar um processador que pudesse concorrer diretamente com o Pentium. O
K5, porém, não chegou a tornar-se muito popular devido ao seu lançamento atrasado. Quando finalmente saíram
as versões Pr 120 e Pr 133 do K5, em março de 1996, a Intel já havia lançado as versões de 166 e 200 MHz do
Pentium, ficando difícil a concorrência.
O K5 também utilizava uma Arquitetura Superescalar, mas ao invés de duas, possuía quatro canalizações. O
cache L1 também foi ampliado, passando a ser de 24 KB, dividido em dois blocos, um de 16 KB para instruções
e outro de 8 KB para dados. O K5 não possuía instruções MMX integradas.
O coprocessador aritmético, porém não foi muito melhorado, apresentando um desempenho quase 50%
inferior ao apresentado pelo coprocessador do Pentium, devido principalmente à ausência de Pipeline. Mas,
como na maioria das aplicações o K5 era bem mais rápido que o Pentium, a AMD optou novamente por vender
seu processador segundo um índice Pr, que compara seu desempenho com o dos processadores Pentium.
PROCESSADOR
FREQUENCIA REAL DE OPERAÇÃO
K5-PR 120
90 MHz (1,5 x 60 MHz)
K5-PR 133
100 MHz (1,5 x 66 MHz)
K5-PR 166
116 MHz (1,75 x 66 MHz)
AMD K6
Em 1996 a AMD comprou a NexGen, empresa fundada por ex-engenheiros da Intel, com a tecnologia
adquirida da NexGen possibilitou a AMD desenvolver os processadores K6.
O K6 trazia 64 KB de cache L1 integrado ao processador e compatibilidade com as instruções MMX e utilizava
o mesmo soquete e numero de pinos que o Pentium e Pemtium MMX.
Por causa de sua arquitetura mais avançada, o K6 supera em desempenho não somente o Pentium, mas
também o Pentium MMX em muitos aplicativos, porém o seu coprocessador matemático possuía um desempenho
bastante inferior. Isso fez com que seu desempenho em aplicativos gráficos, como processamento de imagens
ou vídeos, jogos com gráficos tridimensionais ficasse bastante prejudicado. Nestes aplicativos o K6 chega a ser
mais de 20% mais lento que um Pentium MMX do mesmo clock.
O K6 possuía os clocks de 166 MHz, 200 MHz e 233 MHz.
53
Escola Alcides Maya - Primeiro Módulo
Cyrix 6x86MX
O 6x86MX foi o concorrente da Cyrix para o MMX da Intel. Como o K6, este processador traz 64 KB de cache
L1, instruções MMX, e oferece compatibilidade com as placas mãe soquete 7. A performance em aplicações
Windows é muito parecida com um K6, porém, o coprocessador aritmético é ainda mais lento do que o que
equipa o K6, tornando muito fraco seu desempenho em jogos e aplicativos que façam uso intenso de cálculos
de ponto flutuante.
Enquanto o K6 usa um coprocessador matemático simples, com apenas uma unidade de execução, mas
com otimizações para ser capaz de executar uma instrução por ciclo, o coprocessador 6x86MX da Cyrix pode
demorar vários ciclos para processar cada instrução. Apenas as instruções simples são executadas em um único
ciclo. Enquanto o coprocessador matemático do K6 era cerca de 20% mais lento que o do MMX, o do 6x86MX
chegava a ser 50% mais lento.
Como o K5, o 6x86 adota o índice Pr, comparando seu desempenho com o de um Pentium. O 6x86MX é
encontrado nas versões PR150 (120 MHz), PR166 (133 MHz), PR200 (150 MHz), PR233 (187 MHz) e PR266
(225 MHz). O uso do índice Pr já foi causador de muita confusão, alguns usuários chegavam a pensar que o Cyrix
Pr266 trabalhava realmente a 266 MHz e não a 255 MHz e acabavam achando que o processador estava com
algum defeito, por não trabalhar na freqüência divulgada pela Cyrix.
Pentium II
Criado em 1997 o Pentium II foi criado baseado nas tecnologias do Pentium Pro e do Pentium MMX. A
mudança mais visível no Pentium II é o novo encapsulamento SEPP (Singled Edge Processor Package). Ao
invés de um pequeno encapsulamento de cerâmica, temos agora uma placa de circuito, que traz o processador
e o cache L2 integrado. Protegendo esta placa, temos uma capa plástica, formando um cartucho muito parecido
com um cartucho de videogame. As placas de Pentium II não eram compatíveis com as antigas placas de
Pentium.
A mudança foi necessária, pois a Intel ainda não havia conseguido desenvolver memórias cache que
operassem acima de 200 MHz com um custo de produção aceitável. Assim a Intel colocou no Pentium II 512 KB
de cache L2, o dobro da quantidade encontrada na versão mais simples do Pentium Pro. No Pentium II, porém
o cache L2 trabalha a apenas metade do clock do processador. Em um Pentium II de 266 MHz por exemplo, o
cache L2 trabalha a 133 MHz, o dobro da frequência do cache encontrado nas placas mãe soquete 7, mas bem
menos do que os 200 MHz do cache encontrado no Pentium Pro.
Assim os Pentium II vinham com o cache embutido no processador, mas não dentro de seu núcleo, apenas
fazendo parte do mesmo encapsulamento mas com metade da sua velocidade, esse encapsulamento foi a única
forma encontrada pela Intel para conseguir um cache L2 de menos velocidade no mesmo corpo do processador.
As placas de Pentium II também não possuíam memória cache L2. Com o Pentium II vieram também o suporte
a 100 MHz para as placas mãe, tornando as placas, o processador e as memórias RAM mais rápidas.
O Pentium II vinha nas seguintes velocidades: 233 MHz, 266 MHz, 300 MHz, 333 MHz, 350 MHz, 400 MHz e
450 MHz de acordo com o quadro abaixo:
54
Arquitetura e Montagem I
Processador
FSB
Multiplicador
Pentium II 233
66 MHz
3,5x
Pentium II 266
66 MHz
4x
Pentium II 300
66 MHz
4,5x
Pentium II 300
100 MHz
3x
Pentium II 333
66 MHz
5x
Pentium II 350
100 MHz
3,5x
Pentium II 400
100 MHz
4x
Pentium II 450
100 MHz
4,5x
AMD K6-2
Criado em 1998 e existente até o ano 2000, o K6-2, também foi conhecido como K6-3D, utilizava o mesmo
soquete do Pentium (Socket 7) mas as placas necessitavam um FSB de 100 MHz, que foram conhecidas como
placas Super 7. Este processador incorpora a tecnologia AMD 3DNow!, São 21 novas instruções MMX voltadas
para processamento de imagens tridimensionais. Com essas novas instruções, programas que utilizam gráficos
3D, particularmente jogos, passaram a ter um grande aumento no desempenho e Unidade MMX superescalar
em dupla canalização: Com isso, duas instruções MMX podem ser executadas simultaneamente em um único
pulso de clock. O K6-2 foi designado para ser um competidor mais barato dos significamente mais caros e mais
antigos Intel Pentium II com um desempenho equivalente. O K6-2 foi um chip de sucesso que proporcionou uma
base de mercado estável à AMD e uma garantia de sucesso para os seus processadores futuros. O K6-2 vinha
nas seguintes velocidades:
AMD K6-III
Criado em 1999 para tentar concorrer diretamente com o Pentium III, o K6-III foi o último processador da
AMD a utilizar a plataforma Super-7. O que diferenciava o K6-III do K6-2 era que o K6-III possuía uma memória
cache muito maior, e dividida em três níveis: o cache L1 de 64 KB, o L2 de 256 KB, mas este usando a mesma
velocidade de operação que o processador (diferente do K6-2) e um cache L3 de 512 KB (que era o da placamãe na velocidade da placa, 100 Mhz). O K6-III foi descontinuado cerca de 1 ano após o seu lançamento, pois
a AMD resolveu investir em uma nova plataforma com soquete novo, abandonando definitivamente o Super-7. O
K6-III foi produzido nos clocks de 400, 450, 475, 500 e 550 MHz.
55
Escola Alcides Maya - Primeiro Módulo
CELERON
O Celeron, criado em 1998 foi um processador de baixo custo e baixo desempenho, baseado na arquitetura
do Pentium II, utilizando inclusive o mesmo Slot e a mesma placa mãe, mas utilizava além do encapsulamento
SECC, utilizava também o SEPP (Single Edge Processor Package) Encapsulamento de Processador de Borda
Simples, onde ele não possuía o cartucho plástico envolvendo o processador, parecendo muito com um pente
de memória cache. Em relação à sua arquitetura é que o Celeron não possuía memória cache, o que fazia que o
seu desempenho fosse bastante inferior ao Pentium II, Essa versão era encontrada nas velocidade de 266MHz
e 300 MHz. A segunda versão do Celeron, batizada de Celeron-A, possuía 128 KB de cache L2, mas com uma
diferença em relação ao Pentium II, o cache L2 do Celeron era síncrono com o processador, assim utilizando
a velocidade total do processador, e não apenas metade como era no Pentium II. O Celeron logo em seguida
passou a utilizar novos encapsulamentos, o PPGA (Plastic Pin Grid Array) Encapsulamento Plástico com Pinos
e o FC-PGA (Flip Chip Pin Grid Array), onde o processador voltou a ser conectado na placa mãe em um formato
de soquete (Socket 370), e que o núcleo do processador ficava mais saliente e totalmente descoberto, fazendo
que qualquer solução para evitar o aquecimento fosse aplicada diretamente no processador e não em materiais
intermediários. Em todas as versões do Celeron com o encapsulamento FC-PGA, o Celeron utilizava o Bus de
66 MHz, enquanto o Pentium II utilizava 100 MHz. Essa versão do Celeron era encontrada nas velocidades de
300 MHz, 333 MHz, 366 MHz, 400 MHz, 433 MHz, 466 MHz, 500 MHz e 533 MHz.
Comparando-se o Celeron FC-PGA com o Pentium III por exemplo, via-se que se tratava exatamente do
mesmo processador, apenas o Celeron possuía metade do cache desabilitado de fábrica.
Pentium III
Criado em 1999 o Pentium III vinha com uma série de inovações em relação ao Pentium II, ele foi criado no
formato Slot 1 (SECC-2) nas versões de 450, 500, 550 e 600 MHz com FSB de 100 MHZ e cache de 512 KB
operando na metade da freqüência de operação do Processador e depois no formato FC-PGA na versões de
600, 650, 667, 700, 733, 750, 766, 800, 850, 866, 933 MHZ e tb 1 GHZ e 1.13 GHz, todos eles com FSB de 100
ou 133 MHz e com o cache de 256 KB mas operando na mesma freqüência de operação interna do processador.
56
Arquitetura e Montagem I
Ainda foi lançada uma última série de processadores Pentium III nas versões de 1.13 GHz, 1.26 GHz e 1.4 GHz
com FSB de 133 MHZ e com um cache de 512 KB na mesma freqüência de operação interna do processador.
Existiam também adaptadores para que tanto o Pentium III quanto o Celeron FC-PGA pudessem ser utilizados
em placas Slot 1. As novas tecnologias do Pentium III são:
• Tecnologia SSE (Streaming SIMD Extensions): São 70 novas instruções com o conceito SIMD (ver
capítulo passado). A idéia é parecida com a tecnologia 3DNow! da AMD, introduzida com o processador K6-2. É
a segunda geração da tecnologia MMX.
• Co-processador superescalar: permite o uso simultâneo de instruções MMX e SSE e do co-processador
matemático.
• Número de série: todos os processadores a partir do Pentium III têm um número de série único, que permite
identificar o processador através de redes, especialmente da Internet. Isso permite a identificação imediata do
usuário quando este se conectar a um site em que esteja cadastrado, por exemplo.
• Acesso a até 4 GB de memória usando o cache.
INSTRUÇÕES SSE (Streaming SIMD Extensions)
A tecnologia SSE acrescenta oito novos registradores de 128 bits ao processador e funciona de modo similar
à tecnologia MMX. Enquanto a tecnologia MMX tem instruções que basicamente operam com números inteiros
(isto é, são instruções simples, como soma, subtração e comparação de bits), a tecnologia SSE apresenta
instruções que trabalham com o mesmo conceito da tecnologia MMX (SIMD), porém com instruções que utilizam
bastante o co processador matemático — o que certamente agilizará o processamento de programas 3D e de
reconhecimento de voz escritos utilizando essas novas instruções. Da mesma forma que a tecnologia MMX,
o programa deverá ser escrito para a tecnologia SSE de modo a aproveitar os benefícios desse conjunto de
instruções.
AMD ATHLON
Criado em 1999 o Athlon, também conhecido como K7, foi um projeto totalmente novo da AMD inclusive em
um novo encapsulamento, o Slot A, que era muito semelhante ao Slot 1 da Intel, entretanto não são compatíveis
do ponto de vista elétrico. Assim como os primeiros Pentium II e Pentium III o Athlon possuia um cache de 512
MB, mas a sua velocidade era menor que a do processador, dependendo do modelo do Athlon a velocidade do
cache L2 poderia ser de 1/2, 1/3 ou 2/5 da velocidade de operação do processador, segundo o quadro abaixo:
57
Escola Alcides Maya - Primeiro Módulo
Processador
Divisor
Cache L2
Athlon 700 MHz
1/2
350 MHz
Athlon 750 MHz
2/5
300 MHz
Athlon 800 MHz
2/5
320 MHz
Athlon 850 MHz
2/5
340 MHz
Athlon 900 MHz
1/3
300 MHz
Athlon 950 MHz
1/3
316 MHz
Athlon 1.0 GHz
1/3
333 MHz
As principais características do Athlon são:
• Arquitetura superescalar: o Athlon tem nove unidades de execução trabalhando em paralelo, permitindo
a execução de até nove microinstruções simultaneamente. Tem também três unidades de processamento com
números inteiros, três unidades de geração de endereços (unidades de carga e armazenamento) e três unidades
de ponto flutuante.
• Unidade de ponto flutuante redesenhada: Os concorrentes da Intel (e os entusiastas de jogos 3D)
sabem muito bem que esse é um ponto fraco dos processadores AMD. Por esse motivo, a empresa resolveu
redesenhar completamente o seu co-processador matemático, de modo que este atinja desempenho superior.
Segundo testes de desempenho que realizamos em laboratório, a unidade de ponto flutuante do Athlon tem
desempenho similar ao de processadores Intel operando a um mesmo clock.
• Enhanced 3DNow!: É a segunda geração da tecnologia 3DNow! da AMD, trazendo 24 novas instruções
3DNow!
• Barramento externo: A grande novidade desse processador é o uso de um barramento externo transferindo
dois dados por pulso de clock, em um esquema chamado DDR (Double Data Rate, Taxa de Transferência
Dobrada).
BARRAMENTO EXTERNO DOBRADO
O Athlon foi criado para operar com um barramento externo de 200 MHz, este barramento emprega um
método chamado DDR (Double Data Rate), já utilizado por vários barramentos para obter clocks maiores. Em
cada período de clock, o Athlon realiza duas transferências de dados, portanto cada período vale por dois.
Com o clock de 100 MHz e usando DDR, o resultado é equivalente ao de um clock de 200 MHz. Com 133
MHz e DDR, o resultado é 266 MHz. As primeiras versões do Athlon operavam com o FSB de 100 MHz x 2. Logo
em seguida foram lançadas as versões com FSB de 133 MHz x 2. Note que um Athlon operando com 100 MHz
e DDR produz um resultado melhor que um Pentium III usando 133 MHz, sem DDR.
ATHLON THUNDERBIRD
O Athlon “Thunderbird”, também conhecido somente como Athlon (ou K7) foi a segunda geração dos
processadores Athlon da AMD, lançado no ano 2000. Assim como o Pentium III, o Athlon abandonou a plataforma
do Slot-A para receber um novo encapsulamento em forma de soquete, muito semelhante ao FC-PGA do Pentium
III, chamado de Socket-A, ou Socket-462, mas que curiosamente possuía apenas 453 pinos em uso (nove pinos
foram bloqueados neste soquete para prevenir inserção acidental de processadores Socket-370 da Intel).
A mudança de encapsulamento ocorreu pelo fato do Athlon também passar a ter a sua memória cache de 256
KB na mesma velociade de operação do núcleo do processador (e não mais uma velocidade fracionada, como
no Athlon Slot-A).
AMD DURON
58
Arquitetura e Montagem I
Criado no ano 2000, junto com o Athlon Thunderbird, o Duron veio para ser o processador de baixo custo da
AMD, sendo o concorrente direto do Intel Celeron.
O Duron, de codinome Spitfire utilizava o mesmo soquete e a mesma arquitetura do Athlon Thunderbird,
porém, vem com muito menos cache. Enquanto o Athlon Thunderbird vem com 256 KB de cache L2, o Duron
vem com apenas 64 KB de cache L2, também com a mesma velocidade de operação do processador. Apesar da
pouca quantidade de cache L2, o Duron traz um enorme cache L1 de 128 KB, totalizando 192 KB de cache, mais
cache que o Celeron, que tem 32 KB de cache L1 e 128 KB de cache L2, totalizando 160 KB de cache.
No Duron, o cache L2 é exclusivo, isto significa que os dados depositados no cache L1 e no cache L2 serão
diferentes. Temos então realmente 192 KB de dados depositados em ambos os caches, já no Celeron, os 32
KB do cache L1 serão sempre cópias de dados armazenados no cache L2. Isto significa que no Celeron, temos
apenas 128 KB de dados armazenados em ambos os caches, o que torna o Duron mais rápido.
Na prática o Duron era um Athlon Thunderbird só que com muito menos cache e inicialmente só foram
produzidos Durons com FSB de 200 MHz (100 MHz x 2).
Pentium 4
Lançado no final do ano 2000, o Pentium 4 foi o primeiro CPU totalmente redesenhado desde o Pentium
Pro, com um projeto novo começando do zero, seu nome código se chamava Willamette. O Pentium 4 também
utilizava um novo soquete (Socket 423) assim sendo incompatível com placas de Pentium III. O Pentium 4 foi
lançado nas versões: 1.3 GHz, 1.4 GHz, 1.5 GHz, 1.7 GHz, 1.9 GHz e 2.0 GHz, todos eles com 256 KB de
memória cache na mesma velocidade de operação do processador.
A arquitetura do Pentium 4 trazia uma série de inovações, são elas:
• Novo Cache L1: Cache L1 de dados de 8 KB. Não há cache de instruções. Em vez disso, há um cache de
microinstruções que é capaz de armazenar 12.288 microinstruções. Cada microinstrução do Pentium 4 é de 100
bits, significando que o cache de microinstruções possui 150 KB.
• Novo Cache L2: Cache L2 de 256 KB operando na mesma freqüência de operação interna do processador.
Comunica-se com o cache L1 de dados através de um barramento dedicado de 256 bits, fazendo com que essa
comunicação seja quatro vezes mais rápida do que era nos processadores da geração passada.
• Arquitetura superescalar Ampliada: Unidade de execução superescalar, com sete unidades de execução.
As unidades de execução simples operam internamente com o dobro do clock interno do processador.
• Barramento externo x4: O barramento externo do Pentium 4 opera transferindo quatro dados por pulso de
clock, em vez de apenas um, como era nos processadores anteriores. Fisicamente falando, utiliza um barramento
externo de 100 MHz mas que opera como se fosse de 400 MHz.
59
Escola Alcides Maya - Primeiro Módulo
• Instruções SSE2: São 144 novas instruções de ponto flutuante de dupla precisão. Elas tem basicamente
a mesma função das instruções SSE do Pentium III e do 3D-Now! Do Athlon: melhorar o desempenho do
processador em aplicativos de ponto flutuante. A diferença é que as instruções do Pentium 4 são mais poderosas
que os conjuntos anteriores e podem ser utilizadas em mais situações, caso aplicativos sejam otimizados para
as novas instruções.
• Tecnologia Hyper Pipelined: O uso de Pipelines permite que o processador seja capaz de processar várias
instruções ao mesmo tempo, já que cada estágio cuida de uma fração do processamento. Quanto mais estágios,
menor será o processamento executado em cada um. No caso do Pentium 4 cada estágio do Pipeline processa
apenas metade do processado por um estágio do Pentium III, fazendo com que teoricamente o resultado final
seja o mesmo, já que em compensação existem o dobro de estágios. O Pentium III possui 10 estágios, o Athlon
possui 11 estágios, enquanto o Pentium 4 possui nada menos que 20 estágios, daí o nome “Hyper Pipelined”.
Em 2002 foi lançado uma nova versão do Pentium 4, de codinome Northwood, com um novo soquete (Socket
478) e funcionando a 2.0 GHz, 2.2 GHz e 2.4 GHz. O Northwood combinava um aumento no tamanho da memória
cache secundária (de 256 KB para 512 KB) e o núcleo passou a ser construído a partir de transistores menores,
assim os chips podem funcionar com frequências maiores (ou à mesma velocidade) produzindo menos calor.
Logo depois vieram as versões de 2.53 GHz quando o barramento externo foi aumentado de 4x100 MHz
para 4x133 MHz (popularmente chamados de 400Mhz e 533 MHz), e versões de 2.6 GHz, 2.8 GHz de 3.06
GHz. Foi incorporada a esses processadores a tecnologia Hyper-threading, permitindo o processamento de
diferentes tarefas simultaneamente duplicando algumas partes do processador de modo que o sistema
operacional pensasse que existiam dois processadores instalados.O Hyper-Threading foi, de certa forma, um
ensaio para os processadores dual-core que a Intel viria a lançar cerca de três anos depois. O ganho obtido
ao ativar o Hyper-Threading não é nem próximo do obtido ao utilizar um processador dual-core de verdade, já
que ele se baseia no melhor aproveitamento das unidades de execução do processador e não na presença de
um segundo processador físico. Ao ativá-lo o sistema operacional e aplicativos precisam lidar com o trabalho
adicional de dividir a carga entre os dois processadores. Embora sejam dois processadores lógicos, o impacto
sobre o desempenho não é o mesmo de ter dois processadores reais.Em alguns aplicativos, ele pode resultar
em ganhos de 10, ou até mesmo 20%, mas na maioria o ganho é muito pequeno, abaixo de 2%. Existe ainda um
grande número de aplicativos onde ativar o HT reduz substancialmente o desempenho, o que anula em grande
parte o ganho obtido em outros aplicativos.
Em 2003 foram lançadas novas versões de codinome Prescott no Socket 478 e em um novo encapsulamento
chamado de LGA-775 ou Socket-775. LGA significa Land Grid Array, onde os pinos se localizam no soquete da
placa e não mais no processador. Esses novos modelos vieram com 1 ou 2 MB de memória cache e com um
barramento externo de 4x200 MHz (popularmente chamados de 800 MHz) com velocidades de 2.26 GHz, 2.66
GHz, 3.0 GHz, 3.2 GHz e 3.4 GHz. Outra novidade foram as instruções SSE3: São 13 novas instruções do tipo
MMX que agiliza funções de software tais como codificação de vídeo, conversão de números de ponto flutuante
em inteiros e sincronização de tarefas. As últimas versões do Pentium 4 já possuíam as instruções EM64 de 64
Bits.
Junto com as novas versões do Pentium 4 também surgiram as novas versões do Celeron baseadas no
Northwood (Socket-478) e Prescott (LGA-775). Além de ter o cache reduzido pela metade, o Celeron trabalhava
com o FSB de 4x133 MHz (533 MHz) ao invés do 4x200 MHz (800 MHz) do Pentium 4. Os Celeron não possuíam
as instruções EM64 de 64 bits.
60
Arquitetura e Montagem I
ATHLON XP
Criado em 2001, a terceira geração do Athlon, tinha o codinome de Palomino, mas o nome comercial de
Athlon XP, que significa Extreme Performance (e também em virtude do lançamento do Windows XP), por ter
velocidades de clock bem menores que os do Pentium 4 (que já operava na casa dos 3.0 Ghz) a AMD passou a
utilizar o chamado PR (Performance Rating) nos seus processadores, onde o nome do processador correspondia
à sua performance equivalente e não ao seu clock real, conforme o quadro abaixo:
PROCESSADOR
CLOCK REAL
FSB
CLOCK DA PLACA
MULTIPLICADOR
Athlon XP 1500+
1333 MHz
266 MHz
133 MHz
10x
Athlon XP 1600+
1400 MHz
266 MHz
133 MHz
10.5x
Athlon XP 1700+
1467 MHz
266 MHz
133 MHz
11x
Athlon XP 1800+
1533 MHz
266 MHz
133 MHz
11.5x
Athlon XP 1900+
1600 MHz
266 MHz
133 MHz
12x
Athlon XP 2000+
1667 MHz
266 MHz
133 MHz
12.5x
Athlon XP 2100+
1733 MHz
266 MHz
133 MHz
13x
Com relação ao desempenho, o Palomino, com os mesmos 256 KB de cache L2, trouxe duas modificações
importantes. A primeira foi a compatibilidade com as instruções SSE, que pela AMD foram chamadas de “3D-Now!
Professional”. A segunda melhoria foi um sistema aperfeiçoado de data prefetch, que melhorou a eficiência dos
caches, permitindo que o processador aproveitasse a banda ociosa no barramento com a memória para carregar
instruções e dados que possuem uma grande probabilidade de serem utilizadas nos ciclos seguintes. Com isso,
o número de ciclos de processamento perdidos foi reduzido, resultando em um pequeno ganho de velocidade. A
partir do Palomino, veio também uma nova versão do Duron, de codinome Morgan. o Duron Morgan foi lançado
em versões de 900, 950, 1000, 1100, 1200 e 1300 MHz, todas utilizando FSB de 2x100 MHz (200 MHz).
Em 2002 a AMD apresentou uma nova versão do Athlon XP de codinome Thoroughbred, que manteve os
mesmos 256 KB de cache L2 e demais características, mas que oferecia uma dissipação térmica muito mais
baixa e era assim capaz de trabalhar a freqüências de clock mais elevadas. No mesmo ano a AMD lançou uma
nova versão chamada Thoroughbred-B, nas versões XP 2400+ e 2600+, e com um novo FSB de 2x166 MHz (333
MHz) nos modelos 2600+, 2700+ e 2800+.
O Thoroughbred deu origem à terceira geração do Duron, o Applebred, lançado em agosto de 2003, em
versões de 1.4, 1.6 e 1.8 GHz, todas utilizando FSB de 2x133 MHz (266 MHz).
Em 2003 foi lançada mais uma versão do Athlon XP de codinome Barton, o Barton inicialmente era idêntico
ao Thoroughbred-B, mas com 512 KB de cache L2, Como o Barton mantém os 128 KB de cache L1 e mantém o
uso do sistema exclusivo, ele é capaz de armazenar até 640 KB de dados em ambos os caches, melhorando sua
performance. O Barton foi inicialmente lançado em três versões: 2500+ (1.83 GHz), 2800+ (2.08 GHz) e 3000+
(2.16 GHz). As três utilizavam bus de 166 MHz e mantinham compatibilidade com as placas anteriores. Mais
adiante foram lançados os modelos 3000+ e 3200+ com um novo FSB de 2x200 Hz (400 MHz).
61
Escola Alcides Maya - Primeiro Módulo
ATHLON 64
Também conhecido como K8 o Athlon 64, criado em 2003, foi o primeiro processador de 64 bits, chamada a
arquitetura AMD64 (ou x64), produzida pela AMD. A diferença principal entre a arquitetura AMD64 e a de outros
processadores, incluindo os processadores mais antigos da AMD, como o Athlon XP e o Athlon original, é o modo
de operação de 64 bits para as instruções x86, o que ele faz é expandir os registradores de 32 bits existentes em
registradores de 64 bits. Neste modo o barramento de endereço do processador também é expandido de 32 para
40 bits, habilitando o processador para acessar diretamente até 1 TB de memória RAM. Além disso, neste modo
de operação o processador pode acessar até 256 TB de memória virtual. Outra inovação é que o controlador de
memória está embutido dentro do processador, e não na ponte norte do chipset da placa-mãe.
A comunicação entre os processadores AMD64 e o chip ponte é feita através de um barramento chamado
HyperTransport. A velocidade deste barramento depende do modelo do processador. Valores típicos são 3.200
MB/s (também chamado 800 MHz e 1.600 MHz) ou 4.000 MB/s (também chamado 1.000 MHz e 2.000 MHz).
O Athlon 64 não utiliza mais um barramento frontal, como nos processadores antigos, mas sim um link
HyperTransport que liga o processador ao chipset. Existe um clock de referência de 200 MHz, que substitui
o FSB, gerando a freqüência do processador, da memória e do próprio barramento HyperTransport. Outras
novidades do Athlon 64 são:
•
•
•
•
•
16 registradores de propósito geral (GPR) de 64 bits.
Instruções 3DNow!, MMX, SSE, SSE2
64 KB de cache L1 de instruções e 64 KB de cache L1 de dados
512 KB ou 1 MB de cache L2
Hypertransport
O Athlon 64 veio em um novo encapsulamento e três modelos de soquete, o primeiro foi o Socket-754, com
HyperTransport de 800 MHz, e três versões. A primeira versão, de codinome Newcastle, vinha com 512 KB de
cache, a segunda, de codinome Clawhammer, vinha com 1 MB de cache e a terceira, de codinome Venice, com
512 KB de cache e suportando as novas instruções SSE3.
O segundo soquete do Athlon 64 foi o Socket-939, com HyperTransport de 1000 MHz e teve quatro versões. As
Newcastle, Clawhammer e Venice, com as mesmas características do Socket-754, e mais a versão de codinome
San Diego, com 1 MB de cache e instruções SSE3.
O terceiro soquete, é conhecido como soquete AM2, de 940 pinos, com os codinomes Orleans e Lima,
ambos com 512 KB de cache e Instruções SSE3, a diferença entre eles estava no tamanho dos transistores e
na dissipação de calor.
Os Athlon 64 foram produzidos nas versões: 2800+, 3000+, 3200+, 3400+, 3500+, 3700+, 3800+ e 4000+.
62
Arquitetura e Montagem I
Pentium D
Lançado em 2005, o Pentium D consiste em dois processadores Pentium 4 Prescott em um único soquete,
foi o primeiro processador a apresentar a tecnologia chamada multicore no mercado. O codinome da primeira
geração de Pentium D foi o Smithfield, com freqüências entre 2,8 e 3,2 GHz (modelos 820, 830 e 840), todos
com FSB de 800 MHz. O Pentium D 805, com freqüência de 2,66 GHz e FSB de 533 MHz apareceu no inicio de
2006.
A nova geração de Pentium D, de codinome Presler apresentava um encapsulamento único, possuindo dois
núcleos em um, dando destaque ao processador com mais de um núcleo. Em 2006 foram lançados os modelos
920, 930, 940 e 950 (2.8, 3.0, 3.2 e 3.4 GHz).
Após um período, o nome Pentium D deixou de ser utilizado e a Intel passou a utilizar o nome Pentium DualCore, que tinha o codinome Conroe. Todos os Pentium D e Pentium Dual-Core utilizavam o soquete LGA-775, e
possuíam 1 MB de cache L2 por núcleo, FSB de 800 MHz as instruções EM64T, de 64 bits da Intel. Nenhum dos
modelos suportava a tecnologia Hyper-Threading.
Athlon 64 X2
O Athlon 64 X2 é a versão dual-core do Athlon 64, no caso do Athlon X2, temos os dois núcleos construídos
sobre o mesmo wafer. A comunicação entre os dois núcleos é feita internamente, utilizando um barramento interno,
batizado de SRI (System Request Interface), o que garante tempos de latência mais baixos e pequenos ganhos
de desempenho ao rodar muitos aplicativos simultaneamente (que é justamente a área em que os processadores
dual-core oferecem mais vantagens), além de permitir que o processador seja capaz de operar a freqüências
um pouco mais elevadas. Cada processador possui seu próprio cache L2, mas ambos compartilham o mesmo
controlador de memória e o mesmo barramento HyperTransport, através do qual é feita toda a comunicação com
o chipset e os demais componentes do PC. Olhando uma foto ampliada do processador, você pode notar que os
dois núcleos ficam no centro, envoltos pelos circuitos referentes ao controlador de memória e HyperTransport.
O Athlon 64 X2 começa com o Manchester, lançado em maio de 2005. Ele era fabricado usando uma técnica
de 0.09 micron, com 512 KB de cache L2 por core (1 MB no total) e suporte às instruções SS3. A versão mais
lenta tinha metade do cache L2 desabilitado, de forma a aproveitar os cores com defeitos no cache.
O Manchester foi usado nos Athlon 64 X2 3600+ (2.0 GHz, 2x 256 KB, soquete 939), 3800+ (2.0 GHz, 2x 512
KB, soquete 939), 4200+ (2.2 GHz, 2x 512 KB, soquete 939) e 4600+ (2.4 GHz, 2x 512 KB, soquete 939)
O seguinte foi o Toledo, ainda fabricado em uma técnica de 0.09 micron, mas agora com 1 MB de cache por
core, totalizando 2 MB. Ele foi lançado simultaneamente com o Manchester, e os modelos do X2 baseados em
ambos conviveram durante mais de um ano. Apenas três dos modelos produzidos utilizando o core Toledo vieram
com todo o cache ativo. O demais vinham com metade do cache desativado, o que os tornava praticamente
indistinguíveis dos baseados no Manchester.
O Toledo foi utilizado nos modelos 3800+ (2.0 GHz, 2x 512 KB, soquete 939), 4200+ (2.2 GHz, 2x 512 KB,
soquete 939), 4400+ (2.2 GHz, 2x 1 MB, soquete 939), 4600+ (2.4 GHz, 2x 512 KB, soquete 939) e 4800+ (2.4
GHz, 2x 1 MB, soquete 939).
Quase um ano depois, em maio de 2006, foi lançado o Windsor, que passou a utilizar o soquete AM2 e
adicionou suporte ao AMD-V, mantendo a mesma técnica de produção de 0.09 micron e o uso de 2x 1 MB de
cache. Assim como no Toledo, uma grande parte dos modelos vinham com metade do cache L2 desabilitado e
63
Escola Alcides Maya - Primeiro Módulo
eram vendidos sob índices de desempenho mais baixos que os completos.
O Windsor foi utilizado nos modelos 3800+ (2.0 GHz, 2x 512 KB, soquete AM2), 4000+ (2.0 GHz, 2x 1 MB,
soquete AM2), 4200+ (2.2 GHz, 2x 512 KB, soquete AM2), 4400+ (2.2 GHz, 2x 1 MB, soque AM2), 4600+ (2.4
GHz, 2x 512 KB, soquete AM2), 5000+ (2.6 GHz, 2x 512 KB, soquete AM2), 5200+ (2.6 GHz, 2x 1 MB, soquete
AM2), 5400+ (2.8 GHz, 2x 512 KB, soquete AM2), 5600+ (2.8 GHz, 2x 1 MB, soquete AM2) e 6000+ (3.0 GHz,
2x 1 MB, soquete AM2).
Sempron
Apesar de serem processadores completamente diferentes dos Semprons soquete A baseados no Barton,
Thorton e Thoroughbred-B, a AMD continuou utilizando a marca “Sempron” ao lançar a linha de processadores
de baixo custo, baseada na arquitetura K8. Além da questão do cache menor, as versões iniciais do Sempron
vinham sem suporte ao AMD64, ou seja, sem suporte às instruções de 64 bits, incluindo os registradores extra e as
outras melhorias trazidas pela arquitetura. Embora fossem baseados na arquitetura K8, eles eram processadores
de 32 bits, sem praticamente nenhuma das inovações trazidas por ela.
A primeira versão do Sempron K8 foi o Paris, uma versão simplificada do ClawHammer, produzido em uma
técnica de 0.13 micron, que possuía nativamente apenas 256 KB de cache e vinha sem suporte às instruções de
64 bits, ao Cool’n’Quiet e também às instruções SSE3.
A partir de 2005, o Paris foi rapidamente substituído pelo Palermo, produzido usando uma técnica de 0.09
micron. Nativamente, o core Palermo possui 256 KB de cache e oferecia em apenas alguns modelos o suporte
às extensões de 64 bits e também às instruções SSE3.
Finalmente, temos o Sempron Manila, ainda fabricado usando a técnica de 0.09 micron, mas agora com
suporte ao soquete AM2. Ao contrário dos Palermos, todos os Manilas incluem suporte às instruções de 64 bits
e SSE3, mas o Cool’n’Quiet é suportado apenas nas versões 3200+ em diante.
Arquitetura Intel Core
Os processadores Core 2 Solo, Core 2 Duo, Core 2 Quad e Core 2 Extreme são baseados na nova
microarquitetura Core, lançada para substituir a microarquitetura Netburst que era usada no Pentium 4 e
processadores derivados deste. Neste tutorial listaremos todos os modelos já lançados destes processadores
bem como as suas principais características técnicas.
A família dos processadores Core 2 é formada por quatro membros:
• Core 2 Solo, que é um processador de um núcleo que substitui o Pentium M, sendo um modelo para
notebooks;
• Core 2 Duo, um processador de dois núcleos que substitui o Pentium 4 e o Pentium D;
• Core 2 Quad, que é formado por dois processadores Core 2 Duo em um mesmo invólucro sendo, portanto,
um processador de quatro núcleos;
• Core 2 Extreme, que substitui o Pentium Extreme Edition, com modelos de dois e quatro núcleos. O Core
2 Extreme trabalha com clocks mais elevados e tem o multiplicador de clock destravado, o que permite fazer
overclock alterando o multiplicador de clock do processador.
64
Arquitetura e Montagem I
Cuidado para não confundir o processador Core 2 Duo com o Core Duo. O Core Duo (conhecido anteriormente
pelo nome-código Yonah) é o nome comercial para um Pentium M com dois núcleos de processamento construído
com tecnologia de 65 nm. Já o Core 2 Duo é o nome comercial para o processador que utiliza a microarquitetura
Core da Intel.
As principais características técnicas dos processadores da família Core 2 (Core 2 Duo, Core 2 Quad e Core
2 Extreme) são as seguintes:
• Arquitetura Core
• 64 KB de cache L1 (32 KB de dados + 32 KB de instruções) por núcleo
• Tecnologia de um (Core 2 Solo), dois (Core 2 Duo, alguns modelos de Core 2 Extreme) ou quatro núcleos
(Core 2 Quad, alguns modelos de Core 2 Extreme)
• Tecnologia fabricação de 65 nm ou 45 nm
• Soquete 775 nos modelos para computadores de mesa (soquete 771 no Core 2 Extreme QX9775)
• Barramento externo de 800 MHz (200 MHz transferindo quatro dados por pulso de clock), 1.066 MHz (266
MHz transferindo quatro dados por pulso de clock), 1.333 MHz (333 MHz transferindo quatro dados por pulso de
clock) ou 1.600 MHz (400 MHz transferindo quatro dados por pulso de clock).
• 2 MB, 3 MB, 4 MB ou 6 MB de cache de memória L2 compartilhado. Nos processadores de quatro núcleos,
cada par de núcleos tem seu próprio cache, compartilhado entre os dois núcleos mas independente dos outros
dois.
• Tecnologia de Virtualização (exceto no Core 2 Duo modelos E4x00, E7x00 e E81xx)
• Tecnologia Intel EM64T
• Instruções SSE3
• Instruções SSE4.1 nos modelos de 45 nm
• Execute Disable
• Intelligent Power Capability
• Tecnologia Enhanced SpeedStep
AMD PHENOM
O AMD Phenom, de codinome Barcelona é o primeiro processador quad-core “nativo” desenvolvido pela
AMD. Apesar de possuir nada menos do que 463 milhões de transístores, as versões iniciais do Barcelona ainda
serão produzidas usando a técnica de 0.065 micron (65 nanômetros), mas a AMD pretende produzir versões de
0.045 micron a partir da segunda metade de 2009.
Relembrando, os Athlons, Durons e Semprons de 32 bits fazem parte da plataforma K7, enquanto os Athlon
64, X2 e FX fazem parte da plataforma K8. Para evitar trocadilhos a AMD decidiu pular o “K9” (que é o nome de
uma unidade de cães farejadores), de forma que o Barcelona e derivados formam a plataforma K10.
O Phenom é composto por 4 núcleos idênticos, cada um contendo seu próprio cache L1 (de 128 KB, dividido
em dois blocos de 64 KB, para dados e instruções) e 512 KB de L2. Entre os processadores temos os circuitos
referentes ao Crossbar Switch (o componente responsável por dividir as requisições entre os dois cores e controlar
o acesso de ambos ao controlador de memória, entre outras funções) e outros circuitos de gerenciamento.
Outra grande vantagem diz respeito ao processamento das instruções SSE, área onde os processadores
baseados na plataforma Core superam o Athlon 64 por uma boa margem. O problema fundamental da arquitetura
K8 neste quesito é o fato de serem utilizadas unidades SSE de 64 bits. Isso faz com que instruções SSE de 128
bits precisem ser divididas e processadas na forma de duas instruções de 64 bits separadas, que consomem
dois ciclos de clock.
A ampliação das unidades SSE foi acompanhada também por melhorias no cache e nos decodificadores.
65
Escola Alcides Maya - Primeiro Módulo
O K8 era capaz de realizar duas transferências de 64 bits por ciclo do cache L1 para as unidades SSE, e os
decodificadores de instruções eram dimensionados para alimentar as unidades de execução com 16 bytes de
instruções por ciclo. No Phenom, as transferências do cache L1 para as unidades SSE passarem a ser de 128
bits e os decodificadores passaram a ser capazes de alimentar as unidades de execução com 32 bytes por ciclo,
tudo dimensionado de forma a acompanhar a ampliação das unidades SSE.
A AMD chama esse conjunto de melhorias de “SSE128”. Você vai ver várias referências ao termo no material
publicitário daqui em diante.
Outra melhoria foi uma expansão dos buffers do controlador de memória, desenvolvida para tirar melhor
proveito dos bursts oferecidos pelos módulos DDR2 e DDR3. Basicamente, os módulos de DDR2 e DDR3
oferecem taxas de transferência muito elevadas, mas em compensação trabalham com tempos de latência
relativamente altos. Ao invés de realizar várias operações de escrita separadas (tendo que arcar com um lento
acesso inicial para cada uma delas), o controlador pode acumular um certo volume de dados e escrevê-los de
uma vez em um único burst de operações de escrita. Isso permite que as operações de escrita tomem menos
tempo, deixando mais ciclos livres para as operações de leitura.
As principais diferenças entre o Phenom e o Athlon 64 são as seguintes:
• Uso de um cache de memória L3.
• Uso de um barramento HyperTransport 3.0 entre o processador e o chipset, aumentando a largura de
banda disponível entre o processador e o mundo externo. É importante notar que até o momento os processadores
Phenom não trabalham com o desempenho máximo oferecido pelo barramento HyperTransport 3.0.
• Uso de linhas separadas de alimentação para o processador e para o controlador de memória, que está
embutido dentro do próprio processador (esta tecnologia também é conhecida como “split-plane” – “alimentação
dividida” – ou DDPM, Dual Dynamic Power Management, ou Gerenciamento Elétrico Dinâmico Duplo).
• Uso de um gerador de clock para o controlador de memória com um valor fixo. Isto resolve o problema
que acontece com o Athlon 64 onde dependo do modelo do processador as memórias não funcionam em seu
desempenho máximo.
• Suporte para memórias DDR2 até DDR2-1066/PC2-8500 (processadores Athlon 64 suportam até DDR2800/PC2-6400) nos modelos para soquete AM2+; suporte para memórias DDR3 nos modelos para soquete AM3,
que também suportam memórias DDR2 quando instalados em placas-mãe AM2+ certificadas.
Até agora a AMD lançou modelos do Phenom de três e quatro núcleos, e Phenom II de dois, três e quatro
núcleos, com as seguintes especificações técnicas para todos os modelos:
• Cache de memória L1 de 128 KB por núcleo.
• Cache de memória L2 de 512 KB por núcleo.
• Cache de memória L3 de 2 MB compartilhado por todos os núcleos (4 MB ou 6 MB nos modelos Phenom
II).
• Barramento HyperTransport 3.0 trabalhando a 1,6 GHz (6.400 mb/s), 1,8 GHz (7.200 MB/s), 2 GHz (8.000
MB/s), dependendo do modelo. Note que o HyperTransport 3.0 oferece taxas maiores (2,4 GHz/9.600 MB/s e 2,6
GHz/10.400 MB/s) que ainda não estão sendo utilizadas;
• Soquete AM2+ ou AM3 (alguns modelos do Phenom II).
• Processo de fabricação de 65 nm (45 nm nos modelos Phenom II).
• Conjunto de instruções “SSE4a”, que é simplesmente a adição de duas novas instruções SSE e não tem
nada a ver com o SSE4.1 existente nos mais recentes processadores da Intel e que traz 47 novas instruções.
• Modelos “Black Edition” possuem o multiplicador de clock destravado, significando uma maior capacidade
para overclock, já que eles podem ser configurados como se fossem um processador de clock mais elevado.
•
66
Arquitetura e Montagem I
INTEL CORE i7
O Core i7 é o nome dos novos processadores com arquitetura Nehalem, assim batizados pela Intel. O Core
i7 usa um novo encapsulamento, o LGA 1366. Muitas das melhoras de performance do i7 têm a ver com melhor
acesso a memória e banda mais larga. Outra tecnologia usada há anos pela AMD é o controlador de memória
integrado, finalmente adotado pela Intel no Core i7. Basicamente isso significa que o controlador de memória fica
na CPU, reduzindo a latência de memória. Antes, com chips Intel, a comunicação tinha que acontecer pelo FSB,
deixando tudo muito mais lento. O Core i7 também tem suporte a memória triple-channel DDR3. A Intel havia
abandonado o Hyper-Threading depois do Pentium 4, mas agora ele está de volta no Core i7.
As características do Core i7 São:
• Tecnologia Intel Turbo Boost: maximiza a velocidade para os aplicativos exigentes, acelerando
dinamicamente o desempenho de modo a corresponder-se à demanda da carga de trabalho, isto é, mais
desempenho onde ele é mais necessário.
Tecnologia Intel Hyper-Threading: habilita os aplicativos altamente segmentados a produzir mais, trabalhando
em paralelo. Com 8 threads disponíveis ao sistema operacional, a multitarefa tornou-se ainda mais fácil.
• Cache inteligente avançado Intel: fornece um subsistema de cache de alto desempenho mais eficiente.
Otimizado para os jogos de múltiplos processos líderes do mercado.
• Intel QuickPath Interconnect: é projetado para aumentar a largura de banda e diminuir a latência. Ele pode
alcançar velocidades de transferência de dados de até 25,6 GB/s com o processador Extreme Edition.
• Controladora de memória integrada: capacita três canais de memória DDR3 de 1066 MHz que resulta
em até 25,6 GB/s de largura de banda de memória. Essa latência mais baixa e largura de banda mais alta da
controladora de memória proporcionam um desempenho surpreendente para os aplicativos de uso intenso de
dados.
• Intel HD Boost: melhora significantemente uma ampla faixa de multimídia e aplicativos de uso intenso de
computação. As instruções de 128 bits SSE são emitidas a uma taxa de transferência de um por ciclo do clock,
o que permite um novo nível de eficiência de processamento com aplicativos otimizados para SSE4.
• Outras tecnologias: MMX, SSE, SSE2, SSE3, SSE4.1, SSE4.2, Intel EM64T, Intel Virtualization, Intel
SpeedStep, Execute Disable Bit.
Foram lançadas as versões Core i7 920 de 2,66GHZ, Core i7 940 de 2,93GHZ e Core i7 965 de 3,20GHZ.
Todos os modelos são Quad-Core, com 8MB de cache L3 compartilhado e 256Kb de cache L2 para cada núcleo.
Todos produzidos com a tecnologia de 45nm.
9 Memórias RAM
RAM significa Memória de acesso aleatório (Random Access Memory) é um tipo de memória que permite o
acesso a leitura e a escrita a qualquer momento.
A velocidade de funcionamento de uma memória é medida em Hz ou MHz. Este valor está relacionado com
a quantidade de blocos de dados que podem ser transferidos durante um segundo. Existem no entanto algumas
memórias RAM que podem efetuar duas transferências de dados no mesmo ciclo de clock, duplicando a taxa de
transferência de informação para a mesma frequência de trabalho. Além disso, a colocação das memórias em
paralelo (propriedade da arquitetura de certos sistemas) permite multiplicar a velocidade aparente da memória.
Memória SIMM
67
Escola Alcides Maya - Primeiro Módulo
SIMM, ou Single In-line Memory Module, é um tipo de módulo de memória RAM usada em computadores do
início da década de 1980 até o final da década de 1990. A memória SIMM se dividia nos seguintes modelos:
FPM 30 VIAS
Fast Page Memory (Memória de Paginação Rápida) foi a primeira das memórias SIMM a ser utilizada nos
computadores, eram memórias de 30 vias (30 conectores) e possuíam barramento de 8 Bits. Em computadores
de 16 Bits era necessário que fossem ligadas aos pares e em computadores de 32 Bits (como os 386 e 486) eram
necessários quatro pentes de memória para que o contato fosse efetuado.
As memórias de 30 vias foram produzidas com 256KB, 512 KB, 1 MB e 4 MB.
FPM 72 VIAS
As Memórias de 72 vias foram criadas utilizando a mesma tecnologia das de 30 vias, mas com um barramento
de 32 bits, o que dispensava a necessidade das memórias serem instaladas aos pares ou com quatro pentes
idênticos. A SIMM de 72 vias era compatível apenas com os computadores 486 e os primeiros Pentium que foram
lançados. Foram produzidos pentes com 4 MB, 8 MB e 16 MB.
EDO 72 VIAS
As memórias EDO foram criadas em 1994, e trouxeram mais uma melhoria significativa no modo de acesso a
dados. Além de ser mantido o modo de acesso rápido das memórias FPM, foram feitas algumas modificações para
permitir que o acesso à dados pode ser iniciado antes que o anterior termine, permitindo aumentar sensivelmente
a velocidade dos acessos, com um ganho real 25%. Como eram usadas nos computadores Pentium, esses como
utilizavam um barramento externo de 64 bits, exigia que fossem instaladas duas memórias EDO idênticas.
As memórias EDO foram produzidas em pentes de 8 MB, 16 MB, 32 MB e 64 MB.
68
Arquitetura e Montagem I
DIMM 168 VIAS
As memórias DIMM se diferenciavam das memórias EDO em diversos aspectos. DIMM (Dual In-line Memory
Module) tinha um barramento duplo, fechando os 64 bits e dispensando o isso de memórias aos pares no
Pentium. Seu tamanho era bem maior que as EDO e usava um novo slot de encaixe com 168 vias. A memória
DIMM também era muito mais rápida que a EDO por ser uma memória do tipo SDRAM (Sincronous Dynamic
Random Access Memory), ou seja, uma memória que tinha sua velocidade síncrona com a da placa-mãe. Na
época as placas-mãe rodavam em um barramento de 66 MHz, assim as memórias passaram a ter os mesmos
66 MHz de velocidade que a placa (e não os 33 Mhz como era nas memórias EDO), chamadas de SDRAM PC66. Com o avanço da tecnologia, as memórias passaram a ter velocidades mais altas como 100 e 133 MHz,
conhecidas como PC-100 e PC-133. As memórias DIMM foram produzidas em pentes de 16 MB, 32 MB, 64 MB,
128 MB e 256 MB.
RAMBUS
As memórias Direct Rambus ou simplesmente Rambus, permitem um barramento de dados de apenas 16 bits
de largura, em oposição aos 64 bits utilizados pelos módulos de memória SDRAM, suportando em compensação,
velocidades de barramento de até 400 MHz com duas transferências por ciclo, o que na prática equivale a uma
freqüência de 800 MHz.
Em outras palavras, usando memórias Rambus o processador pode ler menos dados de cada vez, mas em
compensação tem que esperar menos tempo entre cada leitura.
Diferentemente das memórias DDR, que são apenas evoluções das memórias SDRAM, as memórias Direct
Rambus trazem uma arquitetura completamente nova, que exige modificações muito maiores nos chipsets
destinados a suportá-la, significando maiores custos de desenvolvimento e produção o que fez com que essas
memórias fossem deixadas de ser utilizadas nos PCs. As memórias Rambus tinham encaixes de 184 vias,
mas não são compatíveis com as 184 vias das DDR por terem encaixes diferentes. As Rambus vinham com um
dissipador de calor sobre os chips para evitar o aquecimento demasiado dos mesmos e foram produzidas com
pentes de 64MB, 128 MB, 256MB e 512 MB.
69
Escola Alcides Maya - Primeiro Módulo
DDR
As DDR SDRAM ou simplesmente DDR eram memórias com o mesmo tamanho das DIMM SDRAM, mas
com 184 vias de encaixe na placa mãe. As DDR utilizavam a tecnologia DOUBLE DATA RATE (Dobro da Taxa de
Dados) para leitura e gravação da memória. Na prática uma memória DDR tem o dobro da performance de uma
memória SDRAM pois ela efetua duas operações a cada ciclo do clock. Assim ela tendo o dobro do desempenho
de uma PC-133 foi chamada de DDR-266. Mais tarde novas velocidades foram criadas, as DDR-333 e DDR-400.
As memórias DDR foram produzidas em pentes de 128 MB, 256 MB, 512 MB e 1 GB. Os módulos DDR podem
ser vendidos tanto segundo sua freqüência de operação, quanto segundo sua taxa de transferência.
•
•
•
•
•
•
DDR-200 (2x100 MHz) = PC1600
DDR-266 (2x133 MHz) = PC2100
DDR-333 (2x166 MHz) = PC2700
DDR-400 (2x200 MHz) = PC3200
DDR-466 (2x233 MHz) = PC3700
DDR-500 (2x250 MHz) = PC4000
DDR2
As memórias DDR2 são o avanço da tecnologia das memórias DDR, elas apresentam 240 vias de encaixe
e um novo encapsulamento para os bancos de memória localizados no chip. O novo encapsulamento se fez
necessário para que fosse possível alcançar velocidades mais altas. Quando ao desempenho, as memórias DDR2
trabalham com 4 operações por pulso de clock, assim mesmo ela sendo 133 MHz, ao realizar 4 operações ela
tem um desempenho de 533 MHz. São produzidos DDR2 com pentes de 512MB, 1 GB e 2 GB. São encontradas
memórias DDR2 nas velocidades:
•
•
•
•
DDR2-533 (4x133 MHz) = PC4200
DDR2-667 (4x166 MHz) = PC5300
DDR2-800 (4x200 MHz) = PC6400
DDR2-1066 (4x266 MHz) = PC8500
70
Arquitetura e Montagem I
DDR 3
As DDR3 utilizam as mesmas 240 de vias que as DDR2, mas os pentes possuem encaixes diferentes, o que
não possibilita que sejam instaladas memórias DDR3 em placas que só suportam DDR2. Além de velocidades
mais altas, as DDR3 tem um consumo menor de energia e chips ainda menores que os das DDR2. Quanto
ao desempenho as DDR3 apresentam um buffer de 8 bits, onde as DDR2 usam 4 bits, e as DDR usam 2 bits.
As DDR3 realizam 8 operações em cada pulso do clock, fazendo que a 133 MHz ela tenha um desempenho
equivalente a 1066 MHz. São encontrados até o momento pentes de DDR3 de 512 MB, 1 GB e 2 GB e logo
deverá ser anunciado os pentes de 4 GB.
As DDR3 são encontradas nas velocidades:
•
•
•
•
DDR3-1066 (8x133 MHz) = PC8500
DDR3-1333 (8x166 MHz) = PC10600
DDR3-1600 (8x200 MHz) = PC12800
DDR2-2000 (8x250 MHz) = PC16000
DUAL CHANNEL
Além da velocidade das memórias o desempenho também aumenta se o barramento delas for superior, desde
as memórias DIMM SDRAM que o barramento se mantém nos mesmos 64 bits, onde somente a velocidade em
MHz vem aumentando. Pensando em aumentar a performance do barramento, foi criado o Dual Channel, para
as memórias DDR, DDR2 e DDR3. O Dual Channel consiste em reconhecer 2 pentes de Memória IDÊNTICOS
como se fosse um único pente com o dobro do barramento. Como cada pente possui barramento de 64Bits, com
o Dual Channel o computador reconhece como 1 pente de 128 Bits.
O Dual channel depende do modelo do chipset da placa mãe para funcionar ou não.
71
Escola Alcides Maya - Primeiro Módulo
TRIPLE CHANNEL
O Triple Channel ou simplesmente Tri-Channel, é a evolução do Dual Channel, e consiste em reconhecer
TRÊS pentes de Memória IDÊNTICOS como se fosse um único pente com o TRIPLO do barramento. Como cada
pente possui barramento de 64Bits, com o Tri-Channel o computador reconhece como 1 pente de 192 Bits. Até
o momento o Tri-Channel só é possível em pentes de memória DDR3.
10 Discos Rígidos
O disco rígido, Hard Disc, ou simplesmente HD, foi um dos componentes que mais evoluiu na história da
informática. O primeiro disco rígido (o IBM 350) foi construído em 1956 e era formado por um conjunto de nada
menos que 50 discos de 24 polegadas de diâmetro, com uma capacidade total de 4.36 MB.
Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados de platters. O nome “disco
rígido” vem justamente do fato de os discos internos serem extremamente rígidos. Os platters são compostos
de duas camadas. A primeira é chamada de substrato, e nada mais é do que um disco metálico, feito de ligas
de alumínio. Mais recentemente, alguns fabricantes passaram a utilizar também vidro, que oferece algumas
vantagens, como a maior dureza, embora também seja mais difícil de se trabalhar. Os primeiros HDs com discos
de vidro foram os IBM Deskstar 75GXP, lançados em 2001.
Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar
qualquer vibração dos discos, mesmo a altas rotações. Este é mais um componente que passa por um processo
72
Arquitetura e Montagem I
de polimento, já que os discos devem ficar perfeitamente presos e alinhados. No caso de HDs com vários discos,
eles são separados usando espaçadores, novamente feitos de ligas de alumínio. Temos o motor de rotação,
responsável por manter uma rotação constante. O motor é um dos maiores responsáveis pela durabilidade
do disco rígido, pois uma grande parte das falhas graves provém justamente do motor. Os HDs mais antigos
utilizavam motores de 3.600 rotações por minuto, enquanto que atualmente são utilizados motores de 5.400,
7.200 ou 10.000 RPM. Nos HDs de notebook ainda são comuns motores de 4.200 RPM, mas os de 5.400 RPM
já são maioria. Embora não seja o único, a velocidade de rotação é sem dúvida o fator que influencia mais
diretamente no desempenho.
Para ler e gravar dados no disco são usadas cabeças de leitura eletromagnéticas (heads) que são presas
a um braço móvel (arm), o que permite seu acesso a todo o disco. O braço de leitura é uma peça triangular,
também feita de ligas de alumínio, para que seja ao mesmo tempo leve e resistente. Nos primeiros discos
rígidos, eram usados motores de passo para movimentar os braços e cabeças de leitura. Eles são o mesmo
tipo de motor usado nos drives de disquete, onde ao receber um impulso elétrico o motor move o braço por uma
curta distância, correspondente ao comprimento de uma trilha. O problema é que eles eram muito suscetíveis a
problemas de desalinhamento e não permitiam densidades de gravação muito altas. Os discos acima de 80 MB
utilizam um mecanismo bem mais sofisticado para essa tarefa, composto por um dispositivo que atua através
de atração e repulsão eletromagnética, sistema chamado de voice coil. Basicamente temos um eletroímã na
base do braço móvel, que permite que a placa controladora o movimente variando rapidamente a potência e
a polaridade do ímã. Apesar de parecer suspeito à primeira vista, esse sistema é muito mais rápido, preciso e
confiável que os motores de passo. Para você ter uma idéia, os HDs do início da década de 80, com motores de
passo, utilizavam apenas 300 ou 400 trilhas por polegada, enquanto um Seagate de 750 GB atual utiliza nada
menos do que 145.000.
Para que o HD possa posicionar a cabeça de leitura sobre a área exata referente à trilha que vai ser lida,
existem sinais de feedback gravados na superfícies do disco, que orientam o posicionamento da cabeça de
leitura. Eles são sinais magnéticos especiais, gravados durante a fabricação dos discos (a famosa formatação
física), que são protegidos através de instruções de bloqueio incluídas no firmware do HD contra alteração
posterior. Esses sinais eliminam os problemas de desalinhamento que existiam nos primeiros HDs. Ao ler um
arquivo, a controladora posiciona a cabeça de leitura sobre a trilha onde está o primeiro setor referente a ele e
espera que o disco gire até o setor correto. Este tempo inicial, necessário para iniciar a leitura, é chamado de
tempo de acesso, e mesmo os HDs atuais de 7.200 RPM fica em torno de 12 milésimos de segundo, o que é uma
eternidade em se tratando de tempo computacional. O HD é relativamente rápido ao ler setores seqüenciais, mas
ao ler vários pequenos arquivos espalhados pelo HD, o desempenho pode cair assustadoramente. É por isso
que existem programas desfragmentadores, que procuram reorganizar a ordem dos arquivos, de forma que eles
sejam gravados em setores contínuos. Outro dado interessante é a maneira como as cabeças de leitura lêem os
dados, sem tocar na camada magnética. Se você tiver a oportunidade de ver um disco rígido aberto, verá que,
com os discos parados, as cabeças de leitura são pressionadas levemente em direção ao disco, tocando-o com
uma certa pressão. Aqui temos o braço de leitura de um HD, depois de removido. Veja que mesmo sem o disco
magnético entre elas, as duas cabeças de leitura pressionam-se mutuamente:
73
Escola Alcides Maya - Primeiro Módulo
O HD possui duas cabeças de leitura para cada disco (uma para cada face), de forma que um HD com 4 discos
utilizaria 8 cabeças de leitura, presas ao mesmo braço móvel. Embora usar mais discos permita construir HDs
de maior capacidade, não é comum que os fabricantes utilizem mais de 4, pois a partir daí torna-se muito difícil e
caro produzir componentes com a precisão necessária para manter todos os discos alinhados. Antigamente, era
comum que HDs de alta capacidade e alto custo, sobretudo os destinados a servidores, possuíssem 6, ou até
mesmo 12 discos, mas eles saíram de moda a partir da década de 90, devido à baixa demanda. Desde então,
os fabricantes padronizaram a produção em torno dos HDs com até 4 discos. Todo HD é montado e selado em
um ambiente livre de partículas, as famosas salas limpas. Apesar disso, eles não são hermeticamente fechados.
Em qualquer HD, você encontra um pequeno orifício para entrada de ar (geralmente escondido embaixo da
placa lógica ou diretamente sob a tampa superior), que permite que pequenos volumes de ar entrem e saiam,
mantendo a pressão interna do HD sempre igual à do ambiente. Esse orifício é sempre protegido por um filtro,
que impede a entrada de partículas de poeira.
Enquanto o HD está desligado, as cabeças de leitura ficam em uma posição de descanso. Elas só saem
dessa posição quando os discos já estão girando à velocidade máxima. Para prevenir acidentes, as cabeças de
leitura voltam à posição de descanso sempre que não estão sendo lidos dados, apesar dos discos continuarem
girando. É justamente por isso que às vezes, ao sofrer um pico de tensão, ou o micro ser desligado enquanto o
HD está sendo acessado, surgem setores defeituosos. Ao ser cortada a energia, os discos param de girar e é
desfeito o colchão de ar, fazendo com que as cabeças de leitura possam vir a tocar os discos magnéticos. Para
diminuir a ocorrência desse tipo de acidente, nos HDs modernos é utilizado um sistema que recolhe as cabeças
de leitura automaticamente para a área de descanso quando a energia é cortada (tecnologia chamada de autoparking). A área de descanso é também chamada de “landing zone” e engloba algumas das trilhas mais centrais
do disco, uma área especialmente preparada para receber o impacto do “pouso” das cabeças de leitura. Uma
das tecnologias mais populares é a LZT (Laser Zone Texture), uma tecnologia desenvolvida pela IBM, onde um
laser é usado para produzir pequenas cavidades ao longo da zona de pouso, que reduzem o atrito com a cabeça
de leitura.
Apesar de evitar danos físicos, o auto-parking nada pode fazer para evitar perda de dados ao desligar o micro
incorretamente. Mesmo que todos os arquivos estejam salvos, ainda existem dados no cache de disco (criado pelo
sistema operacional, usando parte de memória RAM) e também no cache do HD, que utiliza memória SDRAM
(também volátil). Para acelerar as operações de gravação, todos os arquivos (sobretudo os pequenos) são salvos
inicialmente nos caches e depois transferidos para os discos magnéticos em momentos de ociosidade. Quando
o micro é desligado abruptamente, os dados em ambos os caches são perdidos, fazendo com que você sempre
perca as últimas alterações, muitas vezes em arquivos que acreditava estarem salvos. Por causa de tudo isso, é
sempre importante usar um nobreak em micros de trabalho. A longo prazo, os dados perdidos e possíveis danos
ao equipamento por causa de quedas de energia acabam custando muito mais do que um nobreak popular.
Mesmo assim, por melhores que sejam as condições de trabalho, o HD continua sendo um dispositivo
baseado em componentes mecânicos, que têm uma vida útil muito mais curta que a de outros componentes
do micro. De uma forma geral, os HDs para desktop funcionam de forma confiável por de dois a três anos (em
um PC usado continuamente). Depois disso, é melhor substituir o HD por um novo e mover o antigo para outro
micro secundário, onde ele não vá armazenar informações importantes, pois a possibilidade de defeitos começa
a crescer exponencialmente.
Placa Controladora
A placa lógica, ou placa controladora, é a parte que faz a interface com a placa-mãe, controla a rotação do
motor e o movimento das cabeças de leitura, de forma que elas leiam os setores corretos, faz a verificação das
leituras, de forma a identificar erros, atualiza e usa sempre que possível os dados armazenados no cache de
disco.
74
Arquitetura e Montagem I
Assim como no caso dos processadores, o cache é um componente importante para o desempenho do
HD. Ele armazena os dados acessados, diminuindo bastante o número de leituras. Dados armazenados no
cache podem ser transferidos quase que instantaneamente, usando toda a velocidade permitida pela interface
SATA ou IDE, enquanto um acesso a dados gravados nos discos magnéticos demoraria muito mais tempo. A
placa controladora é um componente externo do HD, que pode ser rapidamente substituído caso necessário.
Grande parte dos casos onde o HD queima devido a problemas na rede elétrica, ou defeitos diversos, podem
ser solucionados através da troca da placa controladora, permitindo recuperar os dados sem ter que recorrer aos
caros serviços de uma empresa especializada.
Os HDs são conectados ao computador através de interfaces capazes de transmitir os dados entre um e
outro de maneira segura e eficiente. Há várias tecnologias para isso, sendo as mais comuns os padrões IDE,
SCSI e, mais recentemente, SATA.
A interface IDE (Intelligent Drive Electronics ou Integrated Drive Electronics) também é conhecida como
ATA (Advanced Technology Attachment) ou, ainda, PATA (Parallel Advanced Technology Attachment). Trata-se
de um padrão que chegou para valer ao mercado na época da antiga linha de processadores 386. Com a
popularização desse padrão, as placas-mãe passaram a oferecer dois conectores IDE (IDE 0 ou primário e IDE
1 ou secundário), sendo que cada um é capaz de conectar até dois dispositivos. Essa conexão é feita ao HD (e
a outros dispositivos compatíveis com a interface) por meio de um cabo flat (flat cable) de 40 vias (foto abaixo).
Posteriormente, chegou ao mercado um cabo flat de 80 vias, cujas vias extras servem para evitar a perda de
dados causada por ruídos (interferência).
75
Escola Alcides Maya - Primeiro Módulo
Tecnologias ATAPI e EIDE
Na interface IDE, também é possível conectar outros dispositivos, como unidades de CD/DVD e zipdrives.
Para que isso ocorra, é utilizado um padrão conhecido como ATAPI (Advanced Technology Attachment Packet
Interface), que funciona como uma espécie de extensão para tornar a interface IDE compatível com os dispositivos
mencionados. Vale frisar que o próprio computador, através de seu BIOS e/ou do chipset da placa-mãe, reconhece
que tipo de aparelho está conectado em suas entradas IDE e utiliza a tecnologia correspondente (ATAPI para
unidades de CD/DVD e outros, ATA para discos rígidos). Como já dito, cada interface IDE de uma placa-mãe
pode trabalhar com até dois dispositivos simultaneamente, totalizando quatro. Isso é possível graças a EIDE
(Enhanced IDE), uma tecnologia que surgiu para aumentar a velocidade de transmissão de dados dos discos
rígidos e, claro, permitir a conexão de dois dispositivos em cada IDE.
Tecnologias DMA e UDMA
Antigamente, somente o processador tinha acesso direto aos dados da memória RAM. Com isso, se qualquer
outro componente do computador precisasse de algo na memória, teria que fazer esse acesso por intermédio
do processador. Com os HDs não era diferente e, como conseqüência, havia um certo desperdício dos recursos
de processamento. A solução não demorou muito a aparecer. Foi criada uma tecnologia chamada DMA (Direct
Memory Access). Como o próprio nome diz, essa tecnologia tornou possível o acesso direto à memória pelo HD
ou pelos dispositivos que usam a interface IDE, sem necessidade do “auxílio” do processador. Quando o DMA
não está em uso, normalmente é usado um esquema de transferência de dados conhecido como modo PIO
(Programmed I/O), onde, grossamente falando, o processador executa a transferência de dados entre o HD e a
memória RAM. Cada modo PIO existente trabalha com uma taxa distinta de transferência de dados, conforme
mostra a seguinte tabela:
Modo PIO
Taxa de transferência
Modo 0
3,3 MB/s
Modo 1
5,2 MB/s
Modo 2
8,3 MB/s
Modo 3
11,1 MB/s
Modo 4
16,7 MB/s
Modo 5
20 MB/s
É importante frisar que os HDs IDE mais recentes trabalham com um padrão conhecido como Ultra-DMA
(UDMA). Logo em seguida foi criada uma nova denominação para a interface, chamada de ATA (Advanced
Technology Attachment), ou ainda de Ultra-ATA.
O ATA se tornou o padrão que reuniu todas as tecnologias anteriores (E-IDE, ATAPI e UDMA)
Essa tecnologia permite a transferência de dados em uma taxa de, pelo menos, 33,3 MB/s (megabytes por
segundo). O padrão UDMA não funciona se somente for suportada pelo HD. É necessário que a placa-mãe
também a suporte (através de seu chipset), caso contrário, o HD trabalhará com uma taxa de transferência mais
baixa. Veja o porque: existe 4 tipos básicos de Ultra-DMA (ou Ultra ATA): ATA 33, ATA 66, ATA 100 e ATA 133.
Os números nestas siglas representam a quantidade de megabytes transferível por segundo. Assim, o ATA 33
transmite ao computador dados em até 33 MB/s. O ATA 66 faz o mesmo em até 66 MB/s, e assim por diante.
Agora, imagine que você instalou um HD ATA 133 em seu computador. No entanto, a placa-mãe só suporta ATA
de 100 MB/s. Isso não significa que seu HD vai ficar inoperante. O que vai acontecer é que seu computador
somente trabalhará com o HD na taxa de transferência de até 100 MB/s e não na taxa de 133 MB/s. Com a
introdução do Serial ATA em 2003, esta configuração foi renomeada para Parallel ATA (ou PATA, ATA Paralelo)
referindo-se ao método como os dados eram transferidos pelos cabos desta interface, assim não causando
76
Arquitetura e Montagem I
confusões com a nova tecnologia.
Configuração de jumpers
Encontramos normalmente na placa-mãe duas interfaces IDE, chamadas de IDE primária e IDE secundária.
Cada interface permite a conexão de dois dispositivos, que devem ser configurados como Master (mestre) e
Slave (escravo). O mestre da IDE primária é chamado de Primary Master, ou mestre primário, enquanto o Slave
da IDE secundária é chamado de Secondary Slave, ou escravo secundário. Esta configuração é necessária
para que o BIOS possa acessar os dispositivos, além de também determinar a letra dos drives (C:, D:, E:, etc). A
configuração em Master ou Slave é feita através de jumpers localizados no disco rígido ou CD-ROM. A posição
dos jumpers para o Status desejado é mostrada no manual do disco ou normalmente se faz presente também no
próprio corpo do disco, de forma impressa.
Geralmente você encontrará apenas 3 opções na tabela: Master, Slave e Cable Select. A opção de Cable Select
é uma espécie de plug-and-play para discos rígidos: escolhendo esta opção, um disco IDE será automaticamente
reconhecido como Master, e o outro será reconhecido como Slave. O problema é que para a opção de Cable
Select funcionar, é preciso um cabo flat especial, motivo pelo qual esta opção é pouco usada. Configurando seus
discos manualmente como Master e Slave, não importa a posição nem o tipo do cabo IDE, a configuração que
for colocada nos jumpers será detectada pelo BIOS do computador, não podendo ser alterada. Obrigatoriamente
um dos discos deverá ser configurado como Master, e o outro como Slave, caso contrário haverá um conflito, e
ambos não funcionarão. Em alguns discos, além das opções de Master, Slave e Cable Select, você encontrará
também as opções “One Drive Only” e “Drive is Master, Slave is Present”. Neste caso, a opção one drive only
indica que o disco será instalado como Master da controladora, e que não será usado nenhum Slave. A opção
Drive is Master, Slave is Present, indica que o disco será instalado como Master da controladora mas que será
instalado também um segundo disco como Slave.
No caso dos CD-ROMs IDE, a configuração dos jumpers é ainda mais fácil, sendo feita através de um único
jumper de três posições localizado na sua parte traseira, que permite configurar o drive como Master, Slave ou
Cable Select. Geralmente você encontrará também uma pequena tabela, indicando a posição do jumper para
cada opção. “MA” significa Master, “SL” Slave e “CS” Cable Select. É quase um padrão que o jumper no centro
configure o CD como Slave, à direita como Master e à esquerda como Cable Select, sendo raras as exceções.
77
Escola Alcides Maya - Primeiro Módulo
Ao instalar dois dispositivos numa mesma interface IDE, ambos compartilharão a interface, causando perda de
desempenho. Por isso, é sempre recomendável instalar um na interface primária e outro na interface secundária.
Ao instalar um HD e um CD-ROM por exemplo, a melhor configuração é o HD como Master da IDE primária e o
CD-ROM como Master ou mesmo Slave da IDE secundária.
Serial ATA
O padrão Serial ATA (ou SATA - Serial Advanced Technology Attachment surgiu no mercado no ano 2003
para substituir a tradicional interface ATA (PATA ou IDE). O nome de ambas as tecnologias já indica a principal
diferença entre elas: o PATA faz transferência de dados de forma paralela, ou seja, transmite vários bits por vez,
como se estes estivessem lado a lado. No SATA, a transmissão é em série, tal como se cada bit estivesse um
atrás do outro. Por isso, você deve imaginar que o PATA é mais rápido, não? Na verdade, não é. A transmissão
paralela de dados (geralmente com 16 bits por vez) causa um problema conhecido como “ruído”, que nada mais
é do que a perda de dados ocasionada por interferência. Para lidar com isso nos HDs PATA, os fabricantes
utilizam mecanismos para diminuir o ruído. Um deles é recomendar a utilização de um cabo IDE (o cabo que liga
o HD à placa-mãe do computador) com 80 vias (ou seja, oitenta fios) ao invés dos tradicionais cabos com 40 vias.
As vias a mais atuam como uma espécie de blindagem contra ruídos.
No caso do padrão SATA o ruído praticamente não existe, mesmo porque seu cabo de conexão ao computador
possui apenas 4 vias e também é blindado. Isso acaba trazendo outro ponto de vantagem ao SATA, pois como
o cabo tem dimensão reduzida, o espaço interno do computador é melhor aproveitado, facilitando inclusive a
circulação de ar. O padrão Paralell ATA tem sua velocidade de transmissão de dados limitada por causa do ruído.
A última especificação dessa tecnologia é o ATA 133 que permite, no máximo, uma taxa de transferência de 133
MB por segundo. O Serial ATA, por sua vez, pode utilizar uma velocidade maior.
Há outra característica interessante no SATA: HDs que utilizam essa interface, não precisam de jumpers para
identificar o disco master (primário) ou secundário (slave). Isso ocorre porque cada dispositivo usa um único
canal de transmissão (o PATA permite até dois dispositivos por canal), atrelando sua capacidade total a um único
HD. No entanto, para não haver incompatibilidade com dispositivos PATA, é possível instalar esses aparelhos em
interfaces seriais através de placas adaptadoras. Muitos fabricantes de placas-mãe oferecem placas-mãe com
ambas as interfaces.
Outra novidade interessante do SATA é a possibilidade de uso da técnica “hot-swap”, que torna possível a
troca de um dispositivo Serial ATA com o computador ligado. Por exemplo, é possível trocar um HD sem ser
necessário desligar a máquina para isso. Este recurso é muito útil em servidores que precisam de manutenção/
reparos, mas não podem parar de funcionar.
78
Arquitetura e Montagem I
Velocidade do padrão SATA
A primeira versão do SATA trabalha com taxa máxima de transferência de dados de 150 MB por segundo
(MB/s). Essa versão recebeu os seguintes nomes: SATA 150, SATA 1.0, SATA 1,5 Gbps (1,5 gigabits por segundo)
ou simplesmente SATA I. Não demorou muito para surgir uma versão denominada SATA II (ou SATA 3 Gbps) cuja
principal característica é a velocidade de transmissão de dados a 300 MB/s, o dobro do SATA I. E já há previsão
para a 3ª geração de HDs SATA com velocidade de transmissão de dados de 600 MB/s. É necessário fazer uma
observação quanto ao aspecto de velocidade: na prática, dificilmente os valores mencionados (150 MB e 300
MB) são alcançados. Essas taxas indicam a capacidade máxima de transmissão de dados entre o HD e sua
controladora (presente na placa-mãe), mas dificilmente são usadas em sua totalidade, já que isso depende de
uma combinação de fatores, como conteúdo da memória, processamento, tecnologias aplicadas no disco rígido,
etc.
RAID
O sistema RAID consiste em um conjunto de dois ou mais discos rígidos com dois objetivos básicos: tornar
o sistema de disco mais rápido através de uma técnica chamada divisão de dados (data stripping ou RAID 0) ou
tornar o sistema de disco mais seguro, através de uma técnica chamada espelhamento (mirroring ou RAID 1).
Essas duas técnicas podem ser usadas isoladamente ou em conjunto.
Em ambos os sistemas RAID é necessário que na máquina tenhamos ao menos dois discos rígidos idênticos,
no que diz respeito ao tamanho, velocidade, marca e modelo. No RAID 0 (data stripping), o micro enxergará os
dois discos (por exemplo, 2 HDs de 250 GB) como sendo um único disco de 500 GB, onde ele sempre fará a
gravação e leitura dos dados nos dois discos simultaneamente, usando metade dos dados em cada um, fazendo
com isso que tenhamos um grande ganho de performance. O único problema de se utilizar o RAID 0 é que se um
dos discos apresentar problemas, os dados de ambos os discos serão perdidos. O sistema RAID 0 não é limitado
a apenas dois discos rígidos. Podemos, em princípio, colocar quantos discos quisermos. Nesse mesmo exemplo,
se usarmos quatro discos iguais em vez de um, o micro pensará que os quatro discos são apenas um e dividirá
automaticamente o arquivo em quatro, quadruplicando a velocidade de leitura e gravação do arquivo.
No RAID 1 (mirroring) é feito o chamado “espelhamento” do disco, onde cada dado gravado no primeiro
disco, também será gravado no segundo, fazendo uma cópia fiel de todas as informações de um disco no outro,
caso o primeiro disco estrague, todas as informações estarão no segundo disco, como um backup. É importante
frisar que o RAID 1 não traz nenhum ganho de performance, apenas garante a segurança dos dados por fazer
o backup em tempo real.
É possível ainda utilizar os dois sistemas RAID simultaneamente, o chamado RAID 0 + 1 é uma combinação
dos níveis 0 (striping) e 1 (mirroring), onde os dados são divididos entre os discos para melhorar o rendimento,
mas também utilizam outros discos para duplicar as informações. Assim, é possível utilizar o bom rendimento do
nível 0 com a redundância do nível 1. No entanto, é necessário pelo menos 4 discos para montar um RAID desse
tipo. Tais características fazem do RAID 0 + 1 o mais rápido e seguro, porém o mais caro de ser implantado. No
RAID 0+1, se um dos discos falhar, o sistema vira um RAID 0.
79
Escola Alcides Maya - Primeiro Módulo
Tecnologia SSD
SSD (Solid-State Drive) a Unidade de Estado Sólido é uma nova tecnologia de armazenamento que não
possui partes móveis, sendo composta de vários chips de memória flash não volátil. Neles, a informação está
gravada em células elétricas, da mesma forma que as memórias RAM. A informação está sempre armazenada
em (ou está trafegando por) um material sólido. A escrita ou leitura não envolvem nenhum fenômeno magnético
ou óptico, por isso não há necessidade de partes móveis.
Os dispositivos SSD tem características que constituem vantagens sobre os dispositivos de armazenamento
convencionais, como tempo de acesso reduzido , uma vez que o acesso a memória RAM é muito menor do que
os tempos de acesso aos dispositivos magnéticos e óticos. A eliminação de partes mecânicas reduz vibrações
e os torna completamente silenciosos e são muito mais resistentes contra eventuais choques do que os HD
convencionais, além de possuírem um menor peso, menor consumo de energia e a possibilidade de trabalhar em
maiores temperaturas (acima dos 70º C) e uma banda muito maior que os demais dispositivos, com 250 MB/s na
gravação e até 700 MB/s na leitura. Os discos SSD utilizam a mesma interface dos discos atuais (SATA) e são
reconhecidos tanto pelo BIOS quanto pelo Sistema Operacional como um disco rígido tradicional. a sua única
diferença se faz pela sua tecnologia que é completamente diferente dos HDs.
80
Download

Arquitetura e Montagem I