A revolução dos computadores
Não é segredo que o seu computador atual é fruto de uma evolução que levou
décadas para chegar a onde está, e ainda está muito longe de chegar ao seu final.
Se pensarmos que cerca de dez anos atrás os processadores ainda nem
conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a
informática é uma tarefa ainda mais complicada.
Você sabia que no início da década de 1950 já existiam computadores?
Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já
realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos,
elementos e componentes foram criados e parece até que estamos falando de
assuntos totalmente desconexos.
Então prepare-se para conhecer um pouco mais sobre essa magnífica história.
Para facilitar a leitura, atendemos às divisões de alguns autores especializados no
assunto e separamos a história da informática em gerações. Agora aproveite para
aprender mais ou para conhecer a importante evolução dos computadores.
As gigantes válvulas da primeira geração
Imagine como seria sua vida se você precisasse de uma enorme sala para
conseguir armazenar um computador. Logicamente isso seria impossível, pois os
primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a
funções de cálculos, sendo utilizados para resolução de problemas específicos.
Por que problemas específicos? Os computadores da primeira geração não
contavam com uma linguagem padronizada de programação. Ou seja, cada
máquina possuía seu próprio código e, para novas funções, era necessário
reprogramar completamente o computador. Quer mudar o problema calculado?
Reprograme o ENIAC.
Fonte da imagem: Wikimedia Commons/Domínio Público
Esses computadores gigantescos ainda sofriam com o superaquecimento
constante. Isso porque em vez de microprocessadores, eles utilizavam grandes
válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de
pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo
que cada válvula acesa ou apagada representava uma instrução à máquina.
Com poucas horas de utilização, essas válvulas eram queimadas e demandavam
substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada
máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes
utilizados por um computador ENIAC. Como você pode perceber, esses
computadores não saíam baratos para os proprietários.
Transistores e a redução dos computadores
As gigantes máquinas não estavam sendo rentáveis, pelos constantes gastos com
manutenção. A principal necessidade era substituir as válvulas elétricas por uma
nova tecnologia que permitisse um armazenamento mais discreto e não fosse tão
responsável pela geração de calor excessivo, evitando superaquecimentos.
Foi então que os transistores (criados em 1947 pela empresa Bell Laboratories)
passaram a integrar os painéis das máquinas de computar. Os componentes eram
criados a partir de materiais sólidos conhecidos como “Silício”. Exatamente, os
materiais utilizados até hoje em placas e outros componentes, extraídos da areia
abundante.
Fonte da imagem: Wikimedia Commons/Hohum
Existia uma série de vantagens dos transistores em relação às válvulas. Para
começar: as dimensões desses componentes eram bastante reduzidas, tornando
os computadores da segunda geração cem vezes menores do que os da primeira.
Além disso, os novos computadores também surgiram mais econômicos, tanto em
questões de consumo energético, quanto em preços de peças.
Para os comandos desses computadores, as linguagens de máquina foram
substituídas por linguagem Assembly. Esse tipo de programação é utilizado até
hoje, mas em vez de ser utilizado para softwares ou sistemas operacionais, é mais
frequente nas fábricas de componentes de hardware, por trabalhar com instruções
mais diretas.
Em vez das 30 toneladas do ENIAC, o IBM 7094 (versão de maior sucesso dessa
segunda geração de computadores) pesava apenas 890 Kg. E por mais que
pareça pouco, essa mesma máquina ultrapassou a marca de 10 mil unidades
vendidas.
Fonte da imagem: Wikimedia Commons/David Monniaux
Curiosidade: os computadores dessa segunda geração foram inicialmente
desenvolvidos para serem utilizados como mecanismos de controle em usinas
nucleares. Um modelo similar pode ser visto no desenho “Os Simpsons”, mais
especificamente no posto de trabalho de Homer, técnico de segurança na Usina
Nuclear.
Miniaturização e circuitos integrados
O emprego de materiais de silício, com condutividade elétrica maior que a de um
isolante, mas menor que a de um condutor, foi chamado de semicondutor. Esse
novo componente garantiu aumentos significativos na velocidade e eficiência dos
computadores, permitindo que mais tarefas fossem desempenhadas em períodos
de tempo mais curtos.
Com a terceira geração dos computadores, surgiram também os teclados para
digitação de comandos. Monitores também permitiam a visualização de sistemas
operacionais muito primitivos, ainda completamente distantes dos sistemas
gráficos que conhecemos e utilizamos atualmente.
Fonte da imagem: Wikimedia Commons/Domínio Público
Apesar das facilidades trazidas pelos semicondutores, os computadores dessa
geração não foram reduzidos, sendo que um dos modelos de mais sucesso (o IBM
360, que vendeu mais de 30 mil unidades) chegava a pesar mais do que os
antecessores. Nessa época (final da década de 1970 e início da década de 1980)
os computadores passaram a ser mais acessíveis.
Outro grande avanço da terceira geração foi a adição da capacidade de upgrade
nas máquinas. As empresas poderiam comprar computadores com determinadas
configurações e aumentar as suas capacidades de acordo com a necessidade,
pagando relativamente pouco por essas facilidades.
Microprocessadores: o início dos computadores
pessoais
Enfim chegamos aos computadores que grande parte dos usuários utiliza até hoje.
Os computadores da quarta geração foram os primeiros a serem chamados de
“microcomputadores” ou “micros”. Esse nome se deve ao fato de eles pesarem
menos de 20 kg, o que torna o armazenamento deles muito facilitado.
Você consegue imaginar qual o componente que tornou possível essa redução
das máquinas? Acertou quem disse que foram os microprocessadores. O
surgimento dos pequenos chips de controle e processamento tornou a informática
muito mais acessível, além de oferecer uma enorme gama de novas
possibilidades para os usuários.
Em 1971, já eram criados processadores com esse novo formato, mas apenas na
metade da década começaram a surgir comercialmente os primeiros
computadores pessoais. Os Altair 880 podiam ser comprados como um kit de
montar, vendidos por revistas especializadas nos Estados Unidos. Foi com base
nessa máquina que Bill Gates e Paul Allen criaram o “Basic” e inauguraram a
dinastia Microsoft.
A importância da Apple
Na mesma época, os dois Steves da Apple (Jobs e Wozniac) criaram a empresa
da Maçã para se dedicarem a projetos de computação pessoal facilitados para
usuários leigos. Assim surgiu o Apple I, projeto que foi primeiramente apresentado
para a HP. Ele foi sucedido pelo Apple II, após uma injeção de 250 mil dólares
pela Intel.
Fonte da imagem: Musée Bolo
Essa segunda versão dos computadores possuía uma versão modificada do
sistema BASIC, criada também pela Microsoft. O grande avanço apresentado pelo
sistema era a utilização de interface gráfica para alguns softwares. Também era
possível utilizar processadores de texto, planilhas eletrônicas e bancos de dados.
Essa mesma Apple foi responsável pela inauguração dos mouses na computação
pessoal, juntamente com os sistemas operacionais gráficos, como o Macintosh.
Pouco depois a Microsoft lançou a primeira versão do Windows, bastante parecida
com o sistema da rival.
E os ciclos tornam-se clocks
Até a terceira geração dos computadores, o tempo de resposta das máquinas era
medido em ciclos. Ou seja, media-se um número de ações em curtos períodos de
tempo para que fosse possível saber qual fração de segundo era utilizada para
elas. Com os microprocessadores, já não era viável medir as capacidades dessa
forma.
Por isso surgiram as medidas por clocks. Esta definição calcula o número de
ciclos de processamento que podem ser realizados em apenas um segundo. Por
exemplo: 1 MHz significa que em apenas um segundo é possível que o chip
realize 1 milhão de ciclos.
Grande parte dos computadores pessoais lançados nessa época eram
alimentados por processadores da empresa Intel. A mesma Intel que hoje possui
alguns dos chips mais potentes, como o Intel Core i7 (sobre o qual falaremos
mais, em breve). Como você pode saber, estas máquinas são muito leves e
puderam ser levadas a um novo patamar.
Notebooks: a quarta geração portátil
Considerando o progresso da informática como sendo inversamente proporcional
ao tamanho ocupado pelos componentes, não seria estranho que logo os
computadores transformassem-se em peças portáteis. Os notebooks surgiram
como objetos de luxo (assim como foram os computadores até pouco mais de dez
anos), sendo caros e de pouca abrangência comercial.
Fonte da imagem:divulgação/Asus
Além dos notebooks, temos também os netbooks disponíveis no mercado. Estes
funcionam de maneira similar aos outros, mas geralmente possuem dimensões e
configurações menos atraentes. Ganham pontos pela extrema portabilidade e
duração das baterias utilizadas, sendo certamente um degrau a mais na evolução
dos computadores.
Hoje, o preço para se poder levar os documentos, arquivos e programas para
todos os lugares não é muito superior ao cobrado por desktops. Mesmo assim, o
mercado ainda está longe de atingir o seu ápice. Quem sabe qual será o próximo
passo da indústria?
Múltiplos núcleos: a quinta geração?
Ainda estamos em transição de uma fase em que os processadores tentavam
alcançar clocks cada vez mais altos para uma fase em que o que importa mesmo
é como podem ser melhor aproveitados esses clocks. Deixou de ser necessário
atingir velocidades de processamento superiores aos 2 GHz, mas passou a ser
obrigatório que cada chip possua mais de um núcleo com essas frequências.
Chegaram ao mercado os processadores que simulavam a existência de dois
núcleos de processamento, depois os que realmente apresentavam dois deles.
Hoje, há processadores que apresentam quatro núcleos, e outros, utilizados por
servidores, que já oferecem oito. Com tanta potência executando tarefas
simultâneas, surgiu uma nova necessidade.
Processamento verde
Sabe-se que, quanto mais tarefas sendo executadas por um computador, mais
energia elétrica seja consumida. Para combater essa máxima, as empresas
fabricantes de chips passaram a pesquisar formas de reduzir o consumo, sem
diminuir as capacidades de seus componentes. Foi então que nasceu o conceito
de “Processamento Verde”.
Por exemplo: os processadores Intel Core Sandy Bridge são fabricados com a
microarquitetura reduzida, fazendo com que os clocks sejam mais curtos e menos
energia elétrica seja gasta. Ao mesmo tempo, esses processos são mais eficazes.
Logo, a realização de tarefas com esse tipo de componente é boa para o usuário e
também para o meio ambiente.
Fonte da imagem: divulgação/Intel
Outro elemento envolvido nessas conceituações é o processo de montagem. As
fabricantes buscam, incessantemente, formas de reduzir o impacto ambiental de
suas indústrias. Os notebooks, por exemplo, estão sendo criados com telas de
LED, muito menos nocivos à natureza do que LCDs comuns.
Não sabemos ainda quando surgirá a sexta geração de computadores. Há quem
considere a inteligência artificial como sendo essa nova geração, mas também há
quem diga que robôs não fazem parte dessa denominação. Porém, o que importa
realmente é perceber, que ao longo do tempo, o homem vem trabalhando para
melhorar cada vez mais suas máquinas.
Quem imaginava, 60 anos atrás, que um dia seria possível carregar um
computador na mochila? E quem, hoje, imaginaria que 60 anos atrás seria
necessário um trem para carregar um deles? Hoje, por exemplo, já existem
computadores de bolso, como alguns smartphones que são mais poderosos que
netbooks.
E para você, qual será o próximo passo nessa evolução das máquinas? Aproveite
os comentários para dizer o que você pensa sobre essas melhorias
proporcionadas ao longo de década.
Conheça o primeiro computador da
história
O mecanismo Antikythera, encontrado nos escombros de um naufrágio na costa
grega, foi provavelmente construído pelo filósofo e matemático Aristóteles.
Fonte da imagem: Antikythera Mechanism Research Project
Encontrado em meio a destroços submersos próximos à ilha grega de Antikythera
por uma tripulação de mergulhadores locais, o conjunto de engrenagens que viria
a ser conhecido como mecanismo Antikythera passou quase um século sem ser
compreendido. Apenas com técnicas recentes de pesquisa – como os
microscópios eletrônicos e imagens por raios-x – o funcionamento e razão de ser
do mecanismo puderam ser compreendidos.
Financiado pelo governo grego em parceria com grandes empresas de tecnologia
como a HP, o Antikythera Mechanism Research Project (projeto de pesquisa do
mecanismo Antikythera) conta com cientistas gregos e britânicos para resolver e
identificar todos os detalhes do aparelho datado do século 2 a.C.
A história dos sistemas operacionais
Atualmente, os sistemas operacionais (SO) estão cada vez mais fáceis de usar,
possuindo interfaces muito simples e bonitas. Contudo, todas estas
funcionalidades não surgiram do nada, foram evoluindo com o tempo. Por
exemplo, a bela interface gráfica do Windows Vista é resultado de mais de 20
anos de desenvolvimento, desde as primeiras versões deste SO. Por isso, criamos
este artigo que conta a história dos sistemas operacionais, incluindo os principais
representantes de cada época.
Sistema operacional não é a maquina
Atualmente, ainda são comuns alguns equívocos em relação ao sistema
operacional. Por exemplo, todos alguma vez já ouviram um diálogo como este:
- Que computador você irá comprar?
- Vou comprar o Windows.
O diálogo acima demonstra um erro muito comum no mundo da informática:
pensar que o sistema operacional é a máquina em si. Basicamente, o computador
é composto por duas grandes categorias: hardware e software. A primeira delas
se refere à parte física da máquina, ou seja, o que pode ser tocado fisicamente. Já
a segunda abrange a parte lógica responsável por realizar tarefas, utilizando-se
do hardware para a realização de suas tarefas.
Por isso, sistemas operacionais como o Windows, Linux ou o MAC OS, são
apenas softwares que gerenciam toda a atividade do hardware, mas não o
computador em si. Consequentemente, em um PC que contenha um dos SOs
citados acima, quase sempre é possível instalar outro.
Sistemas operacionais primitivos
Primeiramente, vamos tratar sobre a gênese dos sistema operacionais, abordando
a forma como eram desenvolvidos nas décadas de cinquenta, sessenta e setenta.
Máquinas que não usavam SO
A primeira geração da computação moderna (1945-1955) não trabalhava com o
conceito de sistema operacional propriamente dito, visto que as operações eram
setadas através de hardware. Por exemplo, chaves, quilômetros de fios e luzes de
aviso, como na foto abaixo do Eniac. Nesse período, era muito comum que a
mesma pessoa projetasse, programasse e utilizasse os computadores. A principal
implicação desta abordagem é o fato de que era muito difícil criar rotinas
programáveis, exigindo trabalho intenso dos operadores de máquinas.
Programação em Batch
O conceito de sistema operacional apareceu durante a segunda geração da
computação moderna (1955 - 1965), através da programação em Batch. Assim,
vários comandos já poderiam ser executados em sequência através de cartões
perfurados, eliminando parte do trabalho do operador de terminal. Normalmente,
um programa era composto por um conjunto de cartões inseridos pelo usuário do
sistema, na ordem correta.
Sistemas específicos
Em meados da década de 60, os primeiros sistemas operacionais foram
desenvolvidos conforme a evolução da tecnologia da época. Contudo, cada
máquina possuía seu próprio SO específico, o que implicava na incompatibilidade
de mainframes distintos. Um dos maiores representantes foi o CTSS, criado pela
MIT, sendo lançado em 1961 para o computador IBM 7090.
Unix, o primeiro sistema operacional moderno
Visando ao problema da incompatibilidade de SOs de máquinas distintas, um
grupo de desenvolvedores da AT&T ciaram o Unix em 1969, sendo o primeiro
sistema operacional moderno da computação. É possível afirmar que mais de 90
porcento dos SOs atuais foram influenciados de alguma maneira pelo Unix.
Sua primeira versão foi escrita em linguagem assembly, sendo posteriormente
reescrito em C no ano de 1973, linguagem utilizada até os dias de hoje. Este
sistema introduziu conceitos muito importantes para a computação: portabilidade,
multi-usuário, multi-tarefas e compartilhamento de tarefas.
Durante a década de 70, o Unix foi distribuído gratuitamente (incluindo seu código
fonte) para universidades e órgãos governamentais norte-americanos, o que
conferiu muita popularidade a este sistema. Sua interface era totalmente em modo
texto sem interface gráfica
Em 1977 foi lançado o BSD, sistema operacional fortemente baseado no Unix,
focado principalmente para a execução em máquinas específicas de alto
desempenho, como o famoso computador VAX, o qual foi uma referência de
hardware na época.
Sistemas Operacionais para computadores
pessoais
Tanto o Unix quanto o BSD, em suas primeiras versões, foram desenvolvidos para
o uso de computadores de grande porte, normalmente em universidades.
Contudo, alguns jovens programadores possuíam uma ideia absurda para época:
criar sistemas operacionais para o uso de pessoas comuns.
Steve Jobs e a Apple
Um dos primeiros a pensar desta forma foi Steve Jobs, fundador da Apple. Desde
a criação de sua empresa, seu principal foco foi a criação de computadores para o
dia-a-dia, incluindo sistemas operacionais fáceis de serem operados. O
lançamento do Apple I em 1976, um dos primeiros computadores pessoais, foi um
marco na história da computação.
Pela primeira vez, um PC continha um teclado
fácil de ser utilizado, com uma mini-televisão adaptada como monitor. Assim,
conhecimentos avançados de computação já não eram mais requisitos para se
operar um PC. Jobs fez questão de criar o seu sistema operacional do zero, sem
se basear inicialmente no Unix. Nos anos seguintes, os modelos Apple II e Apple
III foram lançados no mercado, um sucesso de vendas. Suas interfaces gráficas
eram muito primitivas comparadas com o padrão usado atualmente, mas
avançadíssimas para a época.
Em meados de 1979, Steve Jobs tomou conhecimento sobre o desenvolvimento
de um computador totalmente inovador pela Xerox Parc. Em uma vista a esta
empresa, ele ficou deslumbrado com Xerox Alto, um PC que possuía uma
interface gráfica (GUI) totalmente revolucionária. Pouco tempo depois, a Apple
lançou o Lisa, aproveitando todas as ideias gráficas do computador. Não é nem
preciso dizer que o sucesso foi estrondoso. Cada versão do Apple possuía um
sistema operacional distinto.
Como se não bastasse, o Apple Machintosh foi lançado em 1984, introduzindo o
conceito de desktop, utilizando ícones e pastas para representar programas e
arquivos do modo como conhecemos hoje. Esta máquina acompanhava o
revolucionário e inovador sistema chamado MAC OS. Seu sucesso foi estrondoso
em todo EUA, principalmente pela vinculação de seu comercial durante a final do
Superbowl do mesmo ano.
Com o passar dos anos, as novas versões do Macintosh e o do MAC OS já não
eram mais populares como antes, o que fez com que a Apple perdesse bastante
mercado para a Microsoft. No final dos anos 90, o código do Macintosh
apresentava muitos problemas, o que obrigou que um novo plano fosse traçado.
Em 2001, a Apple surpreendeu o mundo da informática, abandonando o seu
próprio código e reescrevendo todo o seu sistema operacional usando o Unix
como base. A partir daí, ele passou a se chamar MAC OSX, sistema que continua
forte até os dias de hoje.
Bill Gates e a Microsoft
Voltando ao final da década de 70, outro jovem programador, chamado Bill Gates,
também possuía o desejo de revolucionar o mundo da informática. Em 1975, ele
fundou a Microsoft, empresa que possuía como objetivo primário o
desenvolvimento de software em linguagem BASIC para o computador Altair da
IBM. Com o sucesso dos programas desenvolvidos pela Microsoft, a empresa
afirmou que possuía um sistema operacional completo. A IBM se interessou pelo
projeto e ambas as organizações afirmaram um contrato, em 1979.
Entretanto, a Microsoft estava com sérios problemas, pois não possuía um
sistema operacional de verdade. A solução encontrada foi a compra do SO da
Seattle Computer Products pelo valor de $50.000. Muitos o chamam de negócio
do século, pois a partir de 50 mil dólares, a Microsoft possui o patrimônio atual
avaliado em dezenas de bilhões de dólares.
Após várias melhorias sobre o sistema comprado, a Microsoft lançou MS-DOS em
1982 cuja interface era baseada em modo texto, bastante parecida com a utilizada
pelo Unix. Na época, esse SO não chamou tanta atenção, pois o Apple Lisa de
Steve Jobs já trabalhava com uma interface gráfica. Tomando conhecimento deste
problema, Bill Gates fez uma vista a Apple, com o objetivo básico de conhecer a
empresa. Ao final da visita, Gates convenceu Jobs a ser incluído no
desenvolvimento do Macintosh.
O objetivo de Gates era maior que isso: copiar a interface gráfica do Machintosh, e
foi exatamente isso que aconteceu. No lançamento do novo PC da Apple, Steve
Jobs descobriu que a Microsoft estava lançando máquinas no Japão, cujas
interfaces eram muito parecida com a do seu computador. Após a quebra da
parceria entre os dois, Gates lançou o Sistema Operacional Windows 1.0 em
1985, batendo de frente com o MAC OS.
Após problemas de administração, Jobs foi demitido da Apple, o que
desestabilizou a empresa, retornando somente em 1997. Assim, a Microsoft foi
ganhando cada vez mais mercado no mercado, lançando o Windows 2.0 em 1987,
trazendo melhorias consideráveis na parte visual e no gerenciamento de memória.
Windows 3.0 e 3.11
No início dos anos 90, o mercado de sistemas operacionais sofreu novo boom
com o lançamento do Windows 3.0 (1990) e Windows 3.1(1992). Na sua versão
3.0, a memória passou a ser gerenciada de maneira muito mais eficiente, incluindo
a melhora substancial na interface gráfica. Foi criado um painel de controle e um
gerenciador de arquivos organizado, facilitando todo o trabalho do usuário.
Um dos principais motivos que contribuíram para seu sucesso foi o fato do sistema
já vir instalado de fábrica em um grande número de máquinas.
O Windows 3.1, incluindo seu service pack 3.11, trouxe melhorias à versão 3.0,
como uma interface de rede melhor desenvolvida. Em 2 meses de lançamento, o
3.1 vendeu 3 milhões de cópias.
Windows 95, 98 e ME
No ano de 1995, foi lançada no mercado a nova versão deste sistema operacional,
o Windows 95. Esta versão foi tão importante para informática que acabou
definindo o padrão com que o desktop é organizado, o qual ainda é utilizado no
Vista. Por exemplo, podemos citar o botão Start, o menu Iniciar, a barra de tarefas
e o gerenciador de arquivos Windows Explorer. Após alguns services packs, esta
versão passou a suportar a leitura de dispositivos USB, o navegador internet
explorer, entre outras funcionalidades.
Dando continuidade a seu antecessor, a nova versão deste sistema foi lançada no
ano de 1998, chamada de Windows 98. Apesar de apresentar melhorias em
relação ao 95, o SO era um pouco lento e instável. Tais problemas só foram
arrumados com o Windows 98 SE (Second Edition), lançado em 1999, que incluía
funções avançadas para compartilhamento de rede, suporte integrado a drivers de
DVD-ROM, entre outras tarefas
O sucessor, Windows Me, lançado em 2000, foi um dos maiores fracassos na
questão de sistema operacional, pois era muita instável. Possuía somente poucas
melhoras em relação ao Windows 98 SE. Por isso, logo foi deixado de lado.
Todas as versões apresentadas até aqui usavam o MS-DOS como núcleo do
sistema, ou seja, o Windows funcionava como uma espécie de ambiente gráfico.
Com o passar do tempo, o uso desta arquitetura tornou-se insuportável, visto que
o MS-DOS não conseguia dar conta de processar tantas informações, o que ficou
evidente no Windows Me.
Windows XP e Vista
Lançado em 2001, o Windows XP tornou-se um marco na história dos sistemas
operacionais, principalmente por trazer muitos recursos totalmente novos. Entre
eles é possível citar que o sistema tornou-se muito mais seguro, através da
diferenciação de permissões entre administradores e usuários comuns. A
estabilidade também é uma de suas fortes características, pois o número de telas
azuis diminuíram consideravelmente.
O principal motivo para todo esse avanço é uso do núcleo (kernel) NT como base,
que exclui totalmente a necessidade do MS-DOS. Na verdade, o núcleo NT já vem
sido usado desde outras versões do Windows lançadas para uso de servidores,
como o Windows NT (1993) e Windows 2000 (2000). Contudo, foi somente no XP
que esta arquitetura foi lançada para o usuário comum.
Depois de seis anos de espera, a Microsoft lança o Windows Vista, em 2007, que
foi muito aguardado pelos usuários. Ao contrário do XP, esta nova versão
desapontou o público de uma maneira geral, principalmente por exigir uma
máquina muito potente. Somente em computadores top de linha é possível
observar vantagens no desempenho do Vista, principalmente pela suporte a multicore. Seu grande destaque foram os efeitos gráficos de última geração provido
pelo pelo Aero e o Flip 3D.
Sistemas Operacionais Livres
Até o exato momento, apresentamos a evolução dos principais sistemas
proprietários do mercado: Mac OS X e Windows. Agora, vamos focar nos sistemas
livres. Apesar de fazer bastante sucesso nos anos 70, o Unix continuou a ser
desenvolvido durante toda esta década e a seguinte também. No ano de 1983, um
revolucionário programador chamado Richard Stallman criou o projeto GNU, ele
afirmava que os softwares deveriam ser desenvolvidos de maneira livre, sem
restrições na leitura ou modificação de seus códigos fontes.
Em 1984, o MIT desenvolveu o X Window System, que como o seu nome diz, é
um sistema gráfico de Janelas para o Unix. Ele permaneceu proprietário até 1987,
quando uma versão opensource foi lançada, sendo incorporada no
desenvolvimento deste sistema operacional. Um dos principais objetivos da GNU
sempre foi desenvolver a sua própria versão do Unix, através de um Kernel
próprio, chamado de GNU Hurd. Contudo, este núcleo possuía muitas falhas de
sistema, comprometeu muito o seu desenvolvimento.
O kernel Linux
Visando estas falhas, um programador chamado Linus Torvalds estava
desenvolvendo outro kernel para o GNU, chamado de Linux, em. Em seu primeiro
lançamento oficial (1991), na versão 0.2, o Linux já possuía mais funcionalidades
que o GNU, o que atraiu bastantes desenvolvedores. Pouco tempo depois, o
núcleo criado por Torvalds já era o sistema GNU mais usado do mundo.
Além disso, os programadores eram e ainda são livres para utilizar o kernel Linux
em seus próprios sistemas, o que acabou gerando as famosas distribuições como
conhecemos hoje . As primeiras ficaram conhecidas como Debian e Slackware,
ambas lançadas no Ano de 1993. No início, eram difíceis de serem utilizadas,
comparadas com os Windows 3.11 e 95, pois exigiam um conhecimento profundo
de computação por parte dos usuários.
Com o tempo, as distribuições Linux foram se tornando cada vez mais fáceis de
serem utilizadas, principalmente para atrair o usuário comum do computador.
Atualmente, utilizar este sistema é tão fácil quanto o Windows, principalmente em
distribuições como o Ubuntu.
Mídias de armazenamento: 50 anos de
história
Descubra o que mudou nas tecnologias de transporte de músicas, fotos e dados
nos últimos 50 anos.
Você já parou para pensar no que poderia ser armazenado em um disco rígido de
5 MB? Uma música? Alguns textos? Nada muito importante. Sim, é difícil imaginar
a vida cotidiana sem pensar em gigabytes e terabytes, mas há 50 anos, era assim
que o mundo da informática vivia: baseado em 5 megabytes de espaço em disco.
O ano exato era 1956 e a IBM havia acabado de lançar o então moderníssimo IBM
305 RAMAC, um computador nada portátil que pesava algo em torno de 1
tonelada (1000 Kg). De lá para cá, muita coisa mudou, é óbvio, e o que o usuário
mais tem percebido – mesmo analisando apenas os últimos dez anos – é a
relação inversamente proporcional entre tamanho e capacidade.
Agora o portal Baixaki traz ao usuário algumas informações muito interessantes
acerca da história das mídias de armazenamento, tanto no campo musical, quanto
nos campos fotográfico e digital, relembrando os principais dispositivos criados
para o carregamento de dados e também algumas curiosidades sobre esses
elementos tecnológicos.
Da cera ao iPod...
Hoje é difícil conhecer alguém que não possua um MP3 player ou qualquer outro
reprodutor digital de mídias: 2 GB, 4 GB...Isso parece pouco em alguns
momentos, as mídias armazenam horas e mais horas de canções sem repetições,
mas isso nem sempre foi assim, há muito tempo a história era bem diferente.
Um dos primeiros formatos de mídia musical, o cilindro fonográfico, inventado por
Thomas Edison, era composto de estanho e podia ser reproduzido apenas três ou
quatro vezes. Devido à pouca durabilidade foi criado um outro cilindro, de cera,
que durava mais e possuía maior qualidade.
Em 1895, os cilindros foram
substituídos por discos de goma-laca, que eram tocados em 78 rotações,
possuíam mais potência sonora e armazenava até 44 minutos de músicas.
Já no século XX, na década de 30, foi criado o sistema de gravação em bobinas,
ou fitas de rolo, ou seja, fitas plásticas que podiam guardar os áudios de maneira
eficiente para a época. Tendo em média 16 cm de diâmetro, as bobines foram
inspiração para a posterior fita cassete, que tinha a grande vantagem de ser
extremamente portátil e podia tocar até uma hora inteira.
Dos discos que passaram a ser produzidos em vinil até as fitas magnéticas, muito
tempo passou, até que em 1982 os primeiros CDs começaram a ser
comercializados. Eles possuíam a vantagem de serem gravados digitalmente,
possibilitando melhores equalizações e, por consequência, maior qualidade na
reprodução, que chegava a 80 minutos.
Hoje, o que impera no mundo da música é o iPod (e alguns outros tocadores de
mídia digital), pois a capacidade de armazenamento é gigantescamente superior.
Um iPod de 120 GB pode guardar o tempo de reprodução equivalente ao de 3829
discos de vinil; 3663 minidiscs; 2808 fitas cassete ou 2106 CDs.
Das câmeras instantâneas ao cartão de memória...
No século XX houve a expansão dos mercados consumidores e as câmeras
fotográficas começaram a fazer parte da vida cotidiana de muitas pessoas, mesmo
das que não faziam parte da elite. Logicamente o sucesso não foi algo rápido,
sendo gradativamente alcançado. Durante anos, as câmeras de foto instantânea
imperaram no imaginário popular, até que as primeiras câmeras com filme de
revelação posterior foram lançadas.
A maioria dos filmes podia armazenar entre 12 e 36 fotos que, em seguida, seriam
reveladas e lotariam os álbuns fotográficos que suportavam cerca de 100 fotos e
ocupavam algo em torno de 800 cm³ nos armários das famílias.
Se esses álbuns forem comparados aos primeiros disquetes, já se pode começar
a perceber o quanto a digitalização facilitou o armazenamento das fotografias, pois
um disquete de 3,5 polegadas poderia guardar até 50 fotos em baixa resolução.
Isso era só o começo, afinal um disquete tinha capacidade de apenas 1,44 MB. Já
pensando em mídias mais modernas, como flash drives e cartões de memória,
acoplados às câmeras digitais que já não são mais alimentadas por filmes
químicos, e sim por memória eletrônica, a comparação parece ainda mais
absurda.
Um cartão de memória SD (Secure Digital) ou mSD (Micro Secure Digital) pode
chegar a armazenar até 4000 fotos nos 2 GB de memória interna, sem chegar a
ocupar espaço físico significativo.
Pensando em uma unidade de armazenamento de 120 GB, o acervo de
fotografias poderia chegar a 31 mil fotos, ou então a um disco rígido de 2
Terabytes, em que 680 mil fotos poderiam ser guardadas, o equivalente a 6800
álbuns de fotografias; 28 mil filmes e mais de 1 milhão de disquetes.Do RAMAC
ao pendrive...
Como contado no início do artigo, há pouco mais de 50 anos eram necessários
computadores de mais de uma tonelada para que o armazenamento de 5 MB
fosse possível. O tempo passou, os computadores foram diminuindo e as
capacidades aumentando de maneira inversamente proporcional.
Já foram lançados discos rígidos de 200 MB a 2 TB e não param de surgir novos
modelos. É difícil imaginar o que seria dos usuários hoje, com menos de 80 GB,
assim como é impossível pensar em como seria o mundo da informática de 50
anos atrás, se já houvesse a memória de terabytes.
Mas talvez o maior trunfo já atingido pela indústria da informática esteja na mídia
portátil. Assim como nos dispositivos fixos, os avanços tecnológicos nos
armazenadores portáteis diminuíram as dimensões e aumentaram
exponencialmente as capacidades de memória.
Até os anos 80, o famoso “disquetão” de 5,25 polegadas e 1,2 MB era o mais
usado para transportar dados de um computador a outro. Pouco tempo depois foi
lançado o disquete de 3,5 polegadas e 1,44 MB, que tinha mais vantagem pela
estabilidade (os “disquetões” estragavam com uma facilidade incrível) do que pela
memória em si.
O tempo passou e os computadores pessoais passaram a ser vendidos com
drives leitores de CDs, que possuíam 700 MB, o que representava uma enorme
capacidade de memória, se comparados com os disquetes, que ainda não haviam
sido abandonados, devido aos preços altíssimos dos gravadores de CD. Quando
estes tornaram-se populares, as pequenas unidades flexíveis de 1,44 MB foram
sendo gradativamente deixadas de lado.
Mas os avanços tecnológicos não pararam por aí. Em 1996, exatos 40 anos após
o surgimento do RAMAC, foi lançada uma nova mídia muito semelhante aos
discos compactos: era o DVD (Digital Versatil Disc), que podia armazenar até 4,7
GB e, posteriormente, com o DVD de camada dupla, 8, 5 GB.
Desenvolvido numa parceria entre Toshiba, Philips e Sony, o DVD foi popularizado
como uma mídia cinematográfica, pois a funcionalidade mais explorada pela
indústria foi justamente a de reprodução de filmes. Sendo assim, além dos CDs, o
DVD também foi o algoz de outra mídia muito importante para a história da
tecnologia, as fitas VHS.
Quando os 8,5 GB começaram a ser pouco para tanta qualidade gráfica, a
indústria cinematográfica ganhou um novo parceiro: o Blu-ray. Lançado
oficialmente em 2006, foi a primeira mídia a suportar resoluções altíssimas e áudio
de alta qualidade em discos únicos.
Os discos Blu-ray podem possuir 25 GB ou 50 GB (quando de camada dupla),
sendo pouco utilizados para transporte de dados, já que o processo de gravação é
um pouco demorado e a qualidade é idêntica à de DVDs.
Os dispositivos que mais cresceram nos últimos anos, exclusivamente pela
capacidade, facilidade e velocidade no transporte de dados, foram os pendrives,
que outrora foram limitados aos 32 MB de memória e hoje já chegam a armazenar
mais de 128 GB, sendo as mídias portáteis mais eficientes da atualidade. Em
questões de memória, ficam atrás apenas dos discos rígidos, que podem
armazenar terabytes.
Um pendrive de 128 GB pode ser comparado (em questões
de capacidade interna) com: 28 DVDs; 187 CDs; 91 mil disquetes de 3,5
polegadas ou 109 mil disquetes de 5,25 polegadas. Um disco rígido de 2 TB pode
armazenar o conteúdo de 17 pendrives desses.
Além disso, outra forma de transportar dados de forma segura – mesmo que não
tão portátil – é através do uso de HDs externos. Eles geralmente são acoplados a
gavetas externas e conectados aos computadores através de cabos USB.
Por enquanto o processo de transferência de arquivos é um pouco lento, pois a
velocidade de resposta dos USBs é limitada, mas num futuro próximo - com o
surgimento de tecnologias como o Light Peak - o processo pode ser bem mais
veloz.
Cronologia da evolução dos
computadores
A.C.
~3500 a.C.: os sumérios criam a numeração e o ábaco.
~1500 a.C.: egípcios utilizam o Relógio de sol para contar o tempo.
D.C.
~825 Invenção do conceito de algoritmo
1600
1614 John Napier e os logaritmos
1623 Invenção das calculadoras
1644 A Pascalina
1679 Calculadora de Leibnitz
1689 Calculadora de Brito
1800
1834 A primeira programadora: Augusta Lovelace
1844 Telégrafo de Morse
1861 Francisco João de Azevedo inventa uma máquina de escrever
1873 Primeiro motor eléctrico
1874 Primeira máquina de escrever
1892 máquinas de cálculo de Burroughs
1900
• Década de 1900
1900 Surgimento da memória magnética.
1902 As primeiras tele-impressoras.
1906 O tubo de vácuo.
• Década de 1930
1936 O primeiro computador eléctrico de Atanasoff e início dos computadores
ABC
• Década de 1940
1940 George Stibitz interliga dois computadores via telefone, o que gerou idéias
para o primeiro Modem
1942 Plankalkül (primeira linguagem de programação)
1945 O ENIAC torna-se operacional, inaugurando a primeira geração de
computadores.
1949 Computador EDSAC utiliza fita magnética
• Década de 1950
1950 Primeiro Modem digital
1959 O Circuito Integrado estabelece a sua marca de inovação tecnológica
• Década de 1960
1961 A primeira folha de cálculo eletrônica
1962 O primeiro modem comercial com uma velocidade de 300 Baud
1963 Primeiro mouse
1964 Linguagem de programação Basic
• Década de 1970
1971 O primeiro microprocessador, o Intel 4004
1972 A Xerox inicia o desenvolvimento de uma interface gráfica (GUI)
1975 A Microsoft é fundada por Bill Gates e Paul Allen
1976 A Apple lança o Apple 1
1977 Xerox introduz o laser 9700
1977 Lançamento do Apple II
• Década de 1980
1980 Lançamento do Apple III
1981 Lançamento do IBM PC
1981 Dá-se início ao desenvolvimento do MS-DOS
1983 Apple Lisa
1984 HP pioneira na tecnologia de jacto de tinta
1984 Lançamento do Apple Macintosh
1985 Lançamento do Windows 1.0
1985 Surge o primeiro vírus
1985 Phillips inventa CD-ROM
1987 Windows 2.0
1989 Comunicação Wireless
• Década de 1990
1990 A Adobe lança o Photoshop
1990 Windows 3.0, uma interface gráfica funcional
1991 Nasceu o Linux
1993 Intel Pentium
1993 Lançamento do processador i386 e co-processador matemático i387
1993 Lançamento do Windows NT 3.1
1995 Microsoft lança o Windows 95 com suporte a "ligar e usar"
1996 Lançamento do Windows NT 4.0
1996 Lançamento do Windows CE 1.0
1996 DVD (Digital Versatile/Video Disk)
1998 CDs graváveis e regraváveis (CD-RW)
1998 Microsoft lança o Windows 98
1999 Lançamento do Linux 2.2
1999 AMD cria o Athlon
1999 Nvidia lança a primeira GeForce
2000
2000 MS Windows 2000
2000 MS Windows ME
2001 Lançamento do Linux 2.4
2001 Lançamento do primeiro iPod da Apple Inc.
2001 MS Windows XP
2002 MS Windows XP SP1
2002 Lançamento do Lindows
2002 Lançamento do Linux 2.6
2003 Comunicações WiFi
2003 Lançamento do Microsoft Windows 2003 Server
2005 Microsoft apresenta o Windows Vista
2005 Apple Inc. anuncia a migração da plataforma Macintosh para processadores
Intel
2006 Apple Inc. lança o iPod Nano, o menor iPod com tela LCD e o iPod Video,
com capacidade de armazenamento de até 200GB
2006 Microsoft lança o Windows Vista para uso corporativo
2007 Microsoft lança o Windows Vista a uso doméstico
2007 Apple lança o iPhone
2009 Microsoft lança o Windows 7
2010 Apple apresenta o iPad
2011 Apple apresenta a tecnologia de E/S Thunderbold com a Intel em MacBooks
Pro
2011 Apple apresenta iPad 2 e iOS 4.3
Download

Revista A evolução dos computadores