SILMA CORTES DA COSTA BATTEZZATI
COMUNICAÇÃO SOCIAL COM SOFTWARE LIVRE
Universidade Metodista de São Paulo
Programa de Pós-Graduação em Comunicação Social
São Bernardo do Campo, 2009.
SILMA CORTES DA COSTA BATTEZZATI
COMUNICAÇÃO SOCIAL COM SOFTWARE LIVRE
Tese apresentada em cumprimento parcial às exigências do
Programa de Pós-Graduação em Comunicação Social da
UMESP – Universidade Metodista de São Paulo, para a
obtenção do grau de Doutora.
Orientador: Prof. Dr. Sebastião Carlos de Morais Squirra
Universidade Metodista de São Paulo
Programa de Pós-Graduação em Comunicação Social
São Bernardo do Campo, 2009.
FOLHA DE APROVAÇÃO
A tese de doutorado sob o título “Comunicação Social com Software Livre”
elaborada por Silma Cortes da Costa Battezzati foi defendida e aprovada em 14 de abril de
2009, perante a banca examinadora composta por Daniel dos Santos Galindo, Fábio
Josgrilberg, Luiz Cláudio Martino, Sérgio Amadeu da Silveira.
Assinatura do orientador: _______________________________________________
Nome do orientador: Sebastião Carlos de Morais Squirra.
Data: São Bernardo do Campo, 15 de maio de 2009.
Visto do Coordenador do Programa de Pós-graduação: _______________________
Área de concentração: Processos Comunicacionais.
Linha de Pesquisa: Processos da Comunicação Científica e Tecnológica.
Projeto temático: Comunicação e Tecnologias Digitais.
.
DEDICATÓRIA
Dedico este estudo aos meus familiares. Especialmente
aos meus filhos Rafael, Bruno e Lígia por terem
compreendido os longos momentos de ausência nos quais
deixei de lhes dar merecida atenção.
Ao Valverde, pelo incondicional apoio, amizade, atenção
e carinho de todos os dias.
EPÍGRAFE
Todos os dias de manhã, na África, o antílope desperta.
Ele sabe que terá de correr mais rápido que o mais
rápido dos leões, para não ser morto. Todos os dias, pela
manhã, desperta o leão. Ele sabe que terá de correr
mais rápido que o antílope mais lento para não morrer
de fome. Não interessa que bicho você é, se leão ou
antílope. Quando amanhecer, é melhor começar a
correr. Provérbio Africano.
(Friedman 2005, p. 135).
AGRADECIMENTOS
Ao professor Dr. Sebastião Squirra pela prestimosa
atenção e importantes orientações durante esta
jornada acadêmica.
À Márcia Maria Pitton Henrique, pela constante e
carinhosa atenção.
Ao professor Márcio Antônio Kowalski, pela valiosa
colaboração.
LISTA DE TABELAS
CATEGORIA 1. ANÁLISE COMPARATIVA ENTRE SOFTWARES PARA
PROCESSAMENTO DE AUDIOVISUAL
Tabela 1. Categoria 1. Dados Gerais
143
Tabela 2. Categoria 1. Plataformas de Operação
145
Tabela 3. Categoria 1. Formatos de Alta Definição para Importação de Vídeo
146
Tabela 4. Categoria 1. Formatos de Arquivos de Trabalho e Saída
149
CATEGORIA 2. COMPARAÇÃO ENTRE SOFTWARES DE PROCESSAMENTO
DIGITAL DE SOM
Tabela 1. Categoria 2. Dados Gerais
169
Tabela 2. Categoria 2. Plataformas de Operação
170
Tabela 3. Categoria 2. Interfaces aceitas pelos Softwares
171
Tabela 4. Categoria 2. Tipos de Arquivos para Leitura e Gravação
173
CATEGORIA 3. COMPARAÇÃO ENTRE SOFTWARES DE COMPUTAÇÃO
GRÁFICA 3D
Tabela 1. Categoria 3. Dados Gerais
182
Tabela 2. Categoria 3. Plataformas de Operação
183
Tabela 3. Categoria 3. Tipos de Aplicação Suportada pelo Software
183
Tabela 4. Categoria 3. Funcionalidades e Recursos dos CGI
184
Tabela 5. Categoria 3. Sistema de Rendering
185
Tabela 6. Categoria 3. Suporte a Formatos de Arquivos Vetoriais 3D
186
(Importação/Exportação)
CATEGORIA 4. COMPARAÇÃO ENTRE SOFTWARES EDITORES DE IMAGEM
MATRICIAL OU RASTER
Tabela 1. Categoria 4. Dados Gerais
197
Tabela 2. Categoria 4. Plataformas de Operação
198
Tabela 3. Categoria 4. Funcionalidades Operacionais
199
Tabela 4. Categoria 4. Sistema de Cores
203
Tabela 5. Categoria 4. Suporte a Formatos de Arquivos Raster
204
CATEGORIA 5. COMPARAÇÃO ENTRE SOFTWARES DE DESENHO VETORIAL
Tabela 1. Categoria 5. Dados Gerais
209
Tabela 2. Categoria 5. Plataformas de Operação
209
Tabela 3. Categoria 5. Formatos de Arquivos Vetoriais: Importação
210
Tabela 4. Categoria 5. Formatos de Arquivos Vetoriais: Exportação
210
SUMÁRIO
INTRODUÇÃO
12
CAPÍTULO I. COMUNICAÇÃO SOCIAL NO BRASIL
36
1.1. CURSOS DE COMUNICAÇÃO SOCIAL
37
1.2. NOVAS DIRETRIZES CURRICULARES PARA A ÁREA DA COMUNICAÇÃO
SOCIAL
40
1.3. A COMUNICAÇÃO SOCIAL E O MERCADO DE TRABALHO
45
1.4 . COMUNICAÇÃO SOCIAL E TECNOLOGIAS DIGITAIS
48
CAPÍTULO II. SOFTWARES DE COMPUTADORES: CONCEITOS GERAIS
53
2.1. SOFTWARE PROPRIETÁRIO: PARTICULARIDADES
61
2.2. SOFTWARE LIVRE: PARTICULARIDADES
67
2.3. O SOFTWARE LIVRE E O PARADIGMA LIBERTÁRIO
69
2.4. O MODELO DE DESENVOLVIMENTO DO SOFTWARE LIVRE
78
2.5. MOVIMENTO PELO SOFTWARE LIVRE E AS CULTURAS DA INTERNET
84
CAPÍTULO III. O ENSINO DE COMUNICAÇÃO E A TECNOLOGIA DE
SOFTWARE
96
3.1. UMESP – UNIVERSIDADE METODISTA DE SÃO PAULO
100
3.1.1. O Curso de Radialismo da UMESP
105
3.2. FACULDADES ESEEI: ESCOLA SUPERIOR DE ESTUDOS EMPRESARIAIS E
INFORMÁTICA
108
3.2.1. O Curso de Radialismo da ESEEI
111
CAPÍTULO IV. COMPARAÇÃO ENTRE SOFTWARES PROPRIETÁRIOS E
LIVRES
114
4.1. ANÁLISE COMPARATIVA ENTRE SOFTWARES PARA PROCESSAMENTO DE
AUDIOVISUAL
131
4.2. COMPARAÇÃO ENTRE SOFTWARES DE PROCESSAMENTO DIGITAL DE
SOM
151
4.3. COMPARAÇÃO ENTRE SOFTWARES DE COMPUTAÇÃO GRÁFICA 3D
175
4.4. COMPARAÇÃO ENTRE SOFTWARES EDITORES DE IMAGEM MATRICIAL
OU RASTER
187
4.5. COMPARAÇÃO ENTRE SOFTWARES DE DESENHO VETORIAL
205
CONCLUSÃO
211
REFERÊNCIAS
218
APÊNDICE A . QUESTIONÁRIO – SOFTWARES UTILIZADOS NOS CURSOS DE
RADIALISMO DA UMESP E DA ESEEI
231
APÊNDICE B. QUESTIONÁRIO - CURSO DE RADIALISMO DA UMESP
237
ANEXO 1. FACULDADE DE COMUNICAÇÃO FAC – PROJETO PEDAGÓGICO
DO CURSO DE RADIALISMO
241
ANEXO 2. GRADE CURRICULAR DO CURSO DE RADIALISMO DAS
FACULDADES ESEEI
246
ANEXO 3. DIRETRIZES CURRICULARES PARA CURSOS DE RADIALISMO
250
ANEXO 4. LINUX.LOCAL
263
ANEXO 5. SOFTWARES PROPRIETÁRIOS LICENÇAS
267
GLOSSÁRIO
273
RESUMO
A tecnologização que a sociedade experimenta nas últimas décadas trouxe a profusão de máquinas
informatizadas e seus sistemas de operação. Neste período a indústria desenvolveu sofisticados e caros
softwares aplicativos proprietários para o pleno uso destas máquinas, o que colocou boa parte do
mercado social nas mãos de poucas empresas multinacionais, entre elas, a Microsoft, e outras. Mas, o
espírito libertário de membros das comunidades científicas e hackers promoveu o desenvolvimento do
software livre e aberto, que pode ser usado como bem social mais amplo e, principalmente, evoluir no
melhor do espírito colaborativo. O presente trabalho estuda os dois modelos de produção de software,
os compara visando tornar evidentes as qualidades de cada um, seus custos, rendimentos e
possibilidades de adoção. Projeta a possibilidade de que as habilitações da área da comunicação
possam migrar para o modelo de software livre, dadas as plenas qualidades deste sistema, a radical
redução de custos e as constatações que amplos segmentos da produção audiovisual os está adotando.
Para tanto, compara as experiências aplicadas com ambos os sistemas em dois cursos de comunicação,
em sua habilitação de Rádio e Televisão.
Palavras-chave: Comunicação Social. Software Livre. Rádio e Televisão.
ABSTRACT
The Information Technologies that western societies have been experimenting for the last few decades
brought a profusion of digital machines and their operating systems. During this period, industry
developed sophisticated and expensive proprietary application softwares for the full use of these
machines, and took good part of the social market to the hands of few multinational companies,
Microsoft among them. But the libertarian spirit of some members of scientific and hakers
communities promoted the development of free and open software, that can be used as a ampler social
good, and, mainly, evolve in optimum of the collaborative spirit. The present work studies the two
models of software production, compares them aiming at the evidentes of qualities of each one, its
costs and possibilities of adoption. It projects the possibility that courses of the Social Communication
area could migrate to the free software model, given the qualities of this system, the radical reduction
of costs and the conclusions that ample segments of communication production are adopting them. For
this purpose, it compares the experiences applied with both systems in two courses of communication,
in its qualification for audio and motion picture production.
Keywords: Social Communication. Free Software. Radio and Television.
12
INTRODUÇÃO
Esta pesquisa analisa possibilidades de uso de tecnologias de microcomputadores e
softwares em processos de criação de produtos comunicacionais para rádio e televisão pelas
faculdades brasileiras no contexto de cursos de Comunicação Social.
Para facilitar entendimento sobre o estado da arte destas tecnologias nos cursos de
Comunicação Social é importante discorrer, ainda que brevemente, sobre alguns fatos que
possibilitaram a evolução, até o estágio atual, de algumas outras tecnologias de comunicação.
Uma forma interessante para o agrupamento destes fatos é utilizar a metáfora de Ondas
proposta por Alvin Toffler1 e descrita na obra A Terceira Onda: A Morte do Industrialismo e o
Nascimento de uma Nova Civilização (2001).
Nesta obra o autor explica as fases do desenvolvimento civilizatório, às mudanças
culturais, sociais e tecnológicas que se sucederam, mas que não substituíram integralmente as
antigas. Algumas destas mudanças assemelham-se muito mais àquelas Ondas que ao invés de
substituírem as águas das Ondas anteriores a elas se misturam. Portanto, conforme descrito no
decorrer deste estudo, a metáfora de Ondas é empregada com o objetivo de facilitar a
compreensão das etapas da evolução humana e das tecnologias de comunicação, desde nosso
surgimento na terra nas três Ondas definidas por Toffler.
A Primeira Onda, explica Toffler (2001 p. 8), “[...] começou por volta de 800 a.C. e
dominou a terra sem qualquer desafio até 1750 d.C.” Provocou as mudanças que levaram o
homem nômade, caçador e coletor de alimentos a fixar-se no campo e, desse modo, iniciar a
Civilização Agrícola. A comunicação humana se desenvolveu durante essa Onda dentro de
pequenos grupos – na família e na comunidade. O surgimento da fala, da linguagem e a
invenção da escrita fonética ilustram algumas tecnologias que marcaram a evolução e a busca
dos humanos por recursos que facilitassem sua vida, e o processo de comunicação com outros
humanos. Um processo complexo que envolveu interação através da fala, gestos ou de outros
meios que permitiram a expressão de ideias e conhecimentos no contexto das relações sociais.
Podemos resumir estes fatos com base nas explicações apresentadas por Melvin
1
Alvin Toffler é doutor em Letras, Leis e Ciência. Seus estudos e pesquisas dão enfoque, notadamente, às
tecnologias e seu impacto e efeitos para os seres humanos.
13
DeFleur e Sandra Ball-Rokeach2, autores da obra Comunicação de Massa (1989 p. 31), para
quem a fala e a linguagem parecem ter se originado por volta de 40 mil anos atrás entre
pessoas que fisicamente se assemelhavam com os seres humanos de hoje. “Há pouco mais de
5 mil anos”, continuam os pesquisadores, “os chineses, maias, egípcios e sumérios
dominaram a escrita, utilizando pictogramas para representar ideias. Por volta de 1.700 anos
a.C. os sumérios tiveram a ideia de substituir os pictogramas por pequenos símbolos
estilizados para representar um determinado som em vez de uma ideia e criaram a escrita
fonética.”
Assim, com a fixação do homem na terra, para beneficiar-se da agricultura, foram
criados sistemas numéricos. E a necessidade de ampliar o comércio de produtos levou-o a
inventar a escrita a partir de técnicas que haviam sido empregadas nos sistemas numéricos. A
escrita fonética simplificou significativamente a escrita complexa dos pictogramas e
possibilitou a expansão de seu uso. Mas somente alguns milhares de anos depois, com a
descoberta do papiro foi possível transportar a informação com facilidade, e isso contribuiu
para um processo de mudança na forma de escrita de modo a agilizá-la.
O grande problema com os hieróglifos, e até certo ponto com as tabuletas
cuneiformes, foi o da portabilidade. [...] tinha a capacidade de durar através do tempo,
mas não podia ser facilmente transportada através do espaço. Cerca de 2.500 anos a.C.
os egípcios descobriram um método de fazer uma espécie de papel duradouro usando
o papiro. [...] Os hieróglifos começaram a ser simplificados à medida que os escribas
exigiram tipos mais lisos e fáceis para escrever depressa. (DEFLEUR e BALLROKEACH 1989 p. 35).
A história tem nos mostrado que, uma vez adotadas amplamente pelas sociedades, as
tecnologias provocam significativas modificações sociais, culturais e econômicas em todo o
tecido social das civilizações que as empregam, porém, conforme DeFleur e Ball-Rokeach
(1989, p. 36):
O mais importante nessa mudança da pedra pesada para veículos leves e portáteis é ter
aberto a possibilidade para uma significativa mudança da organização social e cultural
da sociedade. [...] A estrutura institucional inteira foi influenciada. Por exemplo, no
Egito em 2.000 a.C. o papiro era amplamente utilizado para transmitir ordens escritas
e registrar informações de vários tipos. A administração central empregava um
2
DeFleur é doutor em Psicologia Social pela Universidade de Washington. Professor e pesquisador da Escola de
Comunicação Pública da Universidade de Siracusa. Ball-Rokeach, doutora em sociologia pela Universidade de
Washington e professora da Universidade do Sul da Califórnia.
14
exército de escribas. Alfabetização era uma habilidade valiosa, proporcionando uma
porta de entrada para a prosperidade e a elevação social. Os escribas tornaram-se uma
classe privilegiada sobre o controle da elite. [...] Abriram-se bibliotecas. Doutrinas e
escrituras religiosas foram registradas. Foram criadas escolas para ensinar aos
escribas. Até as artes e a ciência começaram a se desenvolver. Tratamentos bem
sucedidos para doença puderam ser anotados por escrito. Observações de numerosos
aspectos da natureza e suas interpretações puderam ser registradas. A mente humana
ficou liberada da pesada tarefa de ter de recordar-se de culturas inteiras e reproduzi-las
nas mentes e memórias de cada nova geração. As ideias puderam ser armazenadas,
acumuladas e consultadas por gerações subsequentes. Esse foi o grande passo para
frente quando os seres humanos penetraram na Era da Escrita.
Outra característica do impacto das Ondas no desenvolvimento das civilizações é que
as tecnologias são absorvidas e ampliadas à medida que de fato resolvem problemas presentes
no ceio das sociedades ou grupos sociais, ou trazem vantagens econômicas significativas
como ocorreu com a introdução da imprensa no século XV.
Anteriormente ao século XV, as pessoas reproduziam livros na Europa preparando
manu script cópias de livros pré-existentes, laboriosamente reproduzidos à mão. [...] o
processo amiúde introduzia erros. [...] o número de livros disponíveis ficava
severamente restrito e só podiam ser adquiridos por pessoas de consideráveis recursos.
A impressão trouxe uma modificação fantástica. [...] milhares de cópias de um
determinado livro podiam ser reproduzidas com grande precisão. [...] uma invenção
fabulosa que espantou o mundo alfabetizado da época. (DEFLEUR e BALLROKEACH 1989, p. 36-37).
Destacamos ainda que as tecnologias não surgem espontaneamente, e sim como
resultado de necessidades de determinado estágio de evolução social, de muito trabalho de
pesquisa e da existência dos requisitos técnicos, culturais e econômicos necessários ao
desenvolvimento de novas tecnologias a partir de outras invenções anteriores. Nesse sentido,
DeFleur e Ball-Rokeach (idem p. 37) observam que a invenção da imprensa não teria sido
possível sem a tecnologia substituta do papiro, o papel, embora o processo de imprimir já
fosse conhecido há muito tempo.
Os chineses haviam feito isso e imprimido o Sutra Diamante, o primeiro livro do
mundo, por volta do ano de 800 d.C. séculos antes da impressão surgir na sociedade
ocidental. [...] Um ponto crítico do eventual surto da impressão no mundo ocidental
foi quando o papel começou a substituir o pergaminho no mundo islâmico durante o
século VII. (o papel surgira muito antes na China.) A partir daí difundiu-se pela
Europa cristã.
15
O surgimento da imprensa3 também não teria sido possível, continuam os
pesquisadores, sem a invenção dos tipos móveis adequados à impressão sobre papel.
Gutenberg acabou descobrindo um meio de misturar chumbo com outros metais numa
espécie de liga que funcionou muito bem mesmo. [...] Prensas haviam sido utilizadas
havia séculos para espremer azeite das azeitonas e vinho das uvas. [...] Ficou lindo! A
impressão estava nítida e perfeita; não havia erros como os cometidos comumente nas
cópias à mão. [...] Sua Bíblia de 42 linhas foi um dos mais belos exemplos jamais
produzidos na arte de impressão. [...] Dez anos depois, Gutenberg morreu na pobreza,
um homem arruinado. Nunca soube que serviço realmente importante prestara a todos
nós […] Ao iniciar-se o século XVI, prensas com tipos móveis estavam produzindo
milhares de exemplares de livros impressos em papel. [...] podiam ser lidos por
qualquer pessoa alfabetizada em seu idioma. A disponibilidade desses livros
incentivou interesse mais disseminado pela aprendizagem da leitura. [...] Pela primeira
vez, as Escrituras estavam acessíveis em outras línguas e não o latim. Não mais podia
a Igreja Romana guardar cautelosamente as escrituras sagradas graças ao emprego de
uma língua antiga. A acessibilidade das Escrituras pelas pessoas comuns, em suas
próprias línguas, acabou levando desafios à autoridade e às interpretações de Roma.
Um novo veículo de comunicação, pois, abriu caminho para protestos contra a cultura
religiosa e social existentes. O surto do Protestantismo levou as novas modificações
profundas que tiveram impacto na sociedade ocidental até os dias de hoje (DEFLEUR
e BALL-ROKEACH 1989, p.38-39).
Ao refletir sobre as explicações de DeFleur e Ball-Rokeach podemos constatar que o
surgimento e o desenvolvimento da civilização Ocidental Moderna estão diretamente
relacionados com o surgimento da imprensa e foram resultado direto da Revolução Industrial
e das transformações que ocorreram na Ciência, na Religião, na Arte e Cultura e na
Economia. Transformações que segundo Richard Tarnas (2008)4 levaram o mundo ocidental
ao que chamamos de Era Moderna.
Como acontecera na revolução cultural da Idade Média muitos séculos antes, as
invenções técnicas desempenharam um papel essencial na formação da nova era.
Neste momento, especialmente quatro delas (todas com precursores no oriente)
entraram em uso disseminado no Ocidente, com imensas ramificações culturais: a
bússola magnética, [...] a pólvora, [...] o relógio mecânico e a imprensa, que produziu
um fabuloso aumento no aprendizado, levando tanto as obras clássicas como as
modernas a um público cada vez mais amplo [...] a imprensa rapidamente divulgava
por toda a Europa novas ideias, muitas vezes revolucionárias. Sem ela, a reforma se
3
4
O alemão Johannes Gutenberg inventou a prensa de tipos móveis em 1450.
Ph. D. pelo Saybrook Institute em 1976. Professor de filosofia e psicologia no California Institute of Integral
Studies em San Francisco, fundador e diretor do programa de graduação em Filosofia, Cosmologia e
Consciência.
16
teria limitado a uma disputa teológica relativamente pequena em alguma província
germânica; a Revolução Científica, tão dependente da comunicação internacional
entre muitos cientistas, também seria totalmente impossível. Além do mais, a
disseminação da palavra impressa e o crescente aumento da alfabetização
contribuíram para um novo ethos cultural, marcado por formas não-comunitárias de
comunicação e experiências cada vez mais individualizadas e privadas, incentivando
assim o crescimento do individualismo. A leitura silenciosa e a reflexão solitária
ajudaram a liberar o indivíduo das maneiras tradicionais de pensar e do controle que a
coletividade exercia sobre o pensamento; agora os leitores individuais obtinham
acesso privado a inúmeras perspectivas e formas de experiência (TARNAS 2008 p.
247-248).
A história da mídia impressa tem demonstrado a íntima relação entre a propagação
do conhecimento científico e a Revolução Industrial, como demonstra Manuel Castells5 em
sua obra A Sociedade em Rede – A Era da Informação: economia, sociedade e cultura (1996
p. 46-51):
[A] informação em seu sentido mais amplo, por exemplo, como comunicação do
conhecimento, foi crucial a todas as sociedades, inclusive à Europa medieval que era
culturalmente estruturada e, até certo ponto, unificada pelo escolasticismo, ou seja, no
geral uma infra-estrutura intelectual. [...] A primeira Revolução Industrial, apesar de
não se basear em ciência, apoiava-se em um amplo uso de informações, aplicando e
desenvolvendo os conhecimentos pré-existentes. E a segunda Revolução Industrial6,
depois de 1850, foi caracterizada pelo papel decisivo da ciência ao promover a
inovação. De fato, laboratórios de P&D aparecem pela primeira vez na indústria
química alemã nas últimas décadas do século XIX [...].
Pois foi justamente a industrialização, resultante da segunda Onda civilizatória, que
propiciou o surgimento do que podemos considerar o primeiro veículo de comunicação de
massa: O jornal do tostão. Um jornal barato, de ampla distribuição e que, de acordo com
DeFleur e Ball-Rokeach, “foi o primeiro verdadeiro veículo de comunicação de massa da
humanidade.” Continuam os autores, “Essas coisas, ocorreram em meados da década de 1830
na cidade de Nova York. O jornal de massa foi um grande sucesso e dali a poucos anos
espalhara-se por muitas partes do mundo” (idem, p. 39).
5
No período de 1967 a 1979 foi professor na Universidade de Paris. Em 1979, nomeado professor de Sociologia
e Planejamento Regional na Universidade de Berkeley, Califórnia. Em 2001, tornou-se pesquisador da
Universidade Aberta da Catalunha em Barcelona. Em 2003, professor de Comunicação na Universidade da
Califórnia do Sul. Segundo o Social Sciences Citation Index foi o quarto cientista social mais citado no mundo
no período 2000-2006, e o mais citado acadêmico da área de comunicação no mesmo período.
6
O fato que caracteriza a segunda Revolução Industrial é a mecanização das atividades industriais para a
substituição do trabalho humano por máquinas movidas a vapor.
17
Portanto, sem dúvida, a invenção de tecnologias como a prensa de tipos móveis por
Gutenberg – inicialmente usada para produção de livros – foi fundamental para o progresso da
civilização humana e propiciou a criação do primeiro jornal de massa.
Nesse contexto é importante lembrar que o surgimento do Jornal do Tostão, quase
300 anos depois da invenção de Gutenberg, só foi possível a partir de outros fatores que o
viabilizaram. Uma contribuição importante nesse contexto está relacionada ao crescimento da
produção industrial de grandes volumes de produtos padronizados, pois este fenômeno
provocou o aumento das vendas dos produtos que passaram a necessitar de publicidade,
assim, foi o valor pago pela publicidade que, por sua vez, financiou o jornal cujo custo de
produção não permitiria que fosse vendido por um tostão. Em seu livro Consumidor versus
Propaganda (1991) Gino Giacomini Filho7 esclarece que no contexto brasileiro também
houve íntima relação entre a imprensa de massa e a propaganda quando aponta o surgimento
da imprensa brasileira no início do século XIX. Mas que se tornou de massa somente no
primeiro quarto do século XX:
Remonta ao início do século XIX a introdução da imprensa, através do Correio
Brasiliense. Em 1808 surge a Gazeta do Rio de Janeiro, publicada em uma coluna com
circulação aos sábados [...] o Brasil dá a partida para massificar a imprensa […]. Em
1825 surgia o Diário de Pernambuco, jornal mais antigo em circulação no país. [...]
Surge em 1875 o jornal A Província de São Paulo, mais tarde transformado em O
Estado de São Paulo [...] mas que não teve consistência [...], pois sua aplicação era ao
mesmo tempo desnecessária e inviável sob o ponto de vista dos meios de comunicação
de massa. [...] Como a publicidade dependeria inicialmente dos veículos impressos, só
a partir dos anos 20 do século passado é que começaria a haver um desenvolvimento
nessa área. (GIACOMINI 1991, p. 28).
Uma segunda contribuição essencial ao surgimento do jornal de massa foi, segundo
DeFleur e Ball-Rokeach (1983, p. 39), a criação de um mercado consumidor formado por
“[...] ampla base de artesãos, mecânicos e mercadores que constituíam as classes média e
trabalhadora nascentes da emergente sociedade urbano-Industrial”, uma nova classe
econômica cuja alfabetização foi requisito para empregar-se na indústria e que passou a
utilizar o jornal para informar-se sobre assuntos de seu interesse.
A terceira e definitiva contribuição também resultante da Revolução Científica e da
7
Bacharel, Mestre e Doutor em Propaganda e Publicidade pela Escola de Comunicação e Artes da USP.
18
industrialização foi a invenção da prensa movida a vapor, que revolucionou as técnicas para a
impressão anterior e possibilitou a impressão rápida de grande número de exemplares de
livros e jornais. Nossa metáfora de segunda Onda, aplicada às tecnologias de comunicação de
massa, iniciou-se com a proliferação do conhecimento acerca da eletricidade e do
eletromagnetismo. Esse conhecimento e invenções decorrentes de seu uso levaram a
fabricação de novas mídias para comunicação de massa, fato que de acordo com Dizard8
(2000, p. 53) “ocorreu com a introdução da transmissão por ondas eletromagnéticas – o rádio
em 1920 e a televisão em 1939”.
A invenção da tecnologia para transmissão de ondas do rádio em 1873 é atribuída ao
italiano Guglielmo Marconi, porém somente em 1915 o americano David Sarnoff encontrou
uma utilidade para viabilizar o uso dessa tecnologia na comunicação de massa. Schiffer nos
apresenta a ideia de Sarnoff:
Eu tenho em mente um plano para desenvolver o rádio no sentido de se transformar
numa utilidade doméstica, no mesmo sentido que o piano ou o fonógrafo. A ideia é
levar música às casas pela comunicação sem fio... O receptor pode ser desenhado na
forma de uma simples Radio Music Box equipada com válvulas de amplificação e um
alto-falante. A caixa pode ser colocada numa mesa da sala, a sintonia regulada
apropriadamente, e a transmissão da música recebida. (SCHIFFER9 apud
MEDITSCH10 2001, p. 32).
Foi essa ideia que a empresa Westinghouse, na qual trabalhava Sarnoff, utilizou para
produzir aparelhos de receptores de rádio e organizar uma emissão regular de música. No dia
2 de novembro de 1920 a emissora KDKA de Pittsburg, em colaboração com o jornal
Pittsburg Post, irradiou os resultados das eleições presidenciais americanas, e desse momento
em diante o crescimento foi rápido e constante até seu auge nos anos 1940, com quinhentas
emissoras licenciadas nos Estados Unidos:
8
Wilson Dizard Jr., associado sênior do programa de políticas do Center for Strategic International Studies em
Washington.
9
Michael Brian Schiffer - um dos fundadores e expoentes da arqueologia comportamental. A partir da década de
1980 realizou estudos sobre mudanças provocadas pelas tecnologias elétricas e eletrônicas.
10
Eduardo Meditsch é doutor pela Universidade Nova de Lisboa. Mestre pela Universidade de São Paulo e
professor da Universidade Federal de Santa Catarina. Autor da obra O Rádio na Era da Informação – Teoria do
Novo Radiojornalismo 2001.
19
[...] foram os chamados 'anos dourados do rádio', período em que este veículo ocupou
uma posição hegemônica na mídia, não só como meio de informação, mas sobretudo
de propaganda e entretenimento. Nessa época o rádio foi considerado 'a oitava arte',
nadou em recursos econômicos e desenvolveu como nunca as suas potencialidades,
como centro das atenções de artistas e intelectuais (SCHIFFER apud MEDITSCH,
2001, p. 32).
Nessa época as emissoras de rádio possuíam a limitação de somente transmitir
programas ao vivo. Essa limitação só foi resolvida em abril de 1948 com a fabricação em
escala comercial de gravadores de áudio em fita magnética. Neste ano a Ampex, empresa
americana que se dedicara à construção de componentes para radares durante a guerra,
tornou-se pioneira na fabricação de gravadores de áudio de qualidade quando entregou as
primeiras sete gravadoras modelo 200 à ABC – American Broadcasting Company colocadas
imediatamente em serviço para reprodução e transmissão de programas gravados
antecipadamente.
As tecnologias do rádio, acrescidas de outros desenvolvimentos tecnológicos,
principalmente relacionados ao desenvolvimento de tubos catódicos para fabricação de
aparelhos de TV, tornaram possível a invenção do terceiro e, possivelmente, mais importante
meio de comunicação de massa até o presente – a televisão.
Embora experiências pioneiras tenham sido realizadas na Europa – Alemanha (1928),
Inglaterra (1929), Itália (1930) e França (1932) – o uso da TV como utilidade pública ocorreu
somente a partir de 1936 na Inglaterra. Quase uma década mais tarde, em 7 de setembro de
1941, a CBS – Columbia Broadcast System fez o primeiro noticiário da televisão na América
do Norte mostrando o envolvimento dos EUA na Segunda Guerra Mundial. Em 12 de junho
de 1951 passou a emitir sinais de TV em cores, no que foi seguida pela NBC - National
Broadcast Corporation em 1954, ambas nos Estados Unidos.
O pesquisador e professor Dr. Sebastião Squirra11 registra na obra O Século
Dourado: A comunicação eletrônica nos EUA (1995, p. 36) a importância da televisão quando
observa que “num terreno amplamente dominado pela mídia impressa, a TV se firmava como
ágil veículo de comunicação na abordagem, discussão e esclarecimento dos temas quentes do
momento”.
De modo a enfatizar o poder de mediação por imagens e áudio da TV, Squirra (idem,
ibidem), apresenta a eficácia da televisão após o atentado contra Kennedy, no dia 22 de
11
Jornalista de televisão, mestre e doutor em Ciências da Comunicação pela Universidade de São Paulo, (1992).
Pós-Doutorado pela University of North Carolina, Estados Unidos (1996). Professor da UMESP e da ECA/USP.
Disponível em: http://buscatextual.cnpq.br/buscatextual/busca.do Acesso 07- 01-09.
20
novembro de 1963, em Dallas: “Cronkite foi ao ar quatro minutos após a primeira
transmissão do fato, feita pela rádio ABC de Nova York. O rádio saiu na frente, mas a
população correu à televisão, pois ansiava 'ver para acreditar no que estava ouvindo' [...] e
uma longa maratona televisiva passou pelas telas. [...] Todos queriam saber tudo e a televisão
estava lá para atendê-los”.
No Brasil a televisão foi inaugurada em 18 de setembro de 1950 pelo jornalista e
empresário Assis Chateaubriand, dono dos Diários e Emissoras Associados, e segundo Squirra
(1995 p.104) “[...] no dia seguinte ao da inauguração, em São Paulo, da primeira emissora
brasileira de TV, a PRF-3 TV [...] foi ao ar um programa de caráter jornalístico que se
chamava Imagens do Dia”.
Do mesmo modo que o rádio, Squirra nos lembra (1995, p.32) que no início das
transmissões pela televisão os programas eram apresentados ao vivo, e assim permaneceram
até o surgimento do videotape ou VTR – Video Tape Recorder. “O primeiro gravador de
imagens para televisão surgiu só em 1956, quando a Ampex Corporation apresentou o
primeiro aparelho de videoteipe [...] com o videoteipe, a produção ficou mais barata e permitia
que todos os programas fossem gravados, editados e estocados”.
Apesar do conhecimento já adquirido com o gravador de áudio, o desenvolvimento
do VTR não foi simples. Até seu lançamento no mercado pelo menos dois projetos de pesquisa
e desenvolvimento inusitados foram pioneiros: O primeiro foi o projeto VERA – um acrônimo
para Vision Electronic Recording Apparatus – iniciado na BBC em 1952 e cujo resultado foi
um videotape que passou a ser utilizado pela emissora após um teste de transmissão realizado
em abril de 1958. O segundo projeto foi o desenvolvido pela Ampex que, dois anos antes da
conclusão do projeto VERA pela BBC, forneceu ao mercado o primeiro gravador de
videotape VRX-1000 às emissoras da CBS em março de 1956.
Mesmo em evolução, a gravação de programas em videoteipe praticamente obrigava
as pessoas a utilizarem um sistema de edição para modificar ou adequar o conteúdo gravado.
De início, os primeiros processos de edição consistiram no corte e emenda física da fita
magnética, de modo similar a cinescopia12, até que em 1963 a Ampex lançou o primeiro editor
eletrônico de videoteipe: o Electronic Editor.
Uma característica básica dos primeiros sistemas de edição era que a edição tinha
que ser feita de modo linear, ou seja, com fitas para entrada sequencial do sinal de vídeo no
editor (normalmente duas) e uma fita para saída do material editado. Por ser sequencial
12
Método utilizado para montagem de filmagens realizadas em película e reveladas quimicamente.
21
tornava-se impraticável introduzir no editor pontos da fita de entrada que não estivessem na
sequência. Dependendo da complexidade da edição, às vezes, os editores produziam saídas
editadas, posteriormente utilizadas como entrada, mas que neste caso traziam prejuízo para a
qualidade da imagem resultante da edição. O ideal seria que a edição pudesse ser não-linear,
ou seja, que fosse possível pinçar trechos do conteúdo de entrada de modo não-sequencial,
aleatório. Nesse contexto, além do desenvolvimento dos primeiros sistemas de edição, Toffler
(2001 p. 28) nos lembra que a partir de 1955 a segunda Onda civilizatória ganhou força. “[...]
A civilização Industrial, [...] dominou então o planeta por sua vez, até atingir a altura máxima.
Este último ponto máximo ocorreu nos Estados Unidos, durante a década iniciada por volta de
1955 – a década que viu os trabalhadores de macacão. Esta foi a década que viu a introdução
do computador, o jato comercial, a pílula anticoncepcional e muitas outras invenções de alto
impacto.”
A esta altura, a tecnologia de computação já estava razoavelmente avançada e havia
desenvolvido sistemas de armazenamento em discos magnéticos que permitiam acesso
randômico (aleatório). Os sistemas de armazenamento de informações em discos magnéticos
permitiam, por exemplo, acesso direto a conteúdos gravados em trilhas do meio do disco sem
a necessidade de se ler sequencialmente a partir da primeira trilha – e, portanto, seria de se
esperar o surgimento de iniciativas voltadas à integração de computadores e de editores
eletrônicos com o objetivo de se criar sistemas de edição de vídeo não lineares mais
sofisticados.
A primeira iniciativa nesse sentido foi realizada pela empresa CMX Editing Systems,
que ao integrar computadores e editores analógicos de videotape construiu o primeiro sistema
não-linear de edição de vídeo em 1971. Segundo informa Peter Sharp (2007)13, os sistemas
CMX foram desenhados para possibilitar tanto edição linear, inclusive para editar conteúdo
gravado ao vivo, quanto não-linear em fase de pós-produção a partir de conteúdos de vídeo e
áudio gravados em videotapes. Ocorreu que esta iniciativa pioneira não teve o sucesso
esperado, pois na época as duas principais tecnologias – os computadores e os editores
eletrônicos – ainda eram muito caras. Um sistema CMX600 não custava menos que US$
250.000,00, ou seja, um quarto de milhão de dólares, quantia elevada até mesmo para grandes
empresas de mídia, esclarece Sharp.
Entretanto, esta questão do preço começou a ser resolvida com a miniaturização do
hardware eletrônico, com o desenvolvimento da indústria dos microprocessadores e da
13
Autor de Da lâmina de barbear ao desktop - Uma história de edição de vídeo (2007). Disponível em:
http://www.netribution.co.uk/content/view/1236/277/ Acesso em 20/01/09.
22
indústria de software, potencializada pela computação gráfica e pelo desenvolvimento e
popularização das GUI – Graphic User Interface. A partir de meados dos anos 80, fabricantes
de hardware e software, como a Steinberg Media Technologies GmbHpor14 começaram a
desenvolver placas (hardware) especializadas no processamento de sinais de áudio e vídeo,
bem como imensa variedade de softwares de edição e composição de áudio e vídeo para
funcionamento em plataformas PC – Personal Computer da IBM – e Macintosh da APPLE
Computer.
Encontramos-nos no estado da arte onde praticamente todas as atividades
relacionadas à produção de audiovisuais já podiam utilizar-se de tecnologias digitais baseadas
em sistemas (computadores, placas, interfaces) e softwares especializados para a produção de
conteúdos comunicacionais, notadamente para rádio e televisão. Squirra (2000 p. 1) ilustra
este estado da arte ao afirmar que:
Impossível não abordar as imagens digitais, já que o mundo ciberespacial está
presente e repleto de situações onde as imagens (e suas novas interpretações artísticas)
são veiculadas, dos CD-ROMs aos videojogos, dos novos quadrinhos às Home Pages
etc. Atualmente, grandes volumes de imagens (e textos) estão sendo guardados em
gigantescos bancos de dados que se encontram, conforme o caso acessível a muitos. O
mundo digital chegou e já atingiu todas as mídias, sobretudo a fotografia, o cinema e a
televisão. (ibidem).
Portanto, do ponto de vista da tecnologia o contexto da terceira Onda é, a princípio,
caracterizado pelo período que marca o final do século XX e início do século XXI. Um
período marcado pelo aparecimento de inovadores dispositivos de comunicação, mais baratos,
menores e mais performativos e que facilitam enormemente a comunicação entre humanos.
Na concepção de Toffler (2001 p.28) embora tenha iniciado por volta de 1955, foi no final do
século XX “[...] que a Terceira Onda começou a ganhar força nos Estados Unidos. Desde
então chegou – em datas um pouco diferentes – à maioria das outras nações industrializadas,
inclusive a Grã-Bretanha, a França, a Suécia, a Alemanha, a União Soviética e o Japão”.
Nesse momento, nos explica o pesquisador, o aparecimento de inovadores
dispositivos de comunicação modificou drasticamente o modo como cada indivíduo passou a
ver, entender e interagir no mundo, pois, novos aparatos tecnológicos de comunicação
trouxeram consigo, além de inovadoras possibilidades para a comunicação, novas
14
Empresa sueca pioneira nesse tipo de produção.
23
possibilidades para o acesso às informações nos mais distantes pontos do globo. Neste
cenário, Pierre Lévy15 (1999) observa que “o universo da cibercultura16 traz consigo a
promessa de permitir que todos possam ter acesso a novas formas de comunicação e
informação independentemente de localização geográfica e de tempo.”
Outra característica básica da terceira Onda postulada por Toffler (idem p. 172) é a
desmassificação dos media. A desmassificação “[...] intensifica os meios de comunicação, traz
com ela um enorme salto na quantidade de informação que todos trocaremos uns com os
outros. E é este aumento que explica por que estamos nos tornando a ‘sociedade da
informação’.” A desmassificação dos media é um fenômeno diretamente relacionado com o
acesso de todo tipo e tamanho de empresas e até mesmo de indivíduos as tecnologias de
produção e de acesso a conteúdos. Com a desmassificação formam-se milhares de grupos de
interesse, cujos membros podem atuar tanto como receptores quanto como produtores de
mensagens comunicacionais através dos acessos às tecnologias de produção e publicação de
mensagens. O sucesso global do fenômeno Youtube é um exemplo desta realidade, pois neste
início do século XXI, parece que cada vez mais o ser humano concede aos novos meios de
comunicação e, portanto, a tecnologia, um status especial. Como se fosse uma lei natural, que
não leva em consideração o fato de que “[...] a tecnologia está longe de ser neutra. Ela modela
nossas escolhas, ela dirige as nossas ações” (NAISBITT 1999, p.28).
As ideias de Toffler e de Naisbitt17 se complementam quando constatamos que
ambos ressaltam que a desmassificação que os media refletem e intensificam simultaneamente
traz consigo um enorme salto na quantidade de informações que trocamos uns com os outros.
Este aumento na troca de informações pode explicar, por exemplo, porque cada vez mais os
humanos se comunicam por meios de novas tecnologias digitais, que facilitam o acesso e a
troca de informações à distância e em tempo real. Antes do surgimento da sociedade da
Informação, explica Dizard (2000 p. 102) “as inovações se desenvolviam lentamente, a
intervalos de muitos anos, dando tempo para a adaptação das novas técnicas às realidades
sociais existentes, atualmente o tempo é cada vez mais um bem precioso e escasso, tal qual o
conhecimento, o acesso às informações e o uso das novas tecnologias não aceitam limitações
15
Filósofo, especialista em novas tecnologias da comunicação e professor da Universidade de Paris VIII Departamento de Hipermídia.
16
O termo é formado pela junção do prefixo cyber com a palavra cultura. É empregado para descrever as novas
culturas virtuais - da qual fazem parte pessoas familiarizadas com as novas tecnologias digitais e que navegam
com desenvoltura pela rede mundial de computadores-Internet.
17
Ex-executivo da IBM e da Eastman Kodak, trabalhou na equipe presidencial americana durante a
administração John F. Kennedy e foi assistente especial do presidente Lyndon Johnson. Autor da Obra High
Tech - High Touch (1999).
24
geográficas ou de tempo.” Com isso torna-se necessária uma maior integração entre os
sistemas educacionais e o mercado de trabalho já que na nova economia do conhecimento os
estudantes devem ser preparados para aprender a aprender durante toda a vida, como forma de
manterem-se atualizados em um ambiente tecnológico de rápidas e constantes mudanças.
Nesse contexto, Juan Luis Cebrián18, na obra intitulada A Rede: como nossas vidas serão
transformadas pelos novos meios de comunicação (1999 p. 17), ressalta:
A aprendizagem converteu-se em um desafio para a vida inteira. Quando um jovem se
forma na universidade, muito do que aprendeu em seu primeiro curso já ficou
obsoleto. As fábricas modernas estão transbordando de computadores, robôs e redes, e
os operários aprendem continuamente técnicas novas e sofisticadas. Como a nova
economia é uma economia do conhecimento, a aprendizagem faz parte da atividade
econômica cotidiana e da vida, e tanto as empresas quanto os indivíduos descobriram
que têm de assumir a responsabilidade de aprender, se querem realmente funcionar.
A capacidade para se aprender a utilizar profissionalmente novas tecnologias de
informação e comunicação pode ser um fator primordial para o desenvolvimento econômico
das nações. O jornalista Thomas Friedman19, autor de O Mundo é Plano (2005), nos relata
alguns exemplos do que dissemos. Para ele as novas tecnologias de informação e
comunicação, notadamente a Internet, e a capacidade para utilizá-las têm sido importantes
para aumentar a geração de empregos em países como China e Índia. O pesquisador constatou
que nestes países20 a Internet permite que os cidadãos possam interagir no ciberespaço21 com
novos conteúdos, ideias e como membros de grupos organizados de trabalho capazes de
mobilizar, aproveitar e canalizar correntes de informações em benefício próprio e coletivo.
É inegável que agora um número maior do que nunca de pessoas tem a possibilidade
de colaborar e competir em tempo real com um número maior de outras pessoas de um
18
Filósofo e jornalista europeu, membro da Real Academia Espanhola e do Clube de Roma em Madri. Tornou-se
famoso na década de 1960 ao publicar o informe: Os limites do crescimento, elaborado por uma equipe do
Massachusetts Institute of Technology – MIT.
19
Friedman é jornalista e conquistou três vezes o Prêmio Pulitzer por suas colunas de política externa no jornal
The New York Times. É autor de De Beirute a Jerusalém – ganhador do National Book Award; O Lexus e a
Oliveira; Entendendo a Globalização; e Longitudes and Attitudes: Exploring the World After September 11”.
20
Durante viagem o autor visitou algumas empresas de terceirização de trabalhos na Índia, como a Infosys
Technologies Limited, atuante na área da tecnologia da informação.
21
Espaço que exclui limitações geográficas e a necessidade da presença física das pessoas em processos de
comunicação, pois a comunicação ocorre no espaço virtual, mediada por computadores, a qualquer tempo, lugar
ou hora.
25
número maior de cantos do globo, num número maior de diferentes áreas e num pé de
igualdade maior do que em qualquer momento anterior da história do mundo – graças
aos computadores, ao correio eletrônico, às redes, à tecnologia de teleconferência e a
novos softwares mais dinâmicos. [...] estamos interligando todos os centros de
conhecimento do planeta e costurando uma única rede global, o que (se a política e o
terrorismo não atrapalharem) pode precipitar uma era notável de prosperidade e
inovação (ibidem, p.16).
Para ilustrar a afirmação acima Friedman relata como os computadores e outras
tecnologias digitais de informação estão a transformar a vida das pessoas nessa parte do
mundo, incluindo-as no mercado de trabalho global, desde que estejam preparadas para lidar
com tecnologias de informação e comunicação:
[...] Fui parar em Bangalore, o Vale do Silício indiano. Cheguei à Índia pelo leste.
Tudo o que eu queria era entender por que os indianos que conheci estavam tirando o
trabalho dos americanos, por que haviam se tornado uma referência tão importante no
campo da terceirização de serviços e tecnologia da informação dos EUA e outros
países industrializados. [...] muitas pessoas que lá conheci mais pareciam americanas.
Algumas chegaram a adotar nomes americanos, enquanto outras reproduziam à
perfeição o sotaque americano nos call centers e as técnicas americanas de
gerenciamento nos laboratórios de software. [...] o que aconteceu nos últimos anos foi
que houve um investimento maciço em tecnologia, sobretudo no período da bolha,
quando centenas de milhões de dólares foram investidos na instalação de
conectividade em banda larga no mundo inteiro, cabos submarinos, essas coisas.
Paralelamente, [...] houve o barateamento dos computadores, que se espalharam pelo
mundo todo, e uma explosão de softwares; correio eletrônico, motores de busca como
o Google e softwares proprietários capazes de retalhar qualquer operação e mandar um
pedaço para Boston, outro para Bangalore e um terceiro para Pequim, facilitando o
desenvolvimento remoto. Quando todos esses fatores se reuniram, por volta do ano
2000 [...] engendraram uma plataforma com base na qual o trabalho e o capital
intelectuais poderiam ser realizados de qualquer ponto do globo; tornou-se possível
fragmentar projetos e transmitir, distribuir, produzir e juntar de novo as suas peças,
conferindo uma liberdade muito mais ampla ao nosso trabalho, principalmente o
trabalho intelectual. [...] o que se vê em Bangalore, não passa do clímax desse
processo de convergência. [...] países como a Índia hoje estão aptos a competir pelo
trabalho intelectual global como nunca antes. (ibidem, p.12-15).
No relato de Friedman, que apresentamos a seguir, também é possível perceber que a
comunicação em alta velocidade pela rede propicia novas oportunidades de comunicação e de
trabalho, sobretudo terceirizados, para pessoas com diferentes profissões e nos mais diversos
lugares do mundo.
26
Cerca de 70 mil contadores, acrescenta ele, se formam na Índia a cada ano; muitos são
contratados pelas empresas locais por um salário inicial de 100 dólares por mês. A
comunicação em alta velocidade o treinamento rigoroso e os formulários padronizados
permitem converter esses jovens indianos, num prazo relativamente breve e a um
custo pífio, em contadores ocidentais rudimentares. Certos escritórios de contabilidade
indianos chegam a divulgar seus serviços junto às firmas americanas por meio de
teleconferências, a fim de economizar a viagem. [...] A profissão de contador está
atravessando um momento de transição. Aqueles que se aferrarem ao passado e
resistirem às mudanças vão se afundar na massificação. Por outro lado, os que se
mostrarem aptos a agregar valor – mediante a sua liderança, os seus relacionamentos e
sua criatividade – não só transformarão o setor como vão fortalecer seus
relacionamentos com os clientes (ibidem, p.23).
Em outro exemplo, Friedman nos mostra como as novas tecnologias também estão a
provocar mudanças e novas oportunidades de trabalho em áreas que até há pouco tempo eram
consideradas intocáveis do ponto de vista de seus profissionais, como o jornalismo. Sobre este
fenômeno relata o autor:
Graças a Deus sou jornalista, não contador nem radiologista. No meu caso não tem
terceirização (por mais que alguns dos meus leitores preferissem que a minha coluna
fosse despachada para a Coréia do Norte). Pelo menos era o que eu pensava – até
tomar conhecimento da operação da agência de notícias Reuters na Índia. [...] com
2.300 jornalistas em todo o mundo, espalhados em 197 escritórios, e atendendo um
mercado que vai desde bancos de investimentos, corretoras de ações e investidores
que aplicam no mercado de derivativos até jornais, rádios, emissoras de televisão e
sites da Internet, a Reuters sempre teve de satisfazer um público muito complexo.
Depois da derrocada das empresas ponto-com, no entanto, quando muitos dos seus
clientes passaram a prestar mais atenção aos seus gastos, a agência começou a se
perguntar, por uma questão tanto de custo quanto de eficiência: onde realmente
precisamos que o nosso pessoal esteja, a fim de alimentar nossa cadeia global de
fornecimento de notícias? Não será possível dividir o trabalho de um jornalista,
mantendo parte em Londres e Nova York e transferindo o resto para a Índia? [...] Não
seria possível dividir as funções do jornalista e transferir as funções de baixo valor
agregado para a Índia? [...] reduzir ao máximo as redundâncias na folha de pagamento
da Reuters, ao mesmo tempo preservando o maior número possível de cargos para
bons jornalistas. [...] a primeira coisa foi contratar, a título de experiência, seis
jornalistas de Bangalore. A ideia era que eles cuidassem das notas rápidas, das tabelas
e tudo o mais que pudesse ser feito por lá. Os novos funcionários indianos tinham
formação em contabilidade e foram treinados pela Reuters, mas recebiam salários,
férias e benefícios de acordo com o mercado local. [...] a terceirização dos boletins
para a Índia permitiu a Reuters ampliar sua cobertura, que agora inclui um maior
número de pequenas empresas – algo inviável para a agência antes, em virtude dos
salários mais altos dos jornalistas de Nova York. (ibidem, p. 27 -29).
27
As mudanças provocadas pela terceira Onda de evolução das tecnologias,
notadamente digitais, da informação e comunicação são, objetivamente, apresentadas por
Squirra apud Marques de Melo (2008 p.160 grifo nosso) quando este pesquisador explica:
As infindáveis configurações dos processos digitais, sistemas que delineiam
extraordinárias abrangências de conexão e alto poder de sedução, representam
realidades palpáveis em todos os cantos do globo nos dias atuais. Este dinâmico e
moderníssimo cenário de possibilidades e incrementos – e entendimento – dos desejos
pessoais representa uma radical mudança de paradigmas tecnológicos, uma vez que
até passado recente as descobertas do mundo moderno separavam o Hemisfério Norte
do Sul, distanciando as nações evoluídas daquelas que se encontravam realizando
esforços desenvolvimentistas. O mundo digital praticamente rompeu com esta
tradição, principalmente no tempo de implantação do excitante parque de
modernidades tecnológicas, pois a voracidade globalizante do capital, a alta
competitividade empresarial e a diminuição – e consequente barateamento dos
equipamentos e seus componentes, além da comunicação em tempo instantâneo, têm
feito com que as evoluções tecnológicas sejam adotadas quase ao mesmo tempo no
planeta inteiro. Entendo ser seguro afirmar que isto vem alterando de forma
consistente os hábitos e opções de comunicação entre todos os seres humanos, uma
vez que a sociedade está interconectada – e em tempo real, nas ‘pontas dos dedos’ –,
fazendo com que todos aqueles com algum recurso e conhecimentos elementares de
tecnologia possam desfrutar das benesses tecnológicas disponibilizadas nos últimos
anos. As distintas concretizações que os avanços tecnológicos trouxeram constituemse como multifacetados processos comunicacionais, possibilitados por tecnologias
altamente complexas (mas que são ‘amigáveis’ na presença do consumidor), que
materializam os sempre sonhados projetos de colocar à disposição do ser humano
volume expressivo de possibilidades de conexão para seu bem-estar, entretenimento,
cultura e evolução, pessoal e profissional.
No Brasil, como em alguns outros países em desenvolvimento, o acesso aos novos
sistemas digitais de informação e comunicação também abre novas possibilidades de trabalho.
Entretanto, para muitos brasileiros sem nenhuma qualificação profissional, muitos analfabetos
funcionais, as novas tecnologias digitais trazem medo e insegurança. Nesse sentido, cabe às
empresas e, principalmente, às instituições educacionais a tarefa de aproximar os cidadãos da
nova realidade tecnológica que toma conta dos setores produtivos do país e prepará-los para
que possam interagir com tranqüilidade, segurança e competência no seu meio social e
profissional.
Pelo que expusemos até agora, parece-nos essencial que a formação dos egressos de
comunicação social contemple o uso intensivo das tecnologias digitais, em especial a
formação dos egressos de Radialismo que utilizam novas tecnologias o tempo todo para
realizar suas atividades profissionais. Isto posto, é importante que as instituições de educação
28
superior do país analisem o emprego destas tecnologias nos processos de ensino conforme
determinam as Diretrizes Curriculares Nacionais – Parecer n.º 492/2001 do CNE/CES,
aprovadas em 03/04/2001 pelo CNE que, no caso do ensino superior, definiram as regras a
partir das quais a área da comunicação e suas habilitações deveriam se estruturar.
As Diretrizes Curriculares Nacionais podem ser compreendidas como um conjunto
de princípios, fundamentos e procedimentos que devem ser observados na organização
pedagógica e curricular dos cursos que integram o sistema de ensino brasileiro, conforme
determina a Lei 9394/96 – Lei de Diretrizes e Bases da Educação Nacional. É um documento
que estabelece parâmetros gerais e específicos para formação profissional dos egressos da
comunicação e que enaltece a importância do desenvolvimento de competências para uso das
novas tecnologias digitais nas mais diversas atividades produtivas da área tendo em vista a
vinculação entre educação, mundo do trabalho e prática social, consolidando assim a
preparação do indivíduo para o exercício da cidadania e para o trabalho.
Conforme o Parecer n.º 492/2001 do CNE/CES, as diretrizes nasceram com os
objetivos de: a) flexibilizar a estruturação dos cursos, não mais submetidos à exigência de um
currículo mínimo obrigatório, buscando a diversificação de experiências de formação para
atender as variedades de circunstâncias geográficas, político-sociais e acadêmicas, para
ajustar-se ao dinamismo da área, e para viabilizar o surgimento de propostas pedagógicas
inovadoras e eficientes; b) recomendar procedimentos e perspectivas essenciais, de modo a
funcionar como um padrão de referência para todas as instâncias que, buscando a qualidade,
objetivem uma sintonia com posições majoritariamente defendidas pelas instituições e
entidades representativas da área; c) estabelecer critérios mínimos de exigência, no que se
refere à formulação e à qualidade da formação, que possam funcionar como parâmetro básico
de adequação e pertinência para os cursos da área. Segundo Faro apud Peruzzo (2003 p. 143),
este documento deixa claro, portanto, a missão das escolas de comunicação do país:
[...] desenvolver nos jovens competências intelectuais e profissionais para que possam
compreender o meio social em que vivem e para refletirem sobre os problemas
brasileiros; saberem utilizar as novas tecnológicas em suas atividades profissionais e
conviverem em harmonia com as mudanças que se apresentam no contexto da
sociedade da informação.
A vinculação entre educação, mundo do trabalho e prática social pressupõe o
desenvolvimento de competências para uso de novos recursos tecnológicos nas diversas
profissões de comunicação. Portanto, a formação e a qualificação profissional para uso de
29
tecnologias de hardware e software compõem o conjunto de responsabilidades das
universidades brasileiras, pois, notadamente a partir da década de 1990, os processos de
comunicação, produção e geração de riquezas se tornaram muito dependentes destas
tecnologias. Isto posto, perspectivas acerca do uso correto e útil das tecnologias de software
como instrumentos para difusão de ideias e criação de variados produtos de informação para
rádio, televisão ou Internet tornam-se questões centrais – política, econômica e social – para
as escolas de comunicação do Brasil diante da responsabilidade de formarem profissionais
qualificados e com capacidade para interagir no mundo de trabalho. Em especial na área de
Radialismo (rádio e televisão), pois a maioria das atividades realizadas nesse campo
profissional demanda o uso intensivo de novos recursos tecnológicos.
Outros desafios relacionados à formação de profissionais qualificados e que precisam
ser enfrentados e superados pelas faculdades de comunicação neste início do século XXI estão
relacionados à necessidade de pesados investimentos em equipamentos (hardwares,
softwares, instalações e suporte técnicos) e a questão das preferências individuais e do
mercado por determinada tecnologia, já que muitas áreas da indústria de tecnologia são
dominadas por oligopólios e monopólios.
Do ponto de vista econômico, na maioria das vezes, as empresas usuárias de
softwares além de comprá-los são obrigadas a realizar investimentos contínuos para atualizar
versões anteriores e, em alguns casos, arcar também com pagamentos de licenças para uso,
assistência e manutenção destes produtos, popularmente conhecidos por softwares
proprietários. Algumas indústrias de software proprietário parecem utilizar a estratégia da
obsolescência planejada para vender seus produtos, o mesmo produto várias vezes e com um
mínimo de inovações utilizáveis, pois o propósito maior é o de obter ganhos para financiar
suas máquinas de pesquisa, desenvolvimento e marketing.
Uma nova opção de tecnologia de software tem sido cada vez mais discutida entre os
empresários em todas as partes do mundo, e pela sociedade em geral: os softwares livres,
também conhecidos por softwares com código aberto. Este tipo de software é, geralmente,
desenvolvido por comunidades de especialistas e empresas que têm entre seus objetivos
compartilhar conhecimentos sobre inovações tecnológicas, sem, necessariamente, visar lucro,
pois os usuários desta tecnologia podem saber como o software foi ou é construído, copiá-lo,
modificá-lo e distribuí-lo na sua forma original ou com modificações, inclusive através da
própria Internet, sem, necessariamente, ter que pagar licença. Assim, do ponto de vista
econômico, os softwares livres podem contribuir para superação de alguns problemas
relacionados à necessidade de pesados investimentos em equipamentos pelas faculdades de
comunicação, uma vez que contribuem para a redução de despesas com pagamentos de
30
licenças, por exemplo.
No capítulo 2 desta pesquisa explicamos com detalhes as características dos
softwares livres, todavia, para se compreender a importância dessa tecnologia no estado da
arte do ambiente tecnológico da sociedade contemporânea é preciso, primeiro, contextualizar
a relevância econômica do segmento do software na indústria de Tecnologia da Informação –
TI. Indústria que, de acordo com Joseph Straubhaar22 e Robert LaRose23 autores de
Comunicação, Mídia e Tecnologia (2004, p. 205), têm dois setores principais: a dos
fabricantes de hardware e a dos publicadores de software:
Fabricantes de hardware fazem as máquinas, e os publicadores de software fazem os
programas que rodam nas máquinas. Combinados, os negócios mundiais de hardware
de computador e de software compreendiam um mercado de mais de US$ 300 bilhões
por ano ao final do século XX (Departamento do Comércio Americano, 1993).
Enquanto algumas empresas estão envolvidas nos dois setores de negócios, como a
IBM e a Apple, a maioria das empresas prefere se especializar em hardware ou em
software e mesmo se especializar em nichos específicos. (STRAUBHAAR e
LAROSE, ibidem).
A indústria de hardware, explicam os autores, divide-se em quatro áreas principais:
[...] os próprios computadores […], os dispositivos de armazenamento de computador
(como os leitores de disco), os terminais de computadores e os periféricos (como
impressoras e modens). [...] Coletivamente, os fabricantes de hardware de computador
nos Estados Unidos compunham uma indústria de US$ 65 bilhões por ano que
empregava cerca de um quarto de milhão de pessoas ao final do século XX. (idem,
ibidem).
Enquanto na indústria de softwares as empresas são agrupadas em três segmentos
distintos:
[...] companhias que escrevem programas de computador personalizados, companhias
que vendem softwares pré-empacotados e companhias que projetam sistemas
22
Professor de Comunicações do Departamento de Rádio-TV-Film - Universidade do Texas em Austin, Estados
Unidos. Diretor associado de Programas Internacionais do Instituto de Telecomunicações e Informação Política
na Universidade do Texas.
23
Professor Titular e Diretor do Departamento de Telecomunicações da Universidade de Michigan. Realiza
pesquisas sobre os usos e efeitos da Internet. Disponível em: https://www.msu.edu/~larose/ Acesso 10/12/08.
31
integrados por computador, como aqueles que costumam rodar em grandes fábricas.
Em termos de empregos, a ponta de software da indústria é duas vezes maior que a
ponta de hardware com mais de 400 mil empregados nos Estados Unidos (nos anos
90); os empregados são igualmente divididos entre esses segmentos principais da
indústria. (STRAUBHAAR e ROBERT LAROSE 2004, 207).
No segmento dos fabricantes de softwares pré-empacotados estão as companhias
“que fornecem programas de aplicação popular (processadores de textos, planilhas
eletrônicas, jogos de computador) para computadores pessoais. Atualmente, esse é um
negócio de mais de US$20 bilhões por ano nos Estados Unidos, cerca de cinco vezes o
tamanho de outra indústria de software muito conhecida, os filmes de cinema.” (idem,
ibidem).
Neste mesmo segmento se encontram os fornecedores dos softwares cada vez mais
necessários para a criação de produtos comunicacionais e para a veiculação de mensagens e
símbolos através do rádio, televisão, Internet, telefone ou de outros tipos de mídia, como
DVD, CD etc. São, por exemplo, os softwares especializados no processamento de imagens e
desenho, modelagem e animação 2D e 3D, processamento de som, processamento de vídeo
etc.
Em outras palavras, a participação do componente software na indústria de TI
demonstra sua importância na área da computação, e isso é bem percebido no segmento do
software personalizado, também denominado sistemas embarcados, como demonstra Cezar
Taurion24 em sua obra Software Livre - Potencialidades e Modelos de Negócios (2004 p. 2).
À medida que a computação torna-se onipresente, embutindo-se nos objetos que nos
cercam, os softwares passam a ser a mola mestra para o controle de bilhões de
dispositivos que, em sua maioria, estarão operando em tempo real, interconectando-se
uns com os outros. O software passará a ser o cerne das atividades humanas. Sem
softwares, nosso elevador não funciona, nosso automóvel ficará parado, não
conseguiremos completar uma ligação telefônica, não vemos televisão, não teremos
luz elétrica, água e nem gás (TAURION, ibidem).
24
Taurion é formado em Economia pela UFRJ, com pós-graduação em Ciências da Computação pela PUC-RJ e
MBA em Marketing pela FGV-RJ (Informações enviadas pelo pesquisador por correio eletrônico em 20/01/09).
32
Outra questão importante, relacionada aos softwares, diz respeito às formas como os
programas são fornecidos pela indústria de TI. De modo geral, os softwares são registrados
como propriedade intelectual dos produtores, ou seja, são softwares proprietários, fornecidos
sob licença, de modo a proteger os direitos autorais dos fabricantes. Por esse motivo, as
vendas de softwares proprietários estão condicionadas por licenças de uso, ou seja, o usuário
não compra o produto e sim o direito de utilizá-lo dentro dos limites da licença. Na maioria
dos casos, as cópias adquiridas são fornecidas na forma de programas executáveis25 e as
licenças impedem que o comprador tire cópias ou conheça como o produto foi construído ou
como o programa opera. As licenças, por suas vez, podem variar em função da clientela e da
forma como os softwares são utilizados ou vendidos:
[...] vendas para usuários individuais são feitas através de pontos de venda de varejo,
que oferecem uma ampla coleção de títulos de softwares. Muitos dos softwares que
chegam às mãos de consumidores privados são vendidos em pacotes já instalados em
hardware de computador por ocasião da compra inicial. [...] Cada vez mais as
empresas de software vendem seus programas na forma de licenças locais, que
permitem que um número especificado de usuários de redes de computadores acesse o
software simultaneamente, em vez de comprar cópias em separado para cada membro
da organização (STRAUBHAAR e ROBERT LAROSE 2004, 207-208).
Alguns softwares livres também são licenciados, mas, geralmente, são distribuídos
com código aberto26, assim, como já dissemos, os usuários dessa tecnologia podem conhecer,
estudar e aperfeiçoar seus códigos fonte. A principal força produtiva de software livre não é a
indústria tradicional de TI e sim comunidades de desenvolvedores. Muitos destes
desenvolvedores fazem parte do movimento pelo software livre no qual estão envolvidas
milhares de comunidades. São comunidades muito recentes e, na maioria dos casos, se
estabeleceram em fábricas virtuais sediadas na World Wide Web. Em alguns casos, as
comunidades que desenvolvem software são financiadas pelas próprias empresas líderes da
Indústria de TI, que ao invés de desenvolverem elas próprias os produtos, pagam pelos
serviços dos membros dessas comunidades e, além de os utilizarem, concordam que os
mesmos sejam disponibilizados na Web para uso por todas as pessoas ou organizações que se
25
Os programas executáveis impedem que os humanos conheçam como foram codificados. O código executável
é gerado em linguagem de máquina e somente os computadores são capazes de interpretá-los.
26
Isto significa que o usuário tem acesso aos códigos fonte, ou seja, podem ver como o programa foi escrito e o
que faz desde que tenha conhecimentos da linguagem de programação utilizada.
33
interessarem.
Trata-se de um novo paradigma de financiamento das operações de empresas de
software, mas que, exatamente por esse motivo, suscita algum a desconfiança. Muitas pessoas
se perguntam, por exemplo, se terão o suporte necessário ao funcionamento dos produtos caso
haja substituição de softwares proprietários por softwares livres nas empresas. No contexto
educacional parece ocorrer o mesmo, ou seja, talvez pelo fato alguns docentes conhecerem
pouco ou nem mesmo conhecerem as tecnologias de software livre a maioria das entidades de
ensino superior utiliza apenas softwares proprietários em suas atividades escolares.
Esta opção pela tecnologia de código fechado parece reduzir as possibilidades de
estudantes e educadores conhecerem as tecnologias de código aberto e, desse modo, contribui
para perpetuar a hegemonia de uso dos produtos proprietários. Considerando ser importante
abrir oportunidades para docentes, discentes e profissionais da área da comunicação social
conhecerem as tecnologias de software livre, realizamos este estudo com o objetivo de
apresentar as principais características, funcionalidades, diferenças e semelhanças existentes
entre estes dois tipos de tecnologia. Isto posto, este estudo reúne alguns conceitos que
permitem sugerir o uso de softwares livres nas escolas de comunicação do Brasil, entretanto,
para considerar a plataforma de software livre uma alternativa tecnológica interessante para a
criação de produtos audiovisuais foi necessário, primeiro, verificar se existem softwares livres
adequados e capazes de realizar as mesmas tarefas que os softwares proprietários em
processos de criação de produtos para rádio e televisão.
Com essa problemática em mente realizamos pesquisa tomando por base os
softwares utilizados nos cursos de Radialismo da Universidade Metodista de São Paulo27 –
UMESP e da Escola Superior de Estudos Empresariais e Informática – Faculdades ESEEI de
Curitiba. Justificamos a escolha dos cursos de Radialismo destas duas entidades porque a
UMESP utiliza apenas tecnologia de software proprietário e é uma instituição de excelência e
que figura entre as mais conceituadas do país. A ESEEI foi escolhida pelo fato de utilizar
somente tecnologia livre, software com código aberto, em todas as suas atividades
educacionais, o que caracteriza um particular diferencial desta faculdade no cenário nacional,
conforme explicado oportunamente.
Empregamos os métodos característicos do estudo comparativo para analisar os dois
tipos de softwares. Tal análise foi feita com base nas informações descritas nos questionários
27
Neste estudo adotamos as siglas UMESP para fazer referência a Universidade Metodista de São Paulo e
ESEEI para referenciar a Escola Superior de Estudos Empresariais e Informática.
34
respondidos pelos professores Marcio Antonio Kowalski – coordenador da Agência de
Comunicação Multimídia – AgComMM da UMESP – e Professor Dr. Joaquim Valverde
coordenador do curso de Radialismo da ESEEI. Tais informações serviram como base para a
definição das variáveis fundamentais existentes entre estes dois tipos de tecnologias. Outras
informações gerais sobre os softwares e cursos28 foram extraídas dos sites das duas entidades.
Para realizar o processo de comparação os softwares foram agrupados em cinco
categorias: a primeira categoria detalha as variáveis fundamentais dos softwares para
processamento de audiovisual; a segunda dos softwares de processamento digital de som; a
terceira dos softwares de computação gráfica 3D; a quarta categoria detalha as variáveis
fundamentais dos softwares editores de imagens matricial ou raster; e a quinta dos softwares
de desenho vetorial. A partir desse agrupamento elaboramos tabelas que descrevem as
variáveis fundamentais de cada software e que mostram suas especificidades e as
possibilidades de uso em processos de criação de produtos para rádio e televisão. Tais tabelas
foram, originalmente, elaboradas e adaptadas a partir do modelo de um quadro comparativo
criado por Benoît Saint-Moulin, professor convidado de técnicas infográficas da Escola
Superior Albert Jacquard, da Bélgica. A Wikipedia e o estudo de obras de pesquisadores
especialistas em tecnologia de software também foram ferramentas importantes para a
definição das tabelas. A comparação entre alguns dos dois tipos de softwares também foi feita
com base em um modelo com três macrofunções: Entrada => Processamento => Saída. Tal
modelo considerou os recursos disponíveis nos softwares para importar conteúdos, para tratálos digitalmente e para exportar os resultados em formatos e resoluções de arquivos e
dispositivos de representação adequados.
Em síntese, nas duas entidades pesquisadas se destaca a variedade de softwares
disponíveis para a realização de atividades de criação de produtos audiovisuais. Atividades
que têm por finalidade levar os estudantes a vivenciarem e colocarem em prática os
conhecimentos adquiridos em sala de aula e necessários às suas tarefas profissionais,
conforme determinam as Diretrizes Curriculares Nacionais – DCN. Fato que justifica, no
nosso entender, a importância de todas as escolas de comunicação do país conhecerem e
prepararem os egressos para utilizarem a tecnologia de software livre, pois se as faculdades
não conhecem e não usam, e também não ensinam os estudantes a usarem tais softwares não
28
O professor Márcio respondeu questionário com informações específicas sobre o curso de Radialismo da
UMESP, conforme apresenta o apêndice B. Este questionário não foi respondido pelo professor Dr. Joaquim
Valverde por termos acesso direto às informações do curso de Radialismo da ESEEI, onde atuamos como
docente e diretora acadêmica.
35
haverá profissionais qualificados para trabalharem com esta tecnologia no competitivo
mercado de trabalho, que, por sua vez, também não adotará este tipo de software, ficando
dependente do uso de produtos proprietários e, portanto, das regras impostas pelas empresas
que monopolizam a indústria de softwares.
Isto posto, acreditamos que os resultados desta pesquisa poderão despertar o
interesse de diretores, coordenadores, professores, profissionais e estudantes de comunicação
social, em especial daqueles que se dedicam à área de Radialismo, pois nos permitem
confirmar a existência de softwares livres adequados para a criação de produtos para rádio e
televisão, conforme os padrões de qualidade necessários.
Com a finalidade de facilitar a compreensão do leitor acerca dos assuntos
pesquisados, este documento foi assim organizado. No capítulo I – Comunicação Social no
Brasil, discorremos sobre o surgimento dos cursos de comunicação social no país. Sobre a
relação entre as escolas de comunicação e mercado de trabalho. Sobre as novas diretrizes
curriculares estabelecidas pelo MEC para a área e sobre os desafios do ensino de
comunicação diante do crescimento e do uso de novas tecnologias digitais nas diversas
profissões da área.
No capítulo II – Softwares de Computadores: conceitos gerais – discorremos
inicialmente sobre os conceitos da tecnologia de softwares para sustentar sua importância no
contexto do ensino da comunicação e justificar a importância do uso das tecnologias digitais
nas mais diversas atividades profissionais da atualidade, principalmente aplicadas à
comunicação. Em seguida apresentamos as características ou especificidades dos softwares
proprietários e livres. Argumentos importantes atribuem relevância à tecnologia de software
livre, ao paradigma libertário, ao movimento pelo software livre e as culturas da Internet.
Buscamos relatos de experiências sobre o emprego da tecnologia de código-aberto em
variados contextos sociais, econômicos e de negócios no Brasil e no mundo.
No capítulo III – O Ensino de Comunicação e a tecnologia de Software –
descrevemos as características gerais da UMESP e da ESEEI. Descrevemos os perfis dos
cursos de Radialismo das duas entidades e a importância dos softwares que utilizam na
criação de produtos de comunicação para rádio e televisão.
No capítulo IV – Comparação entre softwares livres e proprietários, apresentamos as
análises comparativas das cinco categorias de softwares, feitas por meio de tabelas nas quais
descrevemos as funcionalidades e as variáveis comparadas entre os dois tipos softwares. Na
sequência apresentamos as conclusões. Por último, as referências, apêndices, anexos e
glossário.
36
CAPÍTULO I. COMUNICAÇÃO SOCIAL NO BRASIL
Reflexões sobre alguns fatos históricos que marcaram a criação dos Cursos de
Comunicação Social no Brasil são importantes para se compreender o atual contexto do
ensino de comunicação no país. Marques de Melo29 na obra Comunicação e Modernidade: o
ensino e a pesquisa nas escolas de comunicação (1991) nos apresenta reflexivas avaliações
acerca dos modelos pedagógicos que prevaleceram ao longo dos anos nos cursos de
comunicação social brasileiros, considerados, muitas vezes, defasados para a construção de
modernas estruturas didáticas e científicas diante das constantes mudanças sociais e
tecnológicas que provocaram e continuam a provocar alterações radicais em determinados
paradigmas educacionais, ideológicos e profissionais.
Sem a intenção de reduzir a importância de conhecermos todos os fatos que
historicamente marcaram o surgimento dos cursos de comunicação brasileiros, daremos
ênfase neste estudo à criação dos cursos de Radialismo – Rádio e Televisão – por ser este
curso foco central desta pesquisa.
Quando estudamos a criação dos cursos de Radialismo não podemos ignorar a
influência que o CIESPAL – Centro Internacional de Estudos Superiores de Periodismo para a
América Latina – exerceu sobre o ensino de comunicação no Brasil. Também não podemos
deixar de analisar alguns fatos mais recentes decorrentes da aprovação das Novas Diretrizes
Curriculares – NDC para a área da Comunicação Social em 2001, como o aclamado discurso
de inovação no ensino de comunicação e sua relação com as novas tecnologias digitais.
No contexto específico do curso de Radialismo, as NDC destacam a importância de
os egressos serem preparados para refletir criticamente sobre as práticas profissionais do
campo da comunicação, bem como para saberem utilizar as novas tecnologias digitais
empregadas nas atividades da área. Portanto, para saberem utilizar softwares nos processos de
criação de produtos para rádio e televisão.
29
José Marques de Melo. Primeiro Doutor em Jornalismo titulado por universidade brasileira. Professor titular
da UMESP. Diretor da Cátedra UNESCO de Comunicação. Pesquisador científico e consultor acadêmico.
Disponível em: http://buscatextual.cnpq.br e http://www.marquesdemelo.pro.br/perfil.htm/
37
1. 1. CURSOS DE COMUNICAÇÃO SOCIAL
A tarefa de analisar, ainda que de forma abreviada, o panorama dos cursos de
comunicação no Brasil exige compreensão de alguns desafios enfrentados pelas escolas a
partir última década do século XX. Quando Marques de Melo publicou o livro Comunicação
e Modernidade: o ensino e a pesquisa nas escolas de comunicação, em 1991, por exemplo, o
ensino de comunicação já tinha um longo histórico de fatos e experiências acumuladas desde
suas primeiras iniciativas na Argentina e no Brasil, desde a década de 1930.
Por volta das décadas de 1940 e 1950, um dos principais objetivos das faculdades de
comunicação, no auge do desenvolvimento Industrial e crescimento do número de emissoras
de radiodifusão na América Latina, era atender a demanda por profissionais qualificados, pois
já nessa época as empresas de comunicação necessitavam de pessoas bem preparadas para o
exercício das várias profissões da área. Conforme nos lembra Marques de Melo (1991 p.1215) “[...] por volta dos anos 50 haviam 13 instituições dedicadas à formação de especialistas
para os meios de comunicação na América Latina, notadamente na Argentina, Brasil,
Colômbia, Cuba, Equador, México, Peru e Venezuela. Nos anos 60 esse número era três vezes
maior, havia escolas em 2/3 dos países latinos. Este ritmo de crescimento foi mantido nas
duas últimas décadas do século XX, embora com menor intensidade.”.
Embora as últimas décadas do século XX tenham sido marcadas por uma singular
expansão no número de instituições dedicadas à formação de especialistas para os meios de
comunicação, nem todas as faculdades apresentavam inovações pedagógicas ou tecnológicas.
Na verdade, o surgimento de várias faculdades de comunicação provocou inseguranças e, em
muitos casos, uma míope percepção acerca da formação de profissionais para os meios de
comunicação na América Latina em decorrência da influência do CIESPAL, pois o Centro
distorceu a concepção do modelo sociológico de 1958 da School of Mass Communication –
da Universidade de Stanford – e criou um novo conceito de comunicador polivalente. A partir
deste novo conceito propôs, de forma equivocada, que em um mesmo espaço acadêmico fosse
possível formar um profissional com especializações simultâneas em jornalismo, publicidade,
rádio, televisão, relações públicas, etc. Explica Marques de Melo (1991 p. 13-14), que tal
modelo contemplou um esquema curricular que procurou “[...] fazer um amálgama dos
diversos instrumentos de trabalho peculiares aos media, cimentados por uma concepção
38
positivista30 da teoria da comunicação (atomizada em sociologia da comunicação, psicologia
da comunicação, antropologia da comunicação, etc.).”
Assim, até o final do século XX a concepção de ensino ou educação expressa pelo
CIESPAL influenciou intensamente as escolas de comunicação brasileiras e as convenceu de
que sua proposta teórica deveria orientar suas práticas, mas que o contrário nunca poderia
acontecer. Para isso, o Centro elevou a um nível superior o papel e o status do comunicólogo
– do estudioso teórico da comunicação – e reduziu a um nível bem inferior de importância o
papel dos profissionais da mídia, por não despertarem o interesse do Centro.
Mesmo vivenciando problemas decorrentes da concepção de ensino equivocada e
proposta pelo Centro, em 1947 foi criado no Brasil o primeiro curso de Jornalismo na pioneira
Faculdade Cásper Líbero, que adotou a matriz pedagógica da Universidade Pro Deo de Roma
– uma versão italianizada do modelo americano e que tinha o propósito de formar novos
empresários e profissionais liberais para assumirem o comando da vida italiana. Ao mesmo
tempo, a Universidade Federal do Rio de Janeiro adotava a matriz francesa do Instituto
Francês de Imprensa para seu curso de jornalismo, que preconizava uma formação mais
erudita, humanista e menos profissionalizante.
No início das décadas de 60 surge a Faculdade de Comunicação de Massa da UnB.
Criada a partir de uma visão inovadora a faculdade inovou com a criação de cursos ou
habilitações específicas para o ensino de Jornalismo, Televisão, Rádio e Cinema e Publicidade
e Propaganda. Porém, em 1964 devido a ocorrência de diversos acontecimentos políticos o
projeto inicial da UnB foi interrompido, embora nesse momento já existisse o curso de
Jornalismo. Os primeiros cursos de Publicidade e Propaganda, a exemplo da Escola Superior
de Propaganda e Marketing – ESPM, foram criados em um momento em que o país vivia
próspero período de crescimento econômico. Vivia, entre outros marcos históricos da
sociedade e da econômica brasileira, a euforia do pós-guerra e do surgimento da televisão.
Muitas escolas de comunicação desse período surgiram dentro das estruturas das
Faculdades de Filosofia e nesse contexto a formação excessivamente humanista provocou
atraso e desvalorização na formação dos profissionais para o campo da comunicação. Para
alguns estudiosos como Marques de Melo problema que se agravou em decorrência da cultura
acadêmica tradicional empregada pelo CIESPAL, pois, de certa forma, tal cultura não
30
O principal representante e fundador do Positivismo foi o filósofo francês, pai da sociologia, Augusto Comte
para quem o pensamento Positivista deveria ser aplicado a todas as atividades humanas, especialmente às
ciências sociais.
39
acompanhou a dinâmica do progresso das tecnologias e do mercado de trabalho mundial.
Neste contexto, em alguns cursos de comunicação os projetos pedagógicos demonstravam
verdadeira aversão para aproximação com a indústria midiática ou com o mercado. Tinham
posicionamento ludita31 com relação às atividades práticas que envolvessem o uso de
tecnologias e o mercado da indústria midiática. Marques de Melo (1991 p. 13-14) observa que
os cursos da área de comunicação no Brasil, nesse período, não eram pensados e organizados
como unidades profissionalizantes, foram estruturados de acordo com padrões pedagógicos
inadequados e ineficazes, pois “o saber transmitido apresentava-se fragmentado, os alunos
freqüentavam disciplinas estanques e o processo de conhecimento mostrava-se anárquico”.
Outra questão que contribuiu para retardar a utilização de recursos tecnológicos e o
desenvolvimento de atividades práticas nos cursos de comunicação foi o fato de as entidades
educacionais da época privilegiarem a contratação de professores com titulação acadêmica,
mas, com pouco ou nenhum conhecimento e experiência no uso de tecnologias necessárias às
atividades da área. Neste contexto, por diversos motivos, inclusive políticos e ideológicos, a
teoria sempre foi considerada mais importante do que a prática, fato que aumentou o desprezo
ou desinteresse pelas atividades práticas profissionais como objeto de estudo por parte dos
docentes. Tal atitude agravou o distanciamento entre o ensino e a prática cotidiana de
comunicação processada nas empresas do ramo.
Em outras palavras, os cursos de comunicação eram marcados pelo reducionismo
pedagógico, pela reprodução do conhecimento e memorização de conteúdos, pois
privilegiavam a formação humanista em detrimento da formação profissional. Não havia,
explica Marques de Melo (1999 p. 15) “atividade laboratorial nem simulações didáticas e
tampouco pesquisa sistemática. O estoque do saber transferido assumia feição defasada,
estática incompleta. Quando os diplomados enfrentavam concretamente as tarefas
profissionais nos jornais, emissoras de rádio ou canais de televisão descortinavam um outro
mundo, precisando reciclar-se rapidamente para ter um desempenho satisfatório.”
Os problemas citados por Marques de Melo se mantiveram presentes no cenário do
ensino da comunicação brasileira por toda década de 1990. Embora, segundo este
pesquisador, nesta década alguns cursos de jornalismo, publicidade ou cinema conseguiram se
estruturar autonomamente dentro da universidade, “[...] assumindo a forma de escolas,
31
Ludismo - nome do movimento que se insurgiu contra as profundas alterações trazidas pela Revolução
Industrial. O ludita opunha-se ao uso de máquinas em substituição à mão-de-obra humana nas fábricas.
40
faculdades ou departamentos de comunicação.”
Os fatos relatados nos mostram que em praticamente toda a América Latina o ensino
da comunicação foi fortemente marcado pela filosofia, sociológica e humanista, da “School of
Mass Communication” da Universidade de Stanford. No Brasil, esta influência era bastante
presente até no final da década de 1990. Por volta de 1966, por exemplo, a Escola de
Comunicação Cultural da Universidade de São Paulo, atual Escola de Comunicações e Artes –
ECA/USP, ainda recebia forte influência deste modelo americano.
Embora o surgimento da televisão no Brasil na década de 50, assim como o
surgimento do rádio na década de 30, tenha contribuído para aumentar a demanda por
profissionais habilitados para atuação no campo do Radialismo, poucos cursos de rádio e
televisão existiam no país nessa época. A maioria dos profissionais que atuava no rádio ou
televisão era egressa dos cursos de jornalismo ou de outras áreas, como direito, engenharia,
letras etc. Com veremos mais adiante, um dos grandes empecilhos enfrentados pelas
faculdades de comunicação para a criação de cursos de Radialismo estava, e talvez em alguns
contextos ainda esteja, relacionado com as dificuldades para a montagem de estúdios e
laboratórios, fato que impediu o desenvolvimento de atividades práticas e o uso de
tecnologias também em outros cursos de comunicação.
1.2. NOVAS DIRETRIZES CURRICULARES PARA A ÁREA DA COMUNICAÇÃO
SOCIAL
No ano de 2001, por meio do Parecer 492 do CNE/CES32, a Comissão composta
pelos Conselheiros Silke Weber (relatora), Eunice Ribeiro Durham (conselheira) e Vilma de
Mendonça Figueiredo (conselheira) recomendou a aprovação das Diretrizes Curriculares
Nacionais – DCN para a área da Comunicação Social. Histórico sobre a aprovação das
referidas Diretrizes contempla alguns fatos importantes descritos por Faro33 na obra Retrato
32
33
Publicado no Diário Oficial da União de 09/7/2001, Seção 1, p. 50.
José Salvador Faro - graduado em História pela Universidade de São Paulo (1973). Mestre em Comunicação
Social pela UMESP (1992). Doutor em Ciência da Comunicação pela Universidade de São Paulo (1996).
41
do Ensino da Comunicação no Brasil: análises e tendências de autoria de Cicília Peruzzo34 e
Robson B. da Silva35 (org). Fatos que alteraram a estrutura dos cursos de comunicação no
Brasil para atender as determinações da nova Lei de Diretrizes e Bases da Educação Nacional
– Lei 9394/96. Nas palavras de Faro apud Peruzzo e Silva (2003 p. 139):
[...] a nova LDB acabou com todos os currículos mínimos que vigoravam de acordo
com as resoluções do antigo Conselho Federal de Educação, estabelecendo em seu
lugar a ideia de que o ensino superior de graduação, em qualquer área do
conhecimento, deveria nortear-se, na sua estrutura, por um conjunto de normas gerais
que assegurassem, às instituições, liberdade na formulação de seus projetos
pedagógicos. No caso dos cursos de Comunicação Social, essa nova ordem significou
o fim da Resolução 2/84, embora, no momento da vigência da nova LDB, nada
existisse como alternativa para orientação dos cursos e suas diversas habilitações.
O problema da falta de orientação para a elaboração dos novos Projetos Pedagógicos
de Cursos - PPC se estendeu de 1997 até 2001, e fez com que as diversas comunidades
universitárias se organizassem para discutir as novas DCN e as ações necessárias para sua
implantação nos diversos cursos de graduação do país. De acordo com Faro apud Peruzzo e
Silva (idem p. 140, grifo nosso).
A chamada do MEC para a discussão sobre o assunto deve ter representado o mais
amplo movimento de mobilização e debate que os cursos de graduação da área, de
comunicação, viveram até hoje, e serviu para que se formasse um espectro de
percepções absolutamente heterogêneas sobre os rumos que deveriam ser oferecidos
ao ensino [...] confundindo o questionamento do antigo currículo mínimo com uma
desmontagem geral de qualquer parâmetro para o ensino de Comunicação Social.
Faro explica que nessa época a área da comunicação social estava, de certa forma,
desequilibrada diante dos desafios impostos pela nova LDB, notadamente, diante da tarefa de
“reunir, numa única proposta, a heterogeneidade com a qual as diversas habilitações
compreendiam a sua inserção nos cursos de graduação”. Em outras palavras, a tarefa de reunir
34
Mestre em Comunicação Social. Doutora em Ciências da Comunicação pela Escola de Comunicações e Artes
da Universidade de São Paulo. Docente do Programa de Pós-Graduação em Comunicação Social da UMESP.
35
Doutor em Comunicação e Semiótica pela Pontifícia Universidade Católica de São Paulo (1996). Mestre em
Comunicação Social pela UMESP (1990) e Graduado em Comunicação Social pela Universidade Católica de
Santos (1983).
42
numa única proposta as especificidades das diversas habilitações provocava preocupação
entre muitos educadores porque parecia dar maior destaque a uma formação técnicoprofissional do que a uma formação humanista, propriamente universitária, fator que para
muitos provocaria também mudanças no perfil dos comunicadores.
Com a responsabilidade de articular demandas de ordem tão diversa, o único caminho
que restou ao CEE/COM foi o de produzir um documento que contemplasse uma
dupla dimensão das Diretrizes Curriculares: aquela que decorria de uma visão
integradora e horizontalizada das várias especificidades profissionais e uma outra
decorrente de um aprofundamento conceitual verticalizado em torno das diversas
habilitações profissionais.
Em 1999, uma nova proposta para estruturação das DCN para a área da
Comunicação Social e suas habilitações foi encaminhada ao CNE – Conselho Nacional de
Educação. Tal proposta foi resultado do consenso entre profissionais e estudiosos de
jornalismo, portanto, nasceu depois de diversas reivindicações feitas por este grupo de
pessoas. Faro (ibidem p. 143) recorda:
O parecer da Relatora da matéria na Câmara de Educação Superior, professora Silke
Weber – parecer no. 687/99 – negou a SESu - Secretaria de Educação Superior – a
possibilidade de criação de uma Comissão de Especialistas de Ensino de Jornalismo.
[...] Segundo a relatora, a área de Comunicação Social é ‘essencialmente
interdisciplinar e multidisciplinar, que engloba a produção de sentido e mesmo do
próprio real mediante símbolos consubstanciados em múltiplas linguagens’, motivo
que a levara a rejeitar o ‘especialismo’ (nos termos do parecer) pretendido pela
Comissão e que fundamentou o pedido da SESu. Para Silke Weber, o pedido de uma
comissão específica era contrário as 'tendências hodiernas' de formação
horizontalizada.
Finalmente no mês de abriu de 2001 as Diretrizes Curriculares foram aprovadas pelo
CNE e sua deliberação pela Câmara de Educação Superior do Conselho levou em conta
algumas proposições enviadas ao órgão pela Comissão de Especialistas (CEE-COM) e que
definiram as regras, ou premissas como prefere Faro, a partir das quais a área da comunicação
e suas habilitações deveriam se estruturar “[...] ressaltando sua ‘organicidade’ e a
‘interpenetração das perspectivas teóricas e de questões referentes a problemas concretos no
espaço social’.” Neste contexto, esclarece Faro apud Peruzzo e Silva. (idem, p. 143):
43
[...] as Diretrizes Curriculares ressaltam que o fundamento dos cursos é um Projeto
Acadêmico, não mais concebido como ‘nucleado’ em listagem de disciplinas’, mas
fundado nas concepções gerais que o norteiam destacando [...] a possibilidade de que
exista diversidade de projetos, embora isso não signifique que se trate de uma prática
‘isolacionista’, mas um campo de experimentação pedagógica, de pesquisa, de
desenvolvimento profissional e de troca e realimentação mútua entre projetos
diversos, entre escolas, portanto.
Faro esclarece também que a deliberação da Câmara de Educação Superior do
Conselho levou em conta outra proposta enviada ao órgão pela Comissão de Especialistas
(CEE-COM) –, em 1999, qual seja: que as Diretrizes Curriculares deveriam partir da premissa
que a área da Comunicação Social deveria em sua concepção geral ser “a da superação da
‘antiga dicotomia entre teoria e prática’, razão pela qual a proposta insistia na ideia de que a
formação na habilitação, do ponto de vista de conteúdos teóricos, analítico-informativos,
ético-políticos e práticos, se constituía num conjunto de reflexões relativas às tecnologias, às
técnicas e linguagens da comunicação e de suas habilitações”.
Considerando as premissas explicitadas pelas NDC para os cursos de Radialismo,
talvez o grande desafio da atualidade seja o de preparar os docentes ou encontrar docentes
preparados para compreender o conjunto de técnicas, linguagens e tecnologias que fazem
parte das novas práticas profissionais da área que se realizam fora dos espaços acadêmicos, e
que envolvem variado arsenal tecnológico necessário a criação de produtos digitais de
informação, entretenimento etc. Neste contexto, o provável temor ao uso da tecnologia,
parecido com o registrado nos primórdios da Revolução Industrial na Europa, parece levar
alguns professores a confundirem técnica com tecnicismo e a pensarem que a técnica se opõe
à natureza humana. Conforme explica Marques de Melo (1991, idem p. 36):
Tecnicismo é a submissão cega e irresponsável do homem ao domínio das máquinas.
É a adoração do saber-fazer sem qualquer relação com os fins. A técnica, entretanto, é
o instrumento da libertação do homem. [...] A ameaça que se percebe na técnica não
está nas máquinas ou instrumentos, mas na atitude do homem em relação a esses
objetos.
Com outras palavras, o temor ao uso da tecnologia parece ser o próprio ‘luditismo’
que ainda pode estar presente entre alguns docentes do ensino superior brasileiro. Mesmo
assim, as faculdades de comunicação não podem mais manter uma prática ‘isolacionista’ de
44
ensino, que exclui o uso de recursos tecnológicos. Ao contrário, considerando as
determinações expressas nas NDC devem transformar, conforme já ressaltou Marques de
Melo, os cursos em “um campo de experimentação pedagógica, de pesquisa, de
desenvolvimento profissional” para que os egressos possam conhecer e usar modernas
tecnologias digitais.
Em síntese, as Diretrizes Curriculares Nacionais para a área da Comunicação Social
abriram novas perspectivas para reflexões e ajustes nas práticas e nos projetos pedagógicos
dos cursos – PPC; para análises acerca da complexidade que envolve a formação dos egressos
e profissionais de comunicação; para o desenvolvimento de uma nova infraestrutura
tecnológica de comunicação digital que permita aproximar escolas e mercado de trabalho.
Conforme explica Alvin Tofller, em matéria Intitulada: "Infraestrutura mesmo é educação"
(2007)36.
A terminologia para infraestrutura inclui usinas elétricas, linhas de transmissão ou
grandes obras de sistema viário. Mas ninguém inclui educação. E ela é a parte mais
importante da infraestrutura. Se você construir todas essas estruturas físicas, pode
mudar o país. Mas continuará ensinando o passado às crianças. Claramente
precisamos valorizar mais a geração de conhecimento. A sociedade cada vez mais vai
depender disso. As transformações econômicas do mundo passam a valorizar fatores
de crescimento que até então eram tidos como secundários. Nosso sucesso econômico
é cada vez mais dependente da geração de ideias – e da forma como esses
conhecimentos são transmitidos de uma pessoa para outra. É por isso também que
precisamos mudar a forma de educar. [...] Nos anos 60, eu tive contato com os
primeiros computadores criados pela IBM. Fiz uma excursão aos laboratórios no Vale
do Silício. Ali, tive o contato com os primeiros computadores e com alguns
especialistas em inteligência artificial. Naquele momento ficou claro que não
sabíamos tudo e que uma grande revolução estava acontecendo.
Por fim, considerando que a revolução prevista por Toffler nos anos 60 ainda está
acontecendo pressupomos que será necessária dedicação, esforço e responsabilidade por parte
dos educadores, pesquisadores e egressos da comunicação social para que seja lançada “a
semente que [...] poderá gerar a cobertura que aninhará um agrupamento de interessados nos
estudos das tecnologias e suas interfaces com a macro área das comunicações”, embora “as
transformações radicais na comunicação sejam concretas e estejam em frente aos olhos de
toda a humanidade” (SQUIRRA37 2007).
36
Revista Época – Edição nº 489 - 01/10/2007.
37
Disponível em: www.metodista.br/poscom/cientifico/docentes/sebastiao-squirra. Acesso em 10/02/2006.
45
1.3. A COMUNICAÇÃO SOCIAL E O MERCADO DE TRABALHO
Conforme já dissemos, o ensino da comunicação se faz presente no cenário
acadêmico brasileiro desde a década de 1940 e, ao longo dos anos, diversas pesquisas foram
realizadas com o propósito de se estudar as variadas formas de emprego dos modernos
recursos tecnológicos nas diversas atividades práticas e profissionais da área. Bem como para
se compreender a histórica necessidade de aproximação entre universidade e mercado de
trabalho. Para Marques de Melo (1991) o emprego de recursos tecnológicos exige a realização
de diálogos construtivos entre educadores, pesquisadores, comunicólogos e empresariado da
área para a modernização dos cursos no país.
Embora muitos esforços tenham sido realizados pela academia para aproximar
universidade e mercado de trabalho, algumas críticas feitas no passado pelos empresários da
indústria midiática brasileira ainda se fazem presentes nos dias atuais, entre elas a contratação
de acadêmicos com elevada titulação em detrimento da contratação de profissionais com
experiência de mercado, notadamente quando para a condução e desenvolvimento de
atividades práticas de aprendizado. Para muitos empresários da comunicação a preferência
das universidades pela contratação de acadêmicos, muitos recém-formados, e com pouca
experiência acerca da realidade profissional, limitava a formação dos estudantes e,
consequentemente, o desenvolvimento de conhecimentos técnicos necessários à realização
das práticas profissionais demandas pelo mercado globalizado de trabalho. Para Squirra
(2006)38 estas “críticas não levavam em consideração questões de natureza política, teórica,
tecnológica etc, ou seja, em muitos casos tais críticas pareciam ser uma desculpa disfarçada
que os empresários apresentavam nas suas empresas privadas e que os docentes, catedráticos
das entidades públicas, tomaram como argumento para também justificar tal distanciamento.”
Eunice Ribeiro Durham, em Fábrica de maus professores39, afirma que talvez ainda
38
Observatório da Imprensa. Abril de 2006. www.observatoriodaimprensa.com.br/artigos.aspcd=510AZL004
http://www.metodista.br/poscom/cientifico/docentes/sebastiao-squirra/artigos-de-sebastiaosquirra/folder_listing?b_start:int=10
39
A antropóloga Eunice Durham – estudiosa e pesquisadora sobre a universidade brasileira. Ex-secretária de
política educacional do Ministério da Educação (MEC) no governo FHC - membro da comissão que recomendou
a aprovação das Diretrizes Curriculares para Comunicação. Membro do Núcleo de Pesquisa de Políticas Públicas
USP. Seus trabalhos mostram como as universidades têm relação direta com a má qualidade do ensino oferecido
nas escolas do país. Revista VEJA Edição 2088 de 26 de novembro de 2008.
46
hoje tal justificativa seja necessária para alguns catedráticos porque “É estranho como, no
meio acadêmico, uma formação voltada para as necessidades das empresas ainda soa como
pecado. As universidades dizem, sem nenhum constrangimento, preferir ‘formar cidadãos’.
Cabe perguntar: o que o cidadão vai fazer da vida se ele não puder se inserir no mercado de
trabalho?” Para Squirra (2006), embora preocupante a falta de disposição para contratação de
docentes com pé na profissão, “geralmente muito críticos e que incentivavam os alunos à
sublevação e movimentação por melhores laboratórios, equipamentos etc” não justificava o
distanciamento entre universidade e mercado de trabalho, pois, além deste, outros problemas
como a falta de recursos para a montagem de salas de redação, estúdios, laboratórios etc e a
falta de profissionais aptos para trabalhar com novas tecnologias também prejudicaram tal
aproximação.
Em síntese, os problemas descritos até o momento podem ser tomados como
exemplos para se compreender o fosso que se estabeleceu entre o ensino de comunicação, de
perfil conservador, e a realidade da indústria da comunicação no Brasil. Pois enquanto as
empresas seguiam os mesmos princípios da indústria convencional da época, importando
know-how norte-americano, conhecimento científico e modelos tecnológicos as escolas
continuavam aprisionadas ao modelo medieval de ensino escolástico, implantado à imagem e
semelhança de Salamanca e Coimbra, sendo, portanto, impedidas de cumprir sua missão de
apoiar e acompanhar o desenvolvimento da indústria da cultura e da informação.
Neste início do século XXI, alguns dos problemas aqui relatados têm sido
intensivamente discutidos pela academia porque estão diretamente relacionados com a
importância de se desenvolver conhecimentos para uso de modernas tecnologias digitais
necessárias à produção de conteúdos ou produtos de informação, como é o caso da tecnologia
de software. Para Squirra (1993, p. 10) na moderna era da comunicação digital “As conquistas
científicas tornaram mais eficientes, compactos e baratos tanto os equipamentos profissionais
quanto aqueles mais simples, próprios para a produção individual [...] Os fantásticos avanços
na área da informática têm proporcionado crescentes – e cada vez mais rápidas – condições de
expansão dos diversos meios de comunicação de massa”.
Embora os custos de algumas tecnologias, utilizadas para a criação de produtos de
comunicação para rádio e televisão, por exemplo, tenham sido reduzidos a partir do uso de
microcomputadores e softwares proprietários – em substituição às antigas tecnologias
analógicas – ainda assim, os pagamentos com licenças requerem investimentos muitas vezes
elevados por parte das entidades de ensino. Uma alternativa para a redução de tais
47
investimentos pode ser o uso de software livre nos sistemas educacionais. Todavia, para que
este tipo de tecnologia possa ser amplamente utilizada no contexto da educação e pela
indústria midiática é importante que professores, pesquisadores e profissionais das diversas
áreas da comunicação social também a conheçam e saibam utilizá-la. Logo, nos parece
importante que conheçam algumas características que diferenciam softwares proprietários e
softwares livres.
Usuários de softwares proprietários devem conhecer algumas especificidades ou
restrições que normalizam seu emprego, entre elas: proibição para se fazer cópias; proibição
para repassar cópias sem o pagamento de licenças a outros usuários – as cópias feitas em
desacordo com as licenças comerciais são consideradas cópias ilegais ou piratas; proibição
para se alterar o funcionamento do software ou para adaptá-lo para um fim específico;
proibição para comercializá-lo com acesso ao código fonte – os códigos de um software
proprietário, que acionam operações no computador, não são “visíveis” aos usuários.
Portanto, o uso de softwares proprietários pode trazer prejuízos e penalidades financeiras e
processuais para quem não utiliza este tipo de software de acordo com as regras estabelecidas
pelos proprietários dos produtos. Assim, empresas, executivos ou usuários comuns podem ser
responsabilizados individual, civil e criminalmente pela violação dos direitos autorais –
copyright – violação dos direitos de propriedade dos desenvolvedores desses produtos e ou de
seus licenciantes. Em artigo intitulado Tipos de Software, contratos de software e sua
tributação (1993) Denis Borges Barbosa40 esclarece que “A Lei do software prevê, no Brasil,
multas pesadas para aqueles que fazem uso irregular de licenças. As multas podem chegar a
3.000 vezes o valor da licença original.”
Usuários de softwares livres também devem conhecer algumas regras definidas para
seu uso. Os usuários deste tipo de software devem, por exemplo, prestar atenção na existência
simultânea das quatro tipos de liberdades definidas pela Free Software Foundation e aplicadas
aos softwares com licença GPL – General Public License ou Licença Pública Geral: liberdade
para a execução do programa - acesso ao código fonte - para qualquer propósito; liberdade
para se estudar o software, saber como funciona e adaptá-lo às suas necessidades – a liberdade
40
Advogado no Rio de Janeiro. Bacharel em Direito pela Universidade do Estado da Guanabara. Mestre em
Direito pela Columbia University School of Law, Nova York. Mestre em Direito Empresarial pela Universidade
Gama Filho. Doutor em Direito Internacional e da Integração Econômica pela Faculdade de Direito da
Universidade do Estado do Rio de Janeiro. Autor de Tipos de Software, contratos de software e sua tributação e
de
O
Registro
do
Programa
na
Nova
Lei
de
Software.
Disponível
em
http://nbb.com.br/english/publications/intellectual_04.html
http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4781934P7. Acesso em 12/10/08.
48
para acesso ao código fonte é um pré-requisito para esta liberdade; liberdade para a
redistribuição de cópias; liberdade para aperfeiçoamento do software e sua liberação de modo
que toda comunidade de usuários possa se beneficiar – a liberdade de acesso ao código fonte é
um pré-requisito para esta liberdade.
Enfim, independente do tipo antes de se iniciar qualquer atividade que demande o
uso de softwares é fundamental que os usuários conheçam as características dos softwares
proprietários e dos softwares livres. É importante, sobretudo, que possam compreender as
novas possibilidades que a tecnologia de software livre pode trazer para o desenvolvimento e
modernização das atividades realizadas nas escolas e empresas de comunicação.
1.4. COMUNICAÇÃO SOCIAL E TECNOLOGIAS DIGITAIS
Quando estudamos a questão da tecnologia no ensino da comunicação não podemos
deixar de refletir sobre as análises de Marques de Melo (1991, p. 33) que nos esclarece que o
aparecimento das escolas de comunicação em nosso continente coincidiu com o avanço
tecnológico experimentado pelos mass media nos países metropolitanos. Isso aconteceu à
medida que aumentava a implantação de parques fabris na América Latina, estruturados com
suporte tecnológico aperfeiçoados para difundir bens simbólicos e motivar o consumo de
produtos. Portanto, entre outros, um dos motivos que impulsionou o aparecimento das escolas
de comunicação no Brasil foi a necessidade de se preparar profissionais capazes para trabalhar
com os novos suportes tecnológicos da época, assim, surgiram e se multiplicaram as escolas
de comunicação no Brasil – no apogeu das “velhas tecnologias de comunicação”.
Com o advento das novas tecnologias digitais, notadamente a partir da ultima década
do século XX, surgiram novas atividades profissionais na área da comunicação. Muitas destas
atividades são hoje realizadas com o uso de tecnologias de softwares, como é o caso, por
exemplo, da produção de desenhos animados e efeitos visuais e sonoros para televisão e
cinema, pois este tipo de produção se beneficia de computadores e softwares especializados.
49
Conforme informa Alcantara41 (mimeo, 1999, p. 3) “a tendência dos dias atuais tem sido de
cada vez mais mergulharmos no mundo da tecnologia de computadores. Hoje essa tecnologia
exerce um papel significativo na vida de todos a ponto de sugerir e criar novos papéis e
profissões que nunca pensávamos um dia estarem presentes em nossas vidas”.
Embora as atividades profissionais da comunicação possam estar cada vez mais
dependentes do uso de novas tecnologias estas não podem ser vistas apenas como um
modismo. Cysneiros42 (1996, p. 3) complementa esta observação quando salienta que o
emprego das novas tecnologias da comunicação na educação requer cuidados para que seja
evitado “um pragmatismo sujeito a flutuações da moda”. Portanto, afirma o pesquisador,
“cabe aos educadores desenvolver concepções teóricas coerentes que fundamentem o uso
dessas tecnologias nas atividades educacionais e profissionais dos jovens”.
Behrens43 apud Moran (2000, p. 67) também ressalta que para se evitar um
pragmatismo sujeito a flutuações da moda é necessário que o ensino superior, neste caso o
ensino de comunicação, promova o desenvolvimento de “novas habilidades ou talentos que
incluem a fluência tecnológica, a capacidade de resolver problemas e os ‘3 c’s’ –
comunicação, colaboração e criatividade.” Habilidades indispensáveis ao novo profissional
esperado para atuar na sociedade do conhecimento. Em artigo intitulado: A Internet nos ajuda,
mas ela sozinha não dá conta da complexidade do aprender; José Moran44 (2003) analisa a
importância do desenvolvimento de novas habilidades na educação superior e afirma que o
papel dos professores não é mais o de “dar receitas prontas, porque as situações são muito
diversificadas, é importante que cada docente encontre o que lhe ajuda mais a sentir-se bem, a
comunicar-se bem, ensinar bem, ajudar os alunos a que aprendam melhor.” Portanto, o uso
das novas tecnologias digitais pelas escolas deve considerar a realidade das profissões da
comunicação.
Nesse contexto, para se evitar problemas de receitas prontas os cursos ou escolas de
41
Doutor em Psicologia Educacional. Professor e pesquisado do Programa de Pós-graduação Mestrado em
Educação da PUCPR.
42
Doutor (Ph.D.) em Psicologia Educacional pela Syracuse University (1979). Professor do Programa de Pósgraduação em Educação da Universidade Federal de Pernambuco (UFPE).
43
Doutora em Educação. Professora e pesquisadora do Programa de Pós-graduação, Mestrado e Doutorado, em
educação na PUCPR.
44
Doutor em Ciências da Comunicação pela Universidade de São Paulo (1987). Atualmente é diretor acadêmico
do Instituto Sumaré de Ensino Superior-SP. Matéria de entrevista publicada no site Portal Educacional.
Disponível em: educacional.com.br/entrevistas
50
comunicação no país precisam considerar importantes exigências contempladas nas Diretrizes
Curriculares Nacionais vigentes e que envolvem a formação dos profissionais da área neste
início do século XXI. Segundo este documento: A primeira exigência diz respeito à
capacidade de o aprendiz organizar e produzir sistemas e modelos que permitam a
operacionalidade e a fluidez dos canais de comunicação; a segunda, aponta a importância de
os profissionais terem conhecimentos para lidar com conteúdos informacionais diversos e em
diversos setores (políticos, econômicos, sociais e educacionais); a terceira, enfatiza a
importância da competência para gerenciar, entre outros, processos que envolvem o uso das
novas tecnologias digitais como ferramentas para intensificar a modernização qualitativa do
processo de ensino e aprendizado nos cursos de comunicação. Isto posto, a modernização do
ensino de comunicação pressupõe, entre outras, a necessidade de as escolas estarem atentas ao
crescente uso de novos recursos tecnológicos digitais pelas empresas de comunicação.
O crescimento no uso de novos recursos tecnológicos digitais pelas empresas de
comunicação é analisado por Marques de Melo (2008), que nos informa estar a indústria de
audiovisual (televisão, rádio) brasileira a concentrar dois terços dos investimentos feitos em
publicidade no país. Para o pesquisador, esta concentração está relacionada ao fato de que
“quanto maior for a capacidade dos anunciantes para comprar espaço nos jornais, rádio,
televisão ou internet, mais recursos terão os empresários do ramo para manter seus veículos e
melhorar seus produtos”.
A distribuição do bolo publicitário é feita de modo paradoxal, segundo os diferentes
meios existentes no território brasileiro. Enquanto a indústria audiovisual (televisão,
rádio) concentra dois terços dos recursos, a mídia impressa (jornal, revista) absorve
um quinto, restando uma quantia inexpressiva para os veículos emergentes (Internet,
outdoor) e migalhas para os bolsões marginais (folkmidia). Na verdade, a televisão
abocanha a maior fatia (61,9%). Alcançando a totalidade dos 5.564 municípios e
atingindo 90,4% dos domicílios, constitui o principal elo entre os cidadãos e o mundo.
Seu impacto sobre a sociedade é incomensurável. Dela se apoderam os vendedores de
bens e serviços, bem como os mercadores da fé e da política. [...] Apesar de atingir
87,8% das residências e de ser a fonte preferencial de diversão, informação e educação
das classes trabalhadoras, o rádio capta apenas 5,2 dos investimentos publicitários.
(MARQUES DE MELO, 2008, p. 11-13).
51
Embora o citado percentual de investimentos publicitários para rádio não seja grande
em relação aos da televisão, Sonia Virginia Moreira45 apud Marques de Melo (2008, p. 129)
ressalta que “em 2005, o rádio estava presente em 88,4% dos lares brasileiros e em
praticamente 100% da frota nacional de veículos.” Os dados citados por Moreira e por
Marques de Melo nos levam a pressupor que quanto mais os empresários investirem na
criação de materiais de publicidade para veiculação no rádio e na TV, maiores serão as
exigências de qualificação dos profissionais responsáveis pela produção de criativos
conteúdos publicitários para estes veículos. Portanto, neste cenário de crescimento da
industria audiovisual no país, conhecimentos sobre o uso adequado de software para áudio e
vídeo se tornam fundamentais para o ingresso das novas gerações de comunicadores, que
combinam formação universitária e experiência profissional, no mercado brasileiro de
Radialismo.
No contexto da televisão, a produção de conteúdos de publicidade pressupõe o uso
intenso de novas tecnologias de software porque este tipo de tecnologia permite a criação de
peças publicitárias agradáveis, divertidas, interativas e modernas. Nas palavras de Sandra
Reimão46 apud Melo (2008, p. 137) “Dos vários segmentos da indústria de produtos e bens
culturais no Brasil, a televisão é, e tem sido nos últimos anos, aquele que tem maior destaque
e maior capacidade de reverberação da sociedade”. Os apontamentos feitos por Moreira,
Reimão e Melo estão, no nosso entendimento, relacionados com as reflexões apresentadas
pelo professor Fabio Josgrilberg (2007)47 quando aborda a importância de se reduzir a
exclusão digital no país, pois, quanto mais esforços para preparar os jovens para utilizarem
com competência as novas tecnologias digitais mais o sistema educacional contribuirá para o
ingresso das novas gerações de comunicadores no mercado de trabalho. Portanto, o
desenvolvimento de capacidades para produzir produtos para rádio e televisão, por exemplo,
contribuirá para a inclusão dos jovens no mundo profissional da indústria audiovisual
brasileira e, assim, para reduzir não só a exclusão digital, mas também a exclusão social.
45
Doutora em Ciências da Comunicação pela Universidade de São Paulo. Professora adjunta da Universidade do
Estado do Rio de Janeiro. Disponível em:
http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4783920A7 Acesso em 27/12/08.
46
Graduada em Filosofia pela Universidade de São Paulo - USP. Mestre e Doutora em Comunicação pela
Pontifícia Universidade Católica de São Paulo - PUC-SP. Professora do Programa de Pós Graduação em
Comunicação da UMESP. http://buscatextual.cnpq.br/buscatextual/busca.do Acesso em 15/12/08.
47
Fabio B. Josgrilberg é jornalista e Doutor em Ciências da Comunicação pela Universidade de São Paulo.
Mestre em Estudos da Mídia pela Concordia University (Canadá). Professor da Faculdade de Comunicação
Multimídia na UMESP. http://buscatextual.cnpq.br. Acesso em 15/12/08.
52
Questões sobre inclusão social, digital, uso de tecnologias e preparação para o
mundo do trabalho são importantes no contexto das escolas de comunicação de todo o país,
mas, particularmente, para as escolas situadas nas regiões sudeste e sul do Brasil, pois estas
regiões estão entre aquelas que mais se destacam no processo de formação de recursos
humanos qualificados em nível de graduação para atuar no sistema midiático48. Marques de
Melo (idem, p. 18) esclarece que, segundo fontes do Instituto Nacional de Estudos e
Pesquisas Educacionais – INEP, a região sudeste está entre as três primeiras e a região sul está
em sexto lugar no ranking de formação de recursos humanos qualificados para o sistema
midiático.
O bacharelado no campo da comunicação ocupa o 5º lugar no ranking nacional do
ensino superior, logo depois de Administração (1º) Pedagogia (2º), Direito (3º) e
Letras (4º), que possuem mais alunos matriculados. São Paulo, Rio de Janeiro e Minas
Gerais são os três primeiros: Isso reflete naturalmente a localização, [...] do bloco
hegemônico da indústria de conteúdos que funciona no país, constituindo o mercado
de trabalho que mais assimila mão-de-obra diplomada.
Com base nos esclarecimentos apresentados por Marques de Melo, entendemos que a
responsabilidade das escolas de comunicação, situadas nas regiões sul e sudeste, aumenta
quando se trata da formação de pessoas com alto nível de qualificação profissional para o
sistema midiático, pois os profissionais dessa área, notadamente de rádio e TV, utilizam cada
vez mais sofisticadas tecnologias para criar produtos audiovisuais. Assim, e conforme descrito
no capítulo três, pelo fato de estarem localizadas nas duas regiões que mais assimilam mãode-obra diplomada, esta pesquisa destaca a formação dos estudantes dos cursos de Radialismo
da UMESP e da ESEEI. Nas duas entidades tal formação privilegia o desenvolvimento de
conhecimentos sobre e para o uso de novas tecnologias digitais, especialmente softwares,
considerando as perspectivas e o cenário que os egressos irão encontrar no mercado de
trabalho.
48
O termo sistema midiático foi empregado por Marques de Melo na obra O Campo da Comunicação do Brasil
(introdução, 2008 p.11) em substituição ao termo indústria cultural.
53
CAPÍTULO II. SOFTWARES DE COMPUTADORES: CONCEITOS GERAIS
O emprego da tecnologia de software está, neste início do século XXI, cada vez mais
intenso nos processos de criação de diversos aparatos e produtos tecnológicos que permitem
controle automático de dispositivos, acesso a informações ou a troca instantânea de
mensagens à distância, por exemplo. De certa forma os softwares estão presentes na maioria
das tecnologias que hoje utilizamos em nossas casas, ambientes de trabalho, lazer etc. Nas
palavras de Squirra (2007) a tecnologia e, conseqüentemente, o software “[...] está presente no
acesso às informações essenciais, na troca instantânea de mensagens, no controle e compra em frações de segundo - de ações na bolsa, na administração da conta e na vigília do saldo
bancário. As telecomunicações e a medicina são hoje exemplos reais da magnanimidade
tecnológica, não mais operando em base analógica e linear. Muito menos, solitária. Nossos
carros e eletrodomésticos mudaram e têm ‘encorpados’ novos equipamentos que protegem e
facilitam a vida familiar, aumentando o conforto e a segurança.”
Os softwares estão presentes em praticamente todos os artefatos tecnológicos
digitais da atualidade porque são os componentes da engenharia da computação que
especializam o uso de outras tecnologias, principalmente do hardware. Assim, a indústria de
software enfrenta constantemente os desafios de inovação e de mudanças para atender a
indústria do hardware e o mercado em geral, cada vez mais desejosos por novos produtos
para fazer frente às necessidades que vão surgindo, até mesmo como consequência do
emprego de tecnologias anteriores. Para Taurion (2004 p.4, grifo nosso).
Não é novidade a chegada de uma nova categoria de produtos que incorpora uma nova
tecnologia ou conceitos. [...] Entretanto, o mercado, conservador por natureza em
relação às mudanças, mantém, pelo menos nos primeiros momentos, sua indiferença à
nova mudança. Posteriormente, um grupo maior de adeptos, os visionários, é seduzido
pela nova tecnologia e contribuem decisivamente para deslocar o eixo do interesse da
antiga tecnologia para a nova tecnologia. Aparece a disrupção tecnológica, onde a
tecnologia anterior começa a ser substituída rapidamente pela nova tecnologia.
Straubhaar e LaRose (idem p.186) têm observado que a inovação e disrupção
tecnológica têm estado presentes desde o início da comercialização dos computadores em
larga escala:
54
O UNIVAC foi o primeiro computador comercial bem sucedido, e o primeiro modelo
foi vendido para o Bureau do Censo Americano em 1951. [...] a IBM não entrou
imediatamente no negócio de computadores após a guerra e não entregou seu primeiro
computador até 1953. Em 1954 a IBM era apenas a quarta no ranking dos produtores
de computadores, bem atrás dos pioneiros da indústria de computadores, a Radio
Corporation of América (RCA), a Sperry Rand e a Bendix. Naquele ano, a IBM lançou
o Modelo 650, o primeiro computador a utilizar tecnologia de cartão perfurado, algo
que a IBM conhecia muito bem, e as vendas de seus computadores começaram a
decolar. [...] Em abril de 1964, a IBM lançou o Modelo 360, o primeiro que veio em
diversos tamanhos e que era personalizado para muitas aplicações diferentes. [...] O
modelo 360 e seu sucessor, o modelo 370, levou a empresa a dominar os mercados
nacionais e internacionais. (STRAUBHAAR e LAROSE idem p.186).
Entretanto, não podemos confundir a disrupção tecnológica, exemplificada por
Straubhaar e LaRose e que implicou na supremacia da IBM, com a inovação que leva ao
surgimento de tecnologias adicionais ou alternativas. Em sua dissertação de mestrado,
Valverde (mimeo, 2003, p.79-80) destacou esse processo de inovação ao demonstrar como
demandas específicas levaram ao desenvolvimento dos minicomputadores49, para servir como
alternativa ao uso dos mainframes50 IBM Modelo 360 e 370 em certos tipos de aplicações:
A partir dos anos 70, começaram a surgir máquinas menores, denominadas
minicomputadores, com o mesmo tipo de arquitetura e funcionalidade que os
mainframes. Empresas como AT&T, G.E. e M.I.T. unem-se para desenvolver
conceitos, métodos e produtos que visaram, entre outras coisas, o aumento de
produtividade no desenvolvimento de software. [...] Foram criadas novas modalidades
de operação para os minicomputadores, dentre as quais a denominada Time-Sharing,
em que, por meio de terminais, diversos usuários passaram a compartilhar,
simultaneamente, os recursos de um mesmo computador para realizar tarefas
diferentes. [...] Começam a surgir as especializações em áreas específicas como
bancos de dados, teleprocessamento [...] e principalmente aplicações em áreas
específicas.
Dessa forma os minicomputadores somaram-se aos mainframes nas grandes
organizações para realizar tarefas complementares, por exemplo, para processar dados de
49
50
Minicomputadores são máquinas menores que os mainframes e são sempre dedicados a aplicações específicas.
Mainframes são computadores de grande porte. Máquinas capazes de fazer processamento de informações em
altas velocidades para mais de um usuário ao mesmo tempo.
55
certos departamentos ou como mainframes de menor porte em filiais com menor volume de
processamento, em que o uso de computadores maiores tornar-se-ia muito caro.
Os minicomputadores, com preço muito mais acessível, passaram a ser usados em
nichos de mercado para realizar processamento especializado, a exemplo do primeiro sistema
para edição não-linear de vídeo CMX600, e sua importância foi reconhecida por Bill Gates em
sua obra A Estrada do Futuro (1995, p. 53-54):
Durante toda a minha juventude, a empresa quente de informática era a Digital
Equipment Corporation, conhecida como DEC. Por vinte anos pareceu impossível
parar a espiral positiva da DEC. Ken Olsen, fundador da empresa, foi um projetista
lendário de hardware, meu herói, um deus longínquo. Em 1960, criara a indústria do
minicomputador ao oferecer os primeiros computadores pequenos. O mais antigo foi o
PDP-1, ancestral do PDP-8 que havia em meu colégio. Um comprador, em vez de
pagar os milhões de dólares que a IBM pedia pelos grandalhões, podia comprar um
dos PDP-1 de Olsen por 120 mil dólares. Não era tão potente quanto as grandes
máquinas, mas podia ser usado para uma variedade de aplicações. A DEC tornou-se
uma empresa de 6,7 bilhões de dólares em oito anos, oferecendo uma ampla variedade
de computadores em diferentes tamanhos.
O passo seguinte foi a construção de máquinas ainda menores equipadas com
microprocessadores para atender necessidades individuais nas empresas. Bill Gates (idem p.
54-55, grifos nossos) apresenta um bom exemplo dessa realidade:
Durante a década de 70, em escritórios de todo o mundo, os terminais dos
processadores de texto Wang começaram a substituir as máquinas de escrever. As
máquinas continham um microprocessador, embora não fossem microcomputadores
de verdade, porque eram projetadas para fazer uma única coisa – lidar com texto.
Wang era um engenheiro visionário. O mesmo tipo de inspiração que o levou a
abandonar as calculadoras poderia tê-lo conduzido ao sucesso na indústria de software
para PCs, nos anos 80. Mas Wang não enxergou a curva seguinte. Desenvolveu
programas excelentes, todos, porém, proprietários, só funcionando em seus
processadores de texto. Sem chance nenhuma de deslanchar, portanto, depois que
surgiram microcomputadores de uso geral, capazes de rodar inúmeros programas de
processamento de texto como WordStar, WordPerfect e Multimate (que aliás imitava o
software de Wang).
Grifamos a palavra proprietários na citação de Bill Gates para destacar que foi
utilizada para ressaltar que os programas não eram portáveis, ou seja, que só funcionavam no
hardware da Wang. Isto é, não era possível transportá-los (ou portá-los) para operar em outras
plataformas de hardware ou sistema operacional. O segundo grifo foi para ressaltar o
verdadeiro sentido de disrupção tecnológica, quando os processadores de texto de Wang
56
foram substituídos por microcomputadores de uso geral, que possibilitaram o uso de softwares
diferentes para realizar a mesma função ou funções diferentes.
Os microcomputadores51 foram adotados pelas empresas e pessoas comuns
principalmente após o lançamento do PC - Personal Computer IBM em 1981. Valverde (2003
p. 84) explica que rapidamente “[...] as empresas começaram a se voltar para a informatização
de atividades de produção industrial, no chão de fábrica, e das atividades operacionais nos
escritórios [...] em tarefas que iam desde jogos de entretenimento à produção de textos e de
cálculos em planilhas eletrônicas”.
Se, por um lado, os microcomputadores não substituíram integralmente
minicomputadores ou mainframes, por outro, provocaram grandes transformações na
indústria da Tecnologia da Informação – TI. Até o surgimento do PC, o software, em especial
o sistema operacional, era quase sempre específico para cada tipo de máquina e, portanto,
fornecido pelo próprio fabricante. Ao liberar os projetos de engenharia para construção dos
PCs, subcontratar a Intel como fornecedora do hardware do PC e a Microsoft como
fornecedora do sistema operacional DOS, a IBM facilitou o que muitos autores chamam de
revolução da microinformática.
No livro Erros de Marketing e Sucessos, Robert F. Hartley (2001, p. 103) nos
apresenta sua visão do surgimento e consolidação desse novo segmento industrial de
hardware e software para microinformática:
No início de 1980, duas pequenas empresas, a Intel e a Microsoft estavam apenas
despontando em um setor dominado pela IBM. [...] receberam um grande golpe de
sorte ao ser 'agraciadas' como fornecedoras-chave para um novo personal computer
(PC) da IBM [...] e com isso arrebataram da IBM o controle sobre o futuro dos PCs.
[...] Dez anos antes, em 1982, o valor de mercado de uma ação da Intel e da Microsoft
combinadas equivalia aproximadamente a um décimo de uma ação da IBM. Em
outubro de 1992, o valor de suas ações combinadas ultrapassou o da IBM [...].
A arquitetura modular do IBM PC permitiu que milhares de empresas passassem a
criar dispositivos de hardware complementares – tais como placas de áudio, de redes locais,
de digitalização de vídeo, scanners, monitores de alta resolução – e softwares para realizar
operações impensáveis nos mainframes e minicomputadores de uso corporativo.
51
Computador pessoal é computador para uso individual.
57
A partir desse momento a indústria de computadores desdobrou-se em vários
segmentos, nos quais a maioria das empresas se especializou.
A Microsoft se especializou na fabricação de softwares de sistemas operacionais52 e
para automação de escritórios53. Outras, como foi o caso da Apple, se especializaram na
fabricação de microcomputadores e software multimídia54 para operar, segundo Straubhaar e
Larose (idem, p. 189), “[...] com som avançado e recursos de monitor capazes de lidar com
imagens em movimento”. Com essa estratégia a Apple se especializou no fornecimento de
tecnologia de excelente qualidade para processamento de imagem, de som e de vídeo.
A empresa Xerox desenvolveu a tecnologia de hardware para formação de redes de
microcomputadores chamada Ethernet. Outra empresa, chamada Novell, desenvolveu
software para comunicação em alta velocidade entre microcomputadores pessoais e
equipamentos periféricos, formando redes de áreas locais55, assim que:
Ficou claro que as grandes organizações poderiam economizar um monte de dinheiro
se o software e os periféricos (como impressoras e memória de disco) que os
computadores pessoais precisam pudessem ser compartilhados por múltiplos
computadores de alta velocidade ligados a rede. Algumas novas aplicações excitantes
que poderiam rodar apenas em um ambiente de rede, como o correio eletrônico,
também se tornaram populares. Cada vez mais as aplicações de software que antes
podiam ser rodadas apenas em computadores mainframes eram agora encontradas nos
computadores pessoais. (STRAUBHAAR e LAROSE idem, p.189).
Ao final dessa revolução, constataram Straubhaar e LaRose (ibidem), a “Apple
Computer começou a transição de uma simples garagem para uma corporação de muitos
bilhões de dólares pela manutenção do controle de seu próprio destino com um sistema
operacional (de sua autoria e controle) e com uma riqueza de aplicações de software
amigáveis, permitindo a ela cobrar preços superiores por seus computadores”. A Microsoft
posicionou-se “como a força principal na indústria de computadores pessoais, pois os lucros
mudaram do lado hardware para o lado do software da indústria. [...] O seu sistema
52
Sistemas operacionais são programas de computadores que realizam operações básicas de operações.
53
Automação de escritórios ou Office Automation é a designação dada ao conjunto de softwares utilizados para
aumentar a produtividade pessoal em ambientes empresariais ou privados. Entre eles destacam-se editores de
texto, planilhas eletrônicas, apresentação, e-mail, agendas, etc.
54
Multimídia são sistemas que permitem a integração de texto, áudio e vídeo.
55
Também chamadas LAN – Local Area Network.
58
operacional Windows ultrapassou o próprio esforço da IBM para atualizar o DOS e tinha uma
interface de uso facilitado similar ao da Apple. A Microsoft produziu um leque completo de
pacotes de software que estavam entre os líderes em virtualmente todas as categorias de
produtos mais populares”.
Desse modo, no início dos anos 90 a indústria de TI havia mudado
consideravelmente, “mainframes respondiam por cerca da metade das vendas de equipamento
de computação. Computadores de porte médio e de multi-usuários – muitos atuando como
conexão central para grandes redes – representavam outro terço, e os computadores pessoais e
estações de trabalho representavam o resto”. As estações de trabalho56 ou workstations,
citadas por Straubhaar e LaRose se constituíram em outro importante segmento da indústria
de hardware e software. Originadas na década de 1980, as workstations, diferentemente do
PC e dos computadores de médio e grande porte, foram criadas para o processamento de
sistemas que demandavam grande capacidade de cálculo e processamento de informação
gráfica. Em outras palavras uma estação de trabalho é um computador baseado em
processador Risc que roda alguma versão de Unix ou Linux. O termo também pode referir-se
a um PC de ponta que usa CPU Intel ou AMD de qualquer fabricante de PC. Em todo caso, o
termo sugere uma máquina com uma CPU rápida e grande quantidade de memória e disco
que é voltado a uso profissional em vez de consumidor. Segundo Straubhaar e LaRose (idem,
p. 205-206):
[...] sistemas de alto desempenho para uso individual que colocam as capacidades de
um mainframe ao mesmo de um supercomputador em um computador de mesa. Elas
são usadas primariamente em engenharia sofisticada e aplicações de apresentação
gráfica. DEC, IBM, Hewlett-Packard, Sun Microsystems e Silicon Graphics estão
entre os líderes nesse campo que cresce rapidamente. Os computadores pessoais são
também máquinas para um só usuário [...] mas eles têm muito menos processadores
poderosos do que as estações de trabalho e são projetados para rodar uma variedade de
softwares de uso geral. Computadores pessoais vêm com uma variedade de
configurações, sendo mais conhecidos como de mesa (desktop), portátil (laptop) e
portátil compacto (notebook).
Definição diferente para workstation é dada no The Free Dictionary57 em função do
56
Estação de trabalho ou workstation têm como principais fornecedores a Sun, HP, IBM e SGI.
http://encyclopedia2.thefreedictionary.com
57
http://encyclopedia2.thefreedictionary.com/workstation
59
tipo de tecnologia de hardware e software utilizado e de suas aplicações mais comuns:
Workstations são desenhadas para aplicações de negócios poderosos que fazem grande
número de cálculos ou requerem displays gráficos de alta velocidade; os requisitos de
sistemas de CAD/CAM58 foram boas razões para seu desenvolvimento inicial. Por
causa da necessidade de poder computacional, elas são normalmente baseadas em
processadores RISC59 e geralmente usam UNIX como sistema operacional. Uma
estação de trabalho pioneira foi introduzida em 1987 pela Sun Microsystems.
Ou seja, as workstations foram criadas para aplicações que exigem maior velocidade
de processamento multitarefa60 de diferentes tipos de dados complexos – desenhos vetoriais
3D, simulações de engenharia (ex. dinâmica computacional de fluídos), animação e
renderização de imagens e plotagem matemática – de uma ordem de grandeza61 que os
sistemas PC com Windows eram incapazes de fazer, à época.
Entretanto, mesmo na indústria de TI, atualmente as palavras workstation ou estação
de trabalho são utilizadas indistintamente para significar tanto essas super máquinas como
PCs ligados em rede ou até terminais com baixa capacidade de processamento ligados em
mainframes. Esse é um dos motivos, principalmente quando se trata de softwares para
processamento de imagem, som e vídeo, pelo qual podemos observar que nas lojas
especializadas e nos sites de vendas desses softwares existem ofertas de produtos cujos preços
variam em dezenas de vezes o valor e essas variações, na maioria das vezes, estão
relacionadas ao tipo de tecnologia de hardware na qual o software é operado. Isto também
58
CAD/CAM é o acrônimo de Computer-aided Design e Computer-aided Manufacturing, softwares utilizados
no desenho de produtos indústriais de modo a possibilitar sua manufatura com o auxilio de computadores.
59
RISC, acrônimo para Reduced Instruction Set Code, são processadores especializados em cálculos
matemáticos e utilizados em computadores técnicos e científicos, ao contrário dos processadores CISC Complete Instruction Set Code fabricados pela Intel e utilizados nos IBM PC, para processamento geral.
60
Processamento Multitarefa é um recurso de sistema operacional que possibilita que mais de um programa
possa realizar tarefas simultaneamente. Quanto aos computadores multiusuários mencionados por Straubhaar e
LaRose, tratavam-se dos computadores time-sharing aos quais nos referimos antes e que possibilitavam o
compartilhamento dos mesmos recursos de uma máquina, por muitos usuários, para processar softwares
diferentes. O sistema operacional mais utilizado nesse tipo de processamento tem sido o Unix, criado pela AT&T
em 1970, e que exerceu forte influência na criação da Internet e do Software Livre, como veremos adiante.
61
Para termos uma ideia da ordem de grandeza dessa diferença recorremos ao um texto da (Wikipedia) onde são
comparadas: “as workstations de ponta no início dos anos 1980, o chamado “computador 3M: um Megabyte de
memória, um display de Megapixel (aproximadamente 1000X1000), e desempenho computacional de um
MegaFLOP (pelo menos um milhão de instruções de ponto flutuante por segundo)”, com o IBM PC original que
“tinha 16 KB de memória, display exclusivamente textual, desempenho de ponto flutuante por volta de 1
kiloFLOPS”.
60
explica a forte participação das workstations Macintosh62 da Apple Computer em nichos de
mercado Desktop Publishing e da SGI - Silicon Graphics na indústria cinematográfica dos
EUA – principalmente em edição e produção de efeitos especiais – nas décadas de 1980 e
1990.
Resultado desse processo evolutivo, na última década do século XX o software não
era mais um acessório do hardware. Uma indústria de software independente dos fabricantes
das máquinas havia se consolidado em três segmentos: pré-empacotados, embarcados e
personalizados. No segmento dos softwares pré-empacotados encontram-se as indústrias dos
softwares voltados para o mercado de massa, tais como sistemas operacionais, de redes locais
e suítes de escritório. Segundo (Taurion 2004, p. 5) essa indústria tem como estratégia
comercial:
[...] custos incrementáveis de vendas virtualmente zero, com estrutura de mercado
altamente concentrada, com modelo de receita baseado quase que exclusivamente em
licenças e de venda e manutenção. De maneira geral, pela alta concentração de
mercado, quase monopolista tende a ser uma arquitetura proprietária e fechada. O
exemplo é a Microsoft que domina o segmento para softwares de desktop, e que retira
deste segmento mais de 60% de sua receita, ou quase 20 bilhões de dólares da receita
total de 32 bilhões de dólares, conforme relatado aos acionistas ao fim do seu ano
fiscal de 2003. As margens operacionais são bastante elevadas, com o Office, sendo de
76%, e o Windows, chegando a 81%.
No segmento do software embarcado, a estratégia comercial da indústria “apresenta
grandes perspectivas de crescimento pela difusão de aparelhos eletrônicos e periféricos que
possuem complexas funções. Produtos que contêm esta modalidade de software incluem
telefones celulares, aparelhos de TV e automóveis. O custo e o valor comercial destes
produtos contêm uma parcela significativa de softwares embarcados” (TAURION, idem p. 5).
No segmento dos softwares personalizados, a indústria adota como estratégia
comercial a prestação de serviços – inclusive desenvolvimento de software sob medida – em
setores de negócios “como financeiro, telecomunicações e agronegócios”, e “o peso dos
serviços na receita pode ser tão ou mais importante que a venda das licenças”. É um segmento
“extremamente competitivo e com expressiva participação da indústria nacional”. (idem p. 6).
Embora as indústrias de softwares dos três segmentos se diferenciassem nas
62
Macintosh e Silicon Graphics são estações RISC de alto desempenho.
61
estratégias comerciais – tipos de produtos/serviços fornecidos – adotaram um modelo de
receita comum, baseado na cobrança de licenças de uso dos softwares de sua propriedade e de
cobrança de valores adicionais para atualização periódica das licenças.
Como forma de assegurar o crescimento de seus negócios, a capacidade de investir
no desenvolvimento dos produtos e assegurar posição no mercado, toda a indústria do
software proprietário adotou, segundo Denis Borges Barbosa (1993), as seguintes medidas
para fornecer os produtos: a) O software é fornecido mediante aceitação, pelo cliente, das
condições estabelecidas em contrato de uso (user licence); b) O software é fornecido em
linguagem de máquina (código executável) para uso nas quantidades contratadas e pagas; c) O
usuário fica proibido de fazer cópias do software ou instalar a mesma cópia em mais de uma
máquina, e em alguns casos de transferir o software de uma máquina para outra; d) O usuário
fica proibido de conhecer como o software está codificado, ou seja, de abrir o código
executável; e) O usuário fica proibido de fazer qualquer modificação no software.
É possível impedir o acesso ao conhecimento implementado nos códigos dos
programas porque os computadores os processam em “[…] linguagem binária, composta por
combinações de zeros e uns, uma linguagem de difícil utilização pelo ser humano. Para
resolver este problema os especialistas em tecnologias da informação [...] criaram softwares
tradutores, capazes de converter os códigos de sinais escritos pelos humanos, denominado
código-fonte, para os códigos de sinais que o processador entende, denominado código
executável” (VALVERDE 2003 p. 88).
Ao mesmo tempo em que essa indústria se desenvolvia, alguns acontecimentos
pontuais e aparentemente isolados, somados a algumas atitudes de pessoas e empresas,
sedimentaram o caminho para o surgimento de um outro paradigma de produção de software
conhecido por Software Livre ou Free Software. No paradigma de Free Software a produção e
distribuição de software são feitas com modelos estratégicos e de negócios antagônicos aos da
indústria tradicional, conforme veremos mais adiante.
2.1. SOFTWARE PROPRIETÁRIO: PARTICULARIDADES
Estudar e discorrer sobre software não é tarefa fácil. O assunto é extenso, complexo e
demanda conhecimentos técnicos especializados. Assim, sem ignorar o fato de que algumas
62
questões importantes sobre esta tecnologia não são aqui contempladas, inclusive por fugirem
do escopo deste estudo, passamos a discorrer sobre algumas características dos modelos de
negócios típicos do software proprietário com o objetivo de facilitar sua diferenciação dos
softwares livres.
Durante os anos de formação da indústria do software proprietário, iniciou-se uma
revolução silenciosa no sentido de estabelecerem-se regras e padrões para estruturar o que
Friedman (2005, p. 90) classificou como “corpo de bombeiros mal estruturado”.
[...] Em fins da década de 1990, a indústria do software começou a responder aos
desejos dos consumidores. As empresas de tecnologia, ao cabo de muitas
controvérsias internas e inúmeras tentativas e erros, começaram a produzir padrões
baseados em web adotados de maneira mais generalizada, protocolos e estradas
digitais mais integrados, de modo que qualquer mangueira – isto é, qualquer aplicativo
de software – funcionasse com todos os hidrantes.
Quando falamos em software proprietário queremos dizer softwares protegidos por
licenças de uso. Uma licença pode ter determinadas particularidades que a diferencia de
outras, mas de forma geral uma licença define quais ações são autorizadas ou proibidas pelo
proprietário do software. Recorremos a Cezar Taurion (2004, p.15) para compreender melhor
essa questão:
Geralmente, a licença permite o uso de uma cópia única de um software, até
determinados limites. Existem, é claro, condições específicas para determinadas
organizações, como universidades e centros de pesquisa, que obtêm desconto
educacional. Entretanto estas licenças especiais procuram assegurar que o software só
será usado em situações de uso acadêmico, seja ensino, pesquisa ou gestão, não sendo
permitido seu uso fora deste âmbito, como em consultoria remunerada.
Denis Borges Barbosa (1993) explica que uma licença:
[...] é precisamente uma autorização, dada por quem tem o direito sobre o software,
para que uma pessoa faça uso do objeto do seu direito. [...] o titular do software
promete não empregar seus poderes legais para proibir a pessoa autorizada do uso do
objeto do seu direito. [...] o titular dá ao licenciado o direito de explorar o software,
com todos os poderes, instrumentos e meios de que disto decorram [...]. O titular dos
direitos de propriedade do programa produto, mesmo estando distante das vistas do
usuário, continuará mantendo, sobre o bem intelectual que acabou de ser adquirido
para uso, o seu direito de propriedade – e o adquirente deve, apenas, usar o programa
produto, com limitações. (ibidem).
63
A crescente demanda por softwares nos mais diversos segmentos das sociedades
estimulou polêmicas e discussões acerca das possibilidades de patenteá-los, como a que
Straubhaar e LaRose (2004, p. 214) nos apresentam a seguir:
Até 1990, o software de computador foi considerado impossibilitado de ser
patenteado, tomando como base o fato de que os computadores meramente
executavam cálculos matemáticos de fórmulas que eram elas próprias o produto de
processos mentais, e não dispositivos patenteáveis. Em outras palavras, o problema era
que os programas de computadores eram pensamentos não patenteáveis, não coisas
patenteáveis ou processos. A lei de patente nesse ponto evoluiu rapidamente no início
dos anos 90, incluindo um caso no qual foi definido que animação gráfica em
computadores era patenteável. Hoje, o software é geralmente olhado como patenteável
sob a lei americana. Isso torna provável que, no futuro, companhias tentem controlar o
mercado de softwares através da compra de patentes-chave [...]. Há preocupação
porque a patenteabilidade de software de computador foi agora muito longe, ao ponto
de poder retardar o desenvolvimento de novas aplicações. Por exemplo, em 1993 a
Enciclopédia da Compton obteve uma patente que cobria virtualmente todas as formas
de aplicação multimídia interativa de computador, o que poderia forçar
desenvolvedores – e os consumidores – de todos os softwares a pagar dividendos aos
detentores de patentes.
Uma patente tem aspectos que a assemelham ao monopólio (do grego monos = um +
polein = vender), ou seja, atribui direito de exclusividade para comercialização a uma
empresa ou pessoa que inventou determinado produto ou tecnologia. Cada país, a partir da
assinatura do Acordo TRIPs63, pode determinar quais invenções são ou não objeto de patentes,
desde que satisfaçam os requisitos indicados, pois nem tudo no mundo é patenteável. Na linha
dessa discussão, o professor Antonio José Junqueira Botelho (2008)64 da PUC-Rio em artigo
intitulado Práticas de Proteção de PI de Software nas Empresas Brasileiras Produtoras de
Software (2008), assim se posiciona:
Patenteabilidade dos procedimentos eletrônicos e de software é de grande importância,
63
Tratado Internacional, integrante do conjunto de acordos assinados em 1994 que encerrou a Rodada Uruguai e
criou a Organização Mundial do Comércio. Também chamado de Acordo Relativo aos Aspectos do Direito da
Propriedade
Intelectual
Relacionados
com
o
Comércio
(ADPIC).
Disponível
em:
http://www.cultura.gov.br/site/wp-content/uploads/2008/02/ac_trips.pdf.
64
Graduado em Geologia pela Universidade Federal do Rio de Janeiro (1978), com mestrado em Science,
Technologie et Société - Université de Paris IV (1983) e doutorado em Political Science - Massachusetts Institute
of
Technology
(1996).
Disponível
em:
http://lattes.cnpq.br/8270074222521103.
Disponível
www.inpi.gov.br/menu-esquerdo/academia-da-propriedade-intelectual-e.../PIemQuestao_29-0808_AntonioJunqueira.pdf
64
quando nos deparamos com plataformas tecnológicas desenvolvidas para o comércio
eletrônico, como, por exemplo, soluções inovadoras para ambientes em B2B
(business-to-business), B2C (business-to-consumer). Os métodos e procedimentos
dessas plataformas comerciais não são patenteáveis, segundo as leis brasileiras. A LPI
– Lei de Propriedade Industrial preceitua que são patenteáveis as invenções (produtos
e processos), os modelos de utilidade (que tornam a invenção mais útil) e os desenhos
industriais (o design dos produtos). Estes devem preencher os requisitos de: 1)
novidade; 2) atividade inventiva e; 3) aplicação Industrial. A lei, por si só, já exclui o
que não é considerado como 'invenção’, portanto, não patenteável. De forma genérica,
para se obter uma patente um inventor tem que demonstrar para o Estado que a
tecnologia para a qual pretende exclusividade é uma solução técnica para um
problema técnico determinado, ou seja, é um invento ou uma novidade de
aplicabilidade Industrial ou de utilidade pública, como alguns medicamentos, por
exemplo.
Para muitas pessoas a questão dos pagamentos de licença para uso de um
determinado software envolvendo patente não é bem compreendida porque, conforme nos
explica Taurion (2004, p. 16-17), “[...] nos primórdios da informática, os softwares eram
gratuitos e livremente distribuídos em formato fonte, pois havia poucos computadores e o
valor real estava na própria máquina não nos programas”. Com outras palavras, além de não
cobrarem separadamente pelo software os fornecedores do hardware ainda o entregavam
escrito em código fonte e não em código de máquina (ou executável), ou seja, entregavam o
código numa linguagem de programação que permitia leitura e interpretação do conteúdo do
programa por qualquer programador que dominasse a linguagem com a qual o código havia
sido escrito. Mesmo assim, os fabricantes estavam relativamente protegidos porque os
softwares, como já mencionamos anteriormente, dificilmente eram portáveis para outras
plataformas de hardware. Portanto, vender software separadamente do hardware era algo
inimaginável até que:
[…] com a maior disseminação dos computadores e o crescimento da indústria de TI,
o software começou a ser vendido separadamente da máquina. Gerou uma indústria
bilionária, e as empresas do setor começaram a buscar mecanismos de proteção de
propriedade intelectual como direitos autorais (copyrights) e patentes para se proteger
da acirrada concorrência e garantir suas vantagens competitivas. Neste momento, o
código fonte passou a ser protegido, pois ele é o próprio conhecimento do programa.
O modelo de software proprietário surgiu, portanto, para preencher uma necessidade
legítima do mercado. Sem incentivo financeiro, a indústria de software não teria
chegado aonde chegou. (TAURION 2004, p. 16-17).
Mesmo os softwares distribuídos sob licenças de shareware ou de freeware
65
pertencem à categoria dos softwares proprietários e são distribuídos em código de máquina. A
confusão ocorre por que:
Os softwares shareware são geralmente gratuitos por um determinado período de
tempo, definidos a critério do seu proprietário. Após este tempo, o software deixa de
funcionar ou opera em modalidade restrita. A ideia básica do shareware é que o
desenvolvedor deve ser remunerado pelo seu esforço. Assim depois de determinado
período de avaliação, onde nada é cobrado, o software demanda pagamento de uma
determinada taxa de licenciamento. Caso este pagamento não aconteça, o software
pode restringir sua funcionalidade a apenas algumas facilidades. [...] os softwares
shareware não vêm com permissão para fazer cópias e novas instalações sem licenças
adicionais. Os softwares freeware podem ser usados e eventualmente distribuídos
gratuitamente, sem limitações de tempo. O freeware não impõe nenhum pagamento ao
seu autor, para seu uso. Algumas vezes é adotado como parte de uma estratégia de
marketing para promover produtos complementares. Um exemplo clássico foi a
estratégia adotada pela Microsoft quando disponibilizou gratuitamente o browser
Explorer, para conseguir market share e assim alijar do mercado a Netscape e seu
navegador, então distribuído no modelo de pagamento de licença de uso. Os softwares
freeware podem ser obtidos gratuitamente, mas não podem ser modificados, porque
são liberados apenas em código binário. (TAURION 2004, p. 16-17).
Denis Borges Barbosa65 complementa a explicação de Taurion ao esclarecer que no
Brasil o registro de software é regulamentado por um conjunto de normas jurídicas: a Lei
9.609/98 sobre Programas de Computador; a nova Lei Autoral 9.610/98, que manteve em
vigor o art. 17 da Lei 5.988/73; o Decreto Federal 2.556/98 e a Resolução INPI 58/98. “[...] A
legislação ora em vigor (Dec. 2556/98) prevê que o Instituto Nacional da Propriedade
Industrial seja o órgão de registro dos direitos relativos aos programas de computador.” (idem,
ibidem). Neste contexto, é importante esclarecer que as leis brasileiras amparam a distribuição
dos softwares proprietários com código fechado. Ou seja, o impedimento do acesso ao código
fonte é amparada por força das leis de direitos autorais e de patentes brasileiras.
Ocorre que não são somente os programas que estão amparados contra a abertura de
código desautorizada pelo fabricante. A garantia de propriedade é concedida também para
assegurar o segredo de formatos de arquivos, como o .DOC (arquivo de texto) e .PPT
(arquivo de apresentação de slides) da Microsoft. Conforme esclarece Valverde (2008, p. 177)
“O padrão de formato doc estabelece como os textos e suas apresentações (fontes, tamanhos,
figuras, estrutura de documento, imagens etc) são armazenadas em arquivos digitais. O
formato ppt estabelece a forma de armazenamento dos conteúdos produzidos no software de
65
O Registro do Programa na Nova Lei de Software.
http://nbb.com.br/english/publications/intellectual_04.html Acesso em 12/12/08.
66
apresentação”.
O crescente desenvolvimento de tecnologia com padrões de código fechado tem sido
muito discutido por fabricantes de software, comunidades e governos, pois, manter conteúdos
armazenados em arquivos de formato proprietário ajuda na formação de monopólio e
dificultam sobremaneira a interoperabilidade entre softwares. Algumas empresas adotam a
política de divulgar a estrutura de seus padrões, mas mantêm os direitos de propriedade sobre
os softwares. Valverde (2008, p. 118) explica que os formatos ps (postscript), eps
(encapsulated postscript) e pdf (portable document format), estabelecidos pela empresa
Adobe para armazenamento digital de textos e gráficos, são três exemplos bastante
significativos e de grande importância para a indústria gráfica. O conhecimento destes
formatos permite que fabricantes de impressoras gráficas digitais possam assegurar impressão
de qualidade dos conteúdos desses arquivos, embora estejam submetidos a copyright, termo
usado para indicar que um produto está sujeito a direitos de autorais66. Em sentido oposto, um
bom exemplo de Open Source (código aberto) são os formatos de arquivo utilizados nos
aplicativos do pacote StarOffice da empresa SUN Microsystems, que aderem ao padrão aberto
ODF- Open Desktop Format.
Por sinal a SUN disponibiliza uma versão gratuita do StarOffice, chamada
OpenOffice, uma suíte de aplicativos que funciona com quase todos os sistemas operacionais
de microcomputadores e workstations e cujas funcionalidades são muito parecidas com as
disponíveis no pacote Office da Microsoft, porém acrescidas de recursos para desenho vetorial
2D e 3D equivalentes ao do software conhecido como CorelDRAW, e exportação para PDF. O
OpenOffice é capaz de ler e gravar arquivos nos padrões estabelecidos pela Microsoft, apesar
de os formatos de arquivos gerados pelos produtos Microsoft não serem Open Source.
A indústria de software proprietário continua a crescer em todo o mundo, inclusive
no Brasil, e cada vez mais disponibiliza grande variedade de produtos para as mais diversas
finalidades. No atual e clássico modelo de comercialização de software, explica Taurion (idem
p. 6) o “software proprietário, é fechado, pois é distribuído apenas em código binário, e não
legível pelos programadores. Os únicos que têm acesso a ele são os desenvolvedores da
empresa proprietária. Esta também se reserva o direito de proibir ou liberar seu uso, cópia ou
redistribuição, de acordo com seus interesses e práticas comerciais”.
66
O símbolo de copyright é "©". O Portal do Ministério da Cultura do Governo Federal disponibiliza diversos
estudos sobre direitos autorais. Disponível em: http://www.cultura.gov.br/site/categoria/politicas/direitosautorais-politicas/ Acesso 10/12/08.
67
Apesar desse crescimento e quase hegemônica presença do software proprietário no
mercado de microcomputadores, desktop, um novo modelo de negócio está crescendo no
mercado global. Este modelo é caracterizado pelos negócios que envolvem a tecnologia de
software livre, normalmente programas desenvolvidos sob as regras da licença GPL –
General Public License ou Licença Pública Geral, idealizada por Richard Stallman no final da
década de 1980.
Os softwares GPL são fornecidos com código fonte (ou open source), na maioria das
vezes são gratuitos e podem ser copiados diretamente de sítios da Internet. Como explica
Taurion (idem p. 6) “o modelo de negócios com Open Source e software livre permite o livre
acesso ao código fonte de um programa, pode ser usado, copiado, estudado e redistribuído
[...].” Para melhor compreender esse novo cenário de competição entre os dois paradigmas de
produção de software, passamos a discorrer rapidamente sobre o surgimento e modelo de
negócio dessa nova tecnologia de software: o software livre.
2.2. SOFTWARE LIVRE: PARTICULARIDADES
A complexa e bem sucedida indústria de software tornou-se um negócio lucrativo e
estratégico para o desenvolvimento econômico de muitas nações. No segmento de software
pré-empacotado para microcomputadores PC, um pequeno número de grandes empresas
praticamente monopoliza a produção e distribuição de softwares tais como sistemas
operacionais, automação de escritórios, computação gráfica etc. A Microsoft é um ícone
nesses segmentos e praticamente monopoliza os mercados de sistemas operacionais e
automação de escritórios para microcomputadores pessoais.
No final da década de 1990, ao se apresentar como alternativa natural de mercado
para confrontar monopólios privados, o modelo de negócio do software livre começou a
despertar a atenção da comunidade técnica, acadêmica e de negócios em todo o mundo. O
resultado, como mostra Taurion (2004 p. 4):
[…] é que vemos extensa cobertura da mídia; um crescente número de softwares
livres disponíveis às organizações, como o Linux e o Apache; a entrada de pesospesados da indústria como a IBM no negócio de softwares livres; e as discussões
políticas e comerciais, muitas vezes movidas por ideologias e não pela racionalidade,
68
do impacto deste novo modelo de negócios nas empresas usuárias e na própria
indústria de software. O software livre já não é mais apenas um brinquedo nas mãos de
hackers, mas já faz parte da agenda política e estratégica de empresas privadas e
públicas. É um negócio sério e profissional. [...] Já existem hoje dezenas de milhares
de projetos de softwares livres em desenvolvimento no mundo inteiro. Alguns já são
nomes representativos como o sistema operacional Linux, o servidor Web Apache, o
correio eletrônico Sendmail e a suíte OpenOffice (similar ao Office da Microsoft). O
software livre, pela sua proposta de custos menores, está tomando de assalto os
segmentos maduros e considerados comoditizados da indústria de software.
Nesse novo paradigma, a opção pelo Open Source permite que qualquer programador
possa ler, entender e modificar o programa. Ter acesso ao código fonte é, portanto, a chave
para abrir e modificar qualquer software, adaptá-lo a realidades específicas de países,
empresas e pessoas. Ademais, com o código aberto, o conhecimento sobre como os softwares
funcionam deixa de ser uma propriedade econômica de algumas pessoas e empresas e passa a
ser um conhecimento que pode ser compartilhado universalmente. A opção pelo software
livre, além de encampar o conceito de Open Source, propõe um modelo de negócio que não
envolve a cobrança pelas licenças de uso, embora, contrariamente ao senso comum, o SL não
seja necessariamente gratuito.
Em outras palavras, o modelo de negócios de Free Software/Open Source FS/OS –
ou simplesmente software livre – adota posição exatamente contrária ao processo de
comercialização do software proprietário, ou seja, as licenças de uso explicitam os direitos
dos usuários para: a) acesso ao código fonte do software; b) permissão para utilização de
quantas cópias o usuário desejar ou precisar e; c) permissão para qualquer usuário fazer
modificações no código. Este tipo de posição leva muitas pessoas a ficarem intrigadas com o
fato de outras pessoas e ou empresas investirem recursos de tempo, financeiros e de
conhecimento para criar produtos de software livre sem, necessariamente, obter disso
resultados financeiros. Pior ainda, criar tecnologias e depois distribuir gratuitamente esses
segredos. Por que isto acontece? Por que algumas pessoas e empresas trabalham em prol do
software livre, da abertura do código?
Já adiantamos que as condições para o estabelecimento desse paradigma de produção
e distribuição de software decorreram de muitos acontecimentos diferentes, que envolveram
pessoas e empresas cujas atitudes permitiram que as tecnologias geradas se tornassem um
bem público e não um produto proprietário a mais. Em alguns casos foi resultado de altruísmo
e teve por objetivo simplesmente beneficiar certas comunidades, em outros, está relacionado
com a ideia libertária de dar maior importância aos indivíduos e de protegê-los contra o
69
controle e excessos de estados e governos. Também há esforços conjuntos entre governos e
entidades de pesquisa não-governamentais – os primeiros com encomendas e financiamentos
e os segundos com conhecimento e trabalho – para criação de soluções ou produtos que
possam beneficiar a humanidade ou proteger a sociedade, enfim, existem casos em que tais
atitudes fizeram parte de uma estratégia mercadológica ou de formação da imagem de
empresas ou pessoas. A seguir mostraremos como algumas das tecnologias de software livre
surgiram a partir de uma ou mais destas motivações.
2.3. O SOFTWARE LIVRE E O PARADIGMA LIBERTÁRIO
Ao longo do processo de desenvolvimento Industrial das tecnológicas de
comunicação e computação algumas atitudes altruístas existiram por parte de determinadas
organizações. A AT&T – American Telephone and Telegraph, por exemplo, abriu mão de seus
direitos de patentes sobre o transistor, “preferindo compartilhar dados sobre ele com a
comunidade científica” explicam Straubhaar e LaRose (2004 p. 213).
Essa atitude agilizou o processo de miniaturização dos componentes eletrônicos e
levou a construção dos microcomputadores. “Pode ser que o medo da AT&T de processos
antitrustes tenha ajudado a inspirar seu altruísmo, pois como é de conhecimento geral, no
processo antitruste se busca evitar a formação de monopólios para o uso e comercialização de
um determinado produto ou tecnologia.” Outro exemplo foi o da Internet, cuja criação foi
resultante da interseção da big science com os interesses militares norte-americanos67 de
desenvolver uma rede de comunicação por computadores descentralizada para fazer frente ao
poderio soviético. O conceito de Big science, explica Castells (2003, p. 19);
[…] refere-se às investigações científicas que envolvem projetos vultosos e caros,
geralmente financiados pelo governo norte-americano. Envolvem também importantes
centros de pesquisas e universidades. Ainda hoje cientistas e pesquisadores continuam
a realizar projetos e a descrever as mudanças que continuamente ocorrem na ciência e
nas tecnologias, e que impactam de forma significativa na autoconstrução da rede.
67
Interesse que surgiu em plena guerra fria, em decorrência do conflito existente entre os Estados Unidos da
América do Norte e a União das Repúblicas Socialistas Soviéticas.
70
Este interesse militar levou o Departamento de Defesa dos EUA a criar a ARPA –
Advanced Research Project Agency – e a “Internet se desenvolveu, portanto, de forma
colaborativa envolvendo cientistas, universidades e centros de pesquisas com liberdade para
pesquisar sem objetivos pré-definidos”. Estas palavras de Castells (ibidem) deixam clara a
importância das práticas colaborativas centradas na liberdade de comunicação como uma das
principais constituintes da Internet – uma rede cujos protocolos de comunicação essenciais
são comuns e não-proprietários, e foram desenvolvidos de modo compartilhado. Nesse
contexto, podemos dizer que a Internet, após ter sido criada com base em trabalho
colaborativo, tornou-se, mais tarde, ela própria um espaço público, uma commons livre de
licenças de uso e de patentes para o compartilhamento dos conhecimentos que nos levaram ao
estágio de desenvolvimento em que nos encontramos atualmente. Em Commons a revolução
na produção simbólica (2007)68 Sérgio Amadeu da Silveira esclarece esta relação:
A palavra commons pode significar aquilo que é comum ou os espaços e as coisas que
são públicas. Em alguns casos pode ter o significado de comunidade ou da produção
compartilhada entre pares. [...] As novas tecnologias da informação e da comunicação
permitiram que a ideia do commons avançasse velozmente no cenário da cultura
digital. Os commons podem ter diversos entendimentos, mas nunca poderão ser
confundidos com a apropriação privada do que é comum. Como bem adverte o
professor Yochai Benkler, estamos participando de um período de mudanças profundas
em que a produção colaborativa evolui para a constituição de uma verdadeira
economia das redes de informação baseada na colaboração. [...] As redes digitais e os
bens informacionais permitiram que a produção social ou colaborativa entre pares
ganhasse dimensões planetárias.
A construção social deste novo commons somente foi possível porque durante o
processo de criação da Internet muitos cientistas, pesquisadores e até mesmo empresas
abriram mão de seus direitos de propriedade intelectual para permitir, colaborativamente, à
rede evoluir e avançar para diversos terrenos e culturas do mundo. A luta dos cientistas
adeptos do paradigma libertário foi para que os resultados desse processo de desenvolvimento
da Internet não fossem transferidos para a esfera de empresas privadas, estimulando, assim, a
formação de redes ou comunidades virtuais de trabalho. Esforço maior ainda foi feito para que
a Internet não se tornasse um instrumento proprietário ou sob controle de governos e estados.
68
Observatório da Imprensa. Disponível em:
www.cultura.gov.br/foruns_de_cultura/cultura_digital/na_midia/index.php?p=26056&more=1&c=1&pb=1.
71
Assim, a partir das décadas finais do século XX e em decorrência da sua crescente inserção
nos meios acadêmicos, a Internet tornou-se cada vez mais um fenômeno de autoconstrução.
O conceito de Paradigma Libertário está relacionado ao conceito de cultura de
liberdade. Portanto, os fundamentos deste paradigma referem-se às culturas ou ideologias
baseadas na defesa intransigente da liberdade como um valor supremo. Com freqüência estas
culturas se manifestam contra órgãos ou governos que intencionam colocar em risco tal
liberdade, embora, conforme explica Castells (2003, p. 19) o termo Libertário – libertarian –
tenha sentidos diferentes nos contextos europeu e americano.
Na Europa, refere-se a uma cultura ou ideologia baseada na defesa intransigente da
liberdade individual como valor supremo – com freqüência contra o governo, mas por
vezes com a ajuda do governo, como na proteção da privacidade. No contexto dos
EUA, ‘libertário’ significa fundamentalmente uma desconfiança sistemática no
governo com base na ideia de que o mercado cuida de tudo por si só, e os indivíduos
cuidam de si.
Outro fator que contribuiu para a autoconstrução da Internet está relacionado ao fato
de seu desenvolvimento ter sido feito com base no sistema operacional chamado UNIX. O
sistema operacional UNIX foi desenvolvido pela AT&T em 1969 e tinha como um de seus
principais objetivos facilitar sua portabilidade para que pudesse operar em diferentes
máquinas ou em plataformas diferentes. O sistema UNIX foi programado em uma linguagem
de programação chamada C, criada poucos anos antes pela própria AT&T para que o UNIX
pudesse ser portável. Segundo artigo intitulado Estudo sobre o Software Livre (2005) de
autoria de Joaquim Falcão69 tudo aconteceu assim:
Por causa de uma limitação legal, a AT&T não possuía autorização para fabricar
computadores ela mesma. Por isso, precisava comprar computadores de diversos
fabricantes para gerenciar as redes de telefone naquele país. Dois programadores da
empresa, sediados nos Bell Labs, decidiram enfrentar esse problema. Eles tiveram a
ideia de escrever um sistema operacional que pudesse funcionar em qualquer
computador, podendo ser traduzido de um padrão para outro. Desse modo, um
69
Doutor em Educação pela Université de Génève. Master of Laws (LLM) pela Harvard University. Professor de
Direito Constitucional da UFRJ e FGV. Diretor da FGV Direito Rio. Disponível em:
lattes.cnpq.br/4841367350910524
72
programa escrito uma única vez poderia ser rodado em vários computadores
diferentes. O nome dado a esse sistema operacional foi UNIX. Também por causa das
restrições legais impostas à AT&T, a empresa não tinha autorização para vender o
sistema operacional que criara. E, nesse sentido, optou por distribuí-lo livremente. Os
programadores responsáveis pela criação do software, Ken Thompson e Dennis
Ritchie, convenceram assim a empresa a distribuir o UNIX para qualquer interessado.
Os primeiros receptores do UNIX foram universidades. Departamentos de ciência da
computação começaram a trabalhar sobre o software, aperfeiçoando-o e
complementando-o. Em outras palavras, construindo novo conhecimento a partir do
conhecimento contido no código fonte do UNIX. O UNIX, por todo esse período,
funcionava como um bem de toda sociedade: ele encontrava-se não só disponível para
qualquer pessoa, como também permitia e disseminava o acesso ao conhecimento
incorporado na feitura do programa; além disso, atribuía a qualquer pessoa a
possibilidade de inovar a partir daquele corpo de conhecimento. Não havia
necessidade de se pedir autorização à empresa AT&T para obter acesso ao código
fonte do programa ou para estudá-lo e modificá-lo.
Por esses motivos a linguagem C e o sistema operacional UNIX foram as tecnologias
de base utilizadas pelos pesquisadores da ARPA – do Departamento de Defesa dos EUA - no
desenvolvimento do protocolo de comunicação TCP/IP – Transmission Control Protocol /
Internet Protocol, mais tarde adotado como padrão mundial para interconexão de
computadores na Internet. Seguramente, do ponto de vista da grande maioria de usuários das
tecnologias de informação atuais, a popularização dos computadores iniciou-se quando foi
possível conectar os computadores pessoais à Internet, sucessora das experiências feitas com
uma rede de área ampla WAN70, muito especialmente conhecida como ARPANET - Advanced
Research and Projects Network. Como explicam Straubhaar e LaRose (idem, p. 203) essa foi
“a primeira WAN operacional, em 1973, e foi a precursora da Internet de hoje, a rede das redes
que liga usuários na academia e na indústria, através dos Estados Unidos e do Mundo. A mais
importante inovação da ARPANET foi um meio de transmitir dados em longa distância em
uma maneira que não exigia conexões dedicadas entre cada e todos os pontos da rede”.
O desenvolvimento da Internet trouxe para o cenário da indústria de TI – Tecnologia
da Informação – outro grupo de empresas desconhecidas até então ou criadas especificamente
para participar da revolução em curso naquele momento. Lembra-nos Friedman (2004, p. 70)
que “em meados da década de 1999, a revolução da dupla PC-Windows havia chegado aos
seus limites. Se era para o mundo ficar efetivamente interconectado [...] a revolução
tecnológica precisava entrar na fase seguinte – que, [...] consistia em 'passar de uma
70
WAN é acrônimo de Wide Area Network, ou rede de cobertura ampla.
73
plataforma de computação baseada em PC para outra baseada na Internet'”. Essa nova
plataforma de computação baseada em rede global começou a ser formada por outros tipos de
aplicativos que não estavam contemplados nas plataformas anteriores, pelo menos em termos
de escala e usabilidade.
Os aplicativos cruciais, em torno dos quais a nova fase giraria, seriam o e-mail e os
browsers. A rápida expansão do primeiro acompanhou a de portais comerciais como a
AOL, a CompuServe e, mais tarde, o MSN. Entretanto foi o outro aplicativo, o
browser, capaz de recuperar documentos ou páginas da web armazenadas em sites e
exibi-las em qualquer tela de computador, que arrebatou imaginações. O conceito de
World Wide Web – um sistema para criação, organização e interligação de documentos,
possibilitando a fácil navegação entre eles – foi elaborado pelo especialista da
computação britânico Tim Berners Lee, que criou o primeiro site da web em 1991, na
tentativa de fomentar uma rede de computadores que possibilitasse aos cientistas
compartilhar suas pesquisas com facilidade. Outros cientistas e acadêmicos criaram
browsers (ou navegadores) diversos para surfar pela rede nessa etapa inicial; todavia,
o primeiro a se disseminar, junto com toda a cultura do uso da web pelo público em
geral, foi desenvolvido por uma diminuta empresa iniciante de Mountain View,
Califórnia: a Netscape. [...] o browser não só injetou vida nova na Internet como a
tornou acessível para todos, dos 5 aos 85 anos de idade; quanto mais pulsante a
Internet, maior o desejo dos consumidores de fazer outras coisas na web, de modo que
começaram a demandar computadores, programas e redes de telecomunicações
capazes de digitalizar com facilidade textos, músicas, dados e fotos e transportá-los,
pela Internet, para qualquer outro computador do planeta. (FRIEDMAN 2004, p. 7080).
Novamente, não se tratou de disrupção tecnológica e sim de novas tecnologias de
hardware e software que possibilitaram a inclusão de milhões de pessoas nesse novo ambiente
e que passaram a utilizá-lo para comunicação. O pioneirismo do Netscape rendeu a empresa
Netscape Communications Corporation posição hegemônica no mercado de navegação na
Internet, pois o que ela fez foi “introduzir um novo aplicativo crucial – o browser, ou
navegador – na base já instalada de PCs, aumentando assim a utilidade inerente do
computador e sua conectividade para milhões de pessoas” (FRIEDMAN idem p. 70-80). A
rigor o browser Netscape foi resultado da união da Big Science com interesses empresariais e
tem importância histórica para a Internet.
Em meados de 1994, o fundador da Silicon Graphics, havia unido forças com
Andreessen para fundar a Mosaic, que logo seria rebatizada de Netscape
Communications. Andreessen, jovem e brilhante cientista da computação, acabara de
encabeçar um pequeno projeto de software no National Center for Supercomputing
Applications (NCSA), baseado na Universidade de Illinois, que desenvolveu o
74
primeiro browser para a web efetivamente funcional, também chamado Mosaic. Clark
e Andreessen não demoraram a compreender o gigantesco potencial dos navegadores e
decidiram formar uma parceria para sua comercialização. [...] Hoje nem prestamos
atenção à tecnologia de navegação na web, mas na verdade essa foi uma das mais
importantes invenções da História moderna. [...] Marc Andreessen não inventou a
Internet, mas foi o individuo que mais contribuiu para trazê-la à vida e populariza-la
(FRIEDMAN idem 2004 p. 72).
Na verdade, a Internet já existia antes do surgimento do browser, porém, o acesso às
informações dos computadores que compunham a rede exigida conhecimentos que somente
os cientistas da computação das universidades e de institutos de pesquisas dominavam:
No laboratório do NCSA, na Universidade de Illinois, Andreessen havia percebido que
dispunha de PCs, estações de trabalho e a estrutura básica de rede para deslocar
arquivos pela Internet, mas nada era muito interessante – porque não havia com o que
navegar, nenhuma interface de usuário com que exibir o conteúdo dos sites dos outros
na web. Assim ele e sua equipe desenvolveram o Mosaic, possibilitando a qualquer
idiota, cientista, estudante ou velhinha visualizar os sites da web. [...] O Mosaic
começou em 1993, com 12 usuários. O projeto foi financiado pela Nacional Science
Foundation. [...] O primeiro navegador comercial da Netscape – que funcionava tanto
em PC da IBM quanto no Macintosh, da Apple, ou nos computadores UNIX – foi
lançado em dezembro de 1994 e, um ano depois, havia dominado por completo o
mercado. Quem fosse da área de educação ou de organizações sem fins lucrativos
tinha a possibilidade de baixá-lo de graça; pessoas físicas poderiam fazer uma
avaliação gratuita com prazo ilimitado e comprá-lo em disco, caso o desejassem.
Empresas podiam avaliar o software por noventa dias (FRIEDMAN ibidem).
Ao perceber o sucesso da Netscape Communications, a empresa Microsoft
Corporation desenvolveu seu browser Internet Explorer (IE) para operação exclusivamente
em seu sistema operacional Windows, com o propósito de competir com a rival Netscape.
Diante da resistência do mercado em utilizar o Internet Explorer (IE), a Microsoft adotou
táticas de marketing que derrubaram as vendas do Netscape. Desde o lançamento do sistema
operacional Windows 95 o Internet Explorer passou a ser instalado gratuitamente nos
sistemas operacionais da Microsoft, com grande vantagem sobre o Netscape porque este, além
de pago, tinha que ser instalado pelo usuário final no Windows. Quando a Netscape
Communications percebeu que o 'empacotamento' do Internet Explorer no Windows estava
provocando problemas recorreu à justiça e processou a Microsoft por práticas comerciais
ilegais.
Infelizmente, por não possuir outros produtos que pudessem sustentar a doação de
seu browser, a Netscape não conseguiu se recuperar do golpe aplicado pela Microsoft e, como
75
última cartada abriu o código de seu software dando início ao projeto de free software
chamado Mozilla. Mais tarde a Netscape foi comprada pela AOL/Time Warner que decidiu
apoiar a construção do mais bem sucedido navegador distribuído com código aberto - o
Mozilla Firefox.
Assim foi deflagrada a guerra dos browsers, fato que trouxe à tona preocupações de
alguns visionários com a importância do código aberto e dos limites acerca dos direitos
autorais dos softwares proprietários. Neste contexto, a Netscape teve um bom motivo para
tornar pública sua preocupação com a possibilidade de a Microsoft tentar substituir os
protocolos abertos da web por protocolos fechados, proprietários, pois, de forma simplificada,
podemos dizer que o software Internet Explorer passou a ser disponibilizado gratuitamente
junto com as versões do Windows porque no final da década de 1990 a Microsoft se sentia
incomodada com a forte presença da Netscape no emergente mercado da Internet.
Preocupações com as consequências do fechamento de código de softwares não eram
novas, e Joaquim Falcão (2005) nos relata como tal preocupação levou o pesquisador do
Massachusetts Institute of Technology (MIT), Richard Stallman a criar uma estrutura formal e
legal para proteger usuários da Internet desse tipo de atitude:
Durante a maior parte dos anos 70, a computação permanecia tendo como regra a
abertura do código. O fechamento era exceção, inclusive, mal vista por parte de
programadores de maneira geral. Stallman trabalhava com uma rede de computadores
que por sua vez era conectada a uma impressora. Um programa escrito pela equipe de
programadores do MIT controlava a impressora, inclusive acusando quando havia um
problema na impressão. Em 1984 o programa que controlava a impressora foi
substituído por outro. Stallman solicitou então à empresa que havia fornecido o
programa o código fonte do mesmo, para que ele pudesse ser aperfeiçoado às
necessidades do laboratório. A empresa recusou-se a fornecê-lo. Stallman tomou a
atitude da empresa como uma ofensa moral. Para ele, o conhecimento contido no
programa que controlava a impressora era produto de um esforço coletivo e a
supressão do mesmo deu início à reação. Em 1985 foi criada a Fundação do Software
Livre (Free Software Foundation71), entidade com o objetivo de fomentar o
desenvolvimento de software que permitisse à sociedade o acesso ao conhecimento
nele incorporado, na forma de código fonte.
Sendo uma regra da computação nos anos 70 preservar a abertura do código fonte,
em 1974 a AT&T havia liberado a fonte do UNIX. Conforme explica Castells (ibidem),
“liberou seu código fonte para universidades americanas, dando-lhes inclusive permissão para
alterá-lo. Assim, esse sistema operacional foi por longo período de tempo a linguagem franca
71
www.fsf.org
76
da maioria dos departamentos de ciência da computação americanos, e os jovens estudantes
tornaram-se ágeis peritos em sua manipulação.” Porém, em 1984, após seu desdobramento da
AT&T, os Laboratórios Bell decidiram ingressar no ramo computacional e reivindicaram
legalmente seus direitos de propriedade sobre o UNIX, fato que levou Stallman com um
grupo de colaboradores a escrever um novo sistema inspirado no UNIX, mas não submetido
ao copyright da Bell que passou “[...] a exercer controle sobre o UNIX, decidindo que o
software não seria mais livre. [...] A resposta da Free Software Foundation foi ambiciosa.
Uma vez que o UNIX não era mais livre, a ideia foi desenvolver um substituto ao UNIX que
fosse definitivamente livre. Surgiu assim o projeto de criação do programa GNU, sigla que
significa 'GNU is Not Unix' (GNU não é UNIX).” (FALCÃO 2005).
Na realidade, a utilização do UNIX nessa época já havia se expandido bastante a
partir de inúmeras versões criadas por diversos fabricantes de computadores para atender as
necessidades de aplicações que demandavam máquinas mais poderosas que os
microcomputadores PC, tais como workstations e minicomputadores. A criação de um UNIX
específico para cada fabricante levou a uma excessiva pulverização em inúmeras versões com
o correr dos anos.
[…] Algumas das versões foram desenvolvidas em universidades, que usavam o
UNIX como laboratório de trabalho para a teoria dos sistemas operacionais. Outras
versões foram desenvolvidas por fabricantes de computadores. Cada empresa
aperfeiçoou o UNIX para seus próprios computadores, incompatibilizando, assim seu
sistema operacional com todos os demais. Portanto, em vez de um sistema aberto
único o UNIX virou uma coleção de sistemas operacionais competindo uns com os
outros. As diferenças todas dificultavam a compatibilização do software e
desencorajaram o desenvolvimento de software para UNIX por terceiro. Apenas umas
poucas empresas de software podiam se dar ao luxo de desenvolver e testar aplicações
para uma dezena de versões diferentes do UNIX (BILL GATES 1995, p. 83).
Também ocorreram várias tentativas bem sucedidas de implantação do UNIX em
PCs, dentre elas o Xenix72 da própria Microsoft e o Interactive UNIX73. Ocorre que todos os
72
O Xenix foi uma versão de UNIX que a Microsoft pretendia usar em microcomputadores. Para não licenciar o
próprio UNIX da AT&T, eles deram a ele um nome original. A terminação -ix segue uma convenção usada por
muitos outros sistemas operacionais similares ao Unix. A Microsoft comprou uma licença somente para o Unix
Versão 7 da AT&T em 1979, e anunciou em 25 de Agosto de 1980 que ele seria disponível para o mercado de
microcomputadores. A Santa Cruz Operation (SCO) adquiriu mais tarde os direitos exclusivos do XENIX e
começou a distribuí-lo como SCO UNIX. http://pt.wikipedia.org/wiki/Xenix.
77
UNIX e seus similares eram pagos, mas, mesmo assim, eram utilizados pelas universidades
americanas e européias, como já observara Gates. Esse cenário manteve-se até que Linus
Torvalds deu origem ao projeto do sistema operacional Linux, a partir do mesmo princípio
de compartilhamento de abertura do seu código através do recém criado ambiente
colaborativo que a Internet possibilitou.
Em 1991, pondo esse princípio em prática, Linus Torvalds, [...] desenvolveu um novo
sistema operacional baseado no UNIX, chamado Linux, e o distribuiu gratuitamente
pela Internet, pedindo aos usuários que o aperfeiçoassem e enviassem os resultados
obtidos de volta para a Net. O resultado dessa iniciativa foi o desenvolvimento de um
robusto sistema operacional Linux, constantemente aperfeiçoado pelo trabalho de
milhares de hackers, especialistas em programação, e milhões de usuários, a tal ponto
que o Linux é agora geralmente considerado um dos sistemas operacionais mais
avançados do mundo, em particular para a computação baseada na Internet
(CASTELLS 2003, p. 17).
Em outras palavras, Linus Torvalds74 desenvolveu o componente que faltava para o
sistema operacional GNU, o chamado kernel75. Assim, explica Falcão (ibidem), “o sistema
operacional chamado GNU/Linux” ficou popularmente conhecido como Linux. “O
instrumento para garantir que o GNU/Linux fosse mantido sempre aberto consistiu em um
contrato jurídico, chamado de GNU GPL (GNU General Public License ou Licença Pública
do GNU)”. Campos (2006) completa esta explicação ao lembrar que:
Inicialmente, o kernel Linux foi desenvolvido como um hobby por Linus Torvalds
com o objetivo de desenvolver seu próprio sistema operacional “Unix-like” que
rodasse em processadores Intel 80386. Linus chegou a estudar o Mimix, um sistema
similar de autoria do famoso acadêmico Andrew Tanenbaum, mas não ficou satisfeito
com a arquitetura deste (que não era um software livre, inclusive) e resolveu criar o
seu próprio sistema.
73
O Interactive UNIX System V/386 foi um porte do UNIX System V para processadores Intel X86 e liberado em
1985 pela empresa Interactive Systems Corporation (ISC). A ISC, empresa do grupo Eastman Kodak, foi
adquirida pela Sun Microsystems em 1992. A Sun Microsystems suportou o produto até julho de 2006, 5 anos
após sua retirada do mercado. http://en.wikipedia.org/wiki/INTERACTIVE_UNIX.
74
Linus Torvalds pertence à comunidade dos Finlandssvensk, um extrato da população representando 6% dos
habitantes da Finlândia, que falam sueco. Ele estudou na Universidade de Helsinki. Vive atualmente em Santa
Clara,
na
Califórnia,
e
trabalha
no
Open
Source
Development
Lab
(OSDL).
http://wikimediafoundation.org/wiki/Home- GNU Free Documentation License. Acesso 26 de Agosto de 2008.
75
Kernel:
a
parte
central
e
essencial
de
http://en.wikipedia.org/wiki/Kernel_%28computer_science%29.
um
sistema
operacional.
Cf.
78
O projeto Linux foi fundamental para popularização da tecnologia de software livre e
contribuiu para o estabelecimento de um commons de desenvolvimento desse tipo através da
Internet.
Tornou-se um sério desafio à Microsoft e outras grandes empresas globais da área.
Conforme relatou a revista Fortune, em 23 de janeiro de 2004, ' a disponibilização
desse software simples, mas poderoso, que funciona nos onipresentes
microprocessadores da Intel, coincidiu com o crescimento explosivo da Internet. O
Linux não demorou a conquistar adeptos entre programadores e empresas do mundo
inteiro (…). E a revolução vai muito além do pequeno Linux (…). Programas de
praticamente todo tipo podem ser encontrados agora em código aberto o
SourceForge.net, site que é um ponto de encontro de programadores, faz uma lista
com assombrosos 86 mil programas em desenvolvimento em sua maioria são projetos
menores, feitos por e para aficionados mas centenas deles possuem valor real. (…)
Para quem detesta a ideia de desembolsar 350 dólares pelo Microsoft Office ou 600
dólares pelo Adobe Photoshop, o OpenOffice. Org e o GIMP são alternativas gratuitas
e de qualidade surpreendentemente alta. ' Grande empresas como Google, E*Trade e
Amazon, combinando componentes de servidor baseados em chips Intel e o sistema
operacional Linux, lograram efetuar uma drástica redução de seus gastos com
tecnologia e obter mais controle sobre seu software (FRIEDMAN, 2005 p 118-118).
Na concepção de Manuel Castells (2003) “o sistema operacional Linux é ao mesmo
tempo um kernel (ou núcleo) e um sistema operacional que roda sobre o núcleo.” Assim, a
iniciativa de Torvalds em construí-lo utilizando como base a infraestrutura da Internet e
envolvendo milhares de colaboradores que compartilham o paradigma libertário criou um
novo modelo de desenvolvimento de software livre.
2.4. O MODELO DE DESENVOLVIMENTO DO SOFTWARE LIVRE
As facilidades decorrentes da popularização da Internet e de acesso à informação têm
favorecido a constante formação de comunidades virtuais e colaborativas de trabalho neste
início do século XXI. Geralmente os membros destas comunidades promovem encontros
entre pessoas dos mais diversos pontos do planeta no ciberespaço, e muitas destas pessoas
estão envolvidas com o desenvolvimento de free software. Nem sempre os conceitos de free
79
softwares são compreendidos pelas pessoas interessadas em utilizá-los. Esse conceito costuma
causar confusão especialmente entre brasileiros, pois a palavra inglesa free – que é utilizada
com o significado de livre – é muitas vezes confundida com a palavra grátis. Como nos
explica Taurion (2004, p. 17):
O software livre é diferente das modalidades tradicionais de comercialização e
distribuição de software, no sentido de que é também distribuído em formato fonte,
portanto legível e passível de ser alterado e redistribuído pelos usuários. Além disso,
seu autor outorga a todos direitos de usar, copiar, alterar e redistribuir o programa. De
maneira geral são gratuitos quando copiados a partir de um site na web.
Segundo Augusto Campos (2006)76, o software é livre quando sua distribuição segue
critérios de licenciamento estabelecidos pela Free Software Foundation, ou seja:
A forma usual de um software ser distribuído livremente é sendo acompanhado por
uma licença de software livre (como a GPL ou a BSD), e com a disponibilização do
seu código-fonte. Software livre é diferente de software de domínio público. O
primeiro, quando utilizado em combinação com licenças típicas (como as licenças
GPL e BSD77), garante os direitos autorais do programador/organização. O segundo
caso acontece quando o autor do software renuncia à propriedade do programa (e
todos os direitos associados) e este se torna bem comum.
Outras denominações podem confundir free software com outros tipos de software, a
exemplo dos Freeware e Shareware. Freeware é um tipo de programa que pode ser
redistribuído. Os usuários de computadores não precisam pagar licenças para utilizá-los, pois
são disponibilizados na Internet, mas este tipo de software não pode ser modificado. O código
fonte do Freeware não é disponibilizado aos usuários. Os Shareware também são
disponibilizados na Internet com permissão para que sejam redistribuídos – como os freeware
– mas sua utilização implica pagamento de licença. Ou seja, embora os custos sejam menores
76
Augusto César Campos é o criador e editor do BR-Linux - 1996. Autor de diversas publicações técnicas na
Linux Magazine (onde é colunista fixo), Revista do Linux, PC Master, Geek, Copyleft e outras, além de diversos
jornais e websites da comunidade. Autor de O que é software livre. BR-Linux. Florianópolis, março de 2006.
Disponível em http://br-linux.org/sobre/ http://www.linuxnewmedia.com.br/noticia/bons_artigos e http://brlinux.org/linux/faq-softwarelivre. Acesso em 15/06/2007.
77
Berkely Software Distribution ou Distribuição de Software de Berkeley. Licença inicialmente utilizada
somente nos sistemas operacionais do tipo Berkeley Software Distribution – um sistema derivado do Unix.
Apesar de ter sido criada para os sistemas BSD atualmente vários outros sistemas são distribuídos sob esta
licença. O desenvolvedor de um sistema sob esta licença não tem nenhuma obrigação em disponibilizar seu
código fonte, os créditos dos autores originais devem ser mantidos.
80
do que os cobrados por tradicionais indústrias de software, como a Microsoft, o desenvolvedor
pode cobrar pelo software que desenvolveu. Pode ainda vendê-lo para uma empresa, mas esta
não é obrigada a distribuí-lo. Geralmente o código fonte deste software também não é
disponibilizado para os usuários, portanto, não é possível fazer modificações nos softwares
shareware. Os softwares de domínio público ou sem direito autoral – sem copyright – também
podem apresentar alguns tipos ou versões que não são livres.
Embora o monopólio78 da indústria de software proprietário esteja concentrado na
América do Norte, alguns projetos interessantes que contemplam o uso de software livre têm
sido desenvolvidos por empresas de comunicação e entretenimento neste país, com o duplo
objetivo de reduzir custos com pagamentos de licença e modificá-los para incluir inovações
que permitam diferenciar suas produções das dos concorrentes. A DreamWorks79, empresa de
Steven Spielberg é um exemplo: utilizou software livre na produção de dois famosos desenhos
animados de longa metragem – Shrek e Madagascar. A empresa de Spielberg é conhecida no
mundo todo como uma empresa que privilegia o emprego de tecnologia de software livre -S.L
na produção de conteúdos comunicacionais de entretenimento para veiculação na televisão,
cinema e Internet.
No Brasil, com exceção das tentativas desenvolvidas pelo governo federal, ainda são
poucos os projetos desenvolvidos por empresas ou entidades com software livre – S.L,
especialmente projetos voltados à criação de produtos ou conteúdos para veiculação no rádio,
televisão ou Internet. Para Sérgio Amadeu80 a tentativa de implantação preferencial do
software livre nos projetos do governo federal não se justifica apenas pela redução de custos,
sobretudo com pagamento de licenças, mas porque “O Brasil tem mais que o direito, tem a
necessidade de utilizar tecnologias que permitam aumentar a sua autonomia tecnológica, a sua
participação como ‘desenvolvedor’ de soluções na sociedade da informação”.
Ainda que sejam poucos os projetos desenvolvidos por empresas ou entidades
78
Monopólio se refere a uma área de negócios ou serviços dominada por uma única empresa, no caso da
indústria de software pela Microsoft.
79
Em 1994 Steven Spielberg, Jeffrey Katzenberg e David Geffen fundaram a DreamWorks SKG. Nathan Wilson,
do Estúdio Cinematográfico DreamWorks (USA) e responsável pela produção dos filmes infantis, sucessos de
bilheterias, Shrek I e II, Madagascar e Spirit esteve no Brasil, na Cidade de Curitiba, para participar da
Conferência Latino-Americana de Software Livre nos dias 26 e 27 de Novembro de 2005. Disponível em:
http://www.dreamworks.com (acesso em 04/03/2006).
80
Ex-diretor-presidente do Instituto Nacional de Tecnologia (ITI), e ex-chefe do programa de telecentros da atual
administração municipal paulistana. Entrevista à revista Com Ciência - Revista Eletrônica de Jornalismo
Científico - 10/06/04. Disponível em: http://www.comciencia.br/200406/entrevistas/entrevista1.htm.
81
brasileiras, algumas organizações já estão observando estas possibilidades. A Revista Exame81
divulgou interessante matéria que nos remete a está realidade. Intitulada “Como o software
livre está ajudando as empresas brasileiras a cortar custos” a referida matéria deixou claro que
o S.L foi utilizado por uma grande rede varejista do país com o objetivo de economizar
despesas com o pagamento de licenças. A mesma reportagem citou ainda o emprego de S. L
por uma empresa de telecomunicações e uma rede de fast food americanas com franquias no
Brasil, que recorreram ao uso do software livre pelo mesmo motivo82.
Outro exemplo interessante da adoção da tecnologia de código aberto é o projeto SetTop Box do Laboratório de Integração Software/Hardware da Universidade Federal de Santa
Catarina83. O Set-Top Box digital é uma tecnologia necessária para a recepção de transmissões
de TV Digital, pois a maioria dos televisores em uso não possui, ainda, um sintonizador
específico para esta recepção. Esta tecnologia é também conhecida pelo nome de Integrated
Receiver/Decoder - IRD - dispositivo eletrônico utilizado para recolher um sinal de rádiofrequência e decodificá-lo, convertê-lo, em informação digital. Conforme explica Marcos
Fagundes Caetano (2002)84, um Set-Top Box é “[...] um dispositivo eletrônico o qual realiza
interface com televisão disponibilizando serviços adicionais. […] Dispositivo de
entretenimento interativo residencial que disponibiliza acesso a Internet, streaming de vídeo e
informações via tradicional sistema de televisão […]”. A tecnologia Set-Top Box foi
desenvolvida com software livre.
Comunidades de Open Source como as envolvidas no projeto SetTopBox procuram
adaptar os produtos desenvolvidos as reais necessidades dos projetos para assim obter melhor
desempenho dos equipamentos e desenvolver novas soluções que podem ser melhoradas,
adaptadas a realidade dos projetos, atividades impossíveis de serem realizadas sem acesso aos
códigos fontes dos programas. Conforme nos explica Caetano (idem, ibidem) algumas
81
Revista Exame. Edição 857. Ano 39. No. 24 de 7 de dezembro de 2005.
82
Outros exemplos de economia com a adoção de software livre em outras empresas. Disponível em
http://www.flogao.com.br/linuxbh/foto/12/36782947.
83
O Laboratório de Integração Software e Hardware - LISHA está em atividade desde 1985, e atua em projetos
de pesquisa nas áreas de arquiteturas de computadores, sistemas operacionais e sistemas embarcados, tendo
como principais focos de aplicação áreas de automação, telefonia e TV digital. Disponível em:
http://www.lisha.ufsc.br/~caetano ou http://epos.lisha.ufsc.br/wpkg/stb.pdf ou http://www.lisha.ufsc.br. Acesso
em 18/08/08.
84
Bacharel em Ciências da Computação pela Universidade Federal de Santa Catarina (2005). Analista de
Sistemas / Administrador de Rede da Universidade de Brasília.
http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4737497Z6. Acesso em 18/08/08.
82
comunidades envolvidas nos projetos de Set Top Box, são: i) Linux4.TV85 – Desenvolve
aplicações e soluções baseadas na Tecnologia National Semiconductor, compatível com X86,
em parceria com Century Embedded Technologies e VT Media Technologies; ii) Tv Linux
Alliance86 – envolve vários grupos unidos com tecnologia de transmissão por satélite, cabo,
sem fio que desenvolvem soluções para SetTopBox. iii) Linux Devices87 – Comunidade Linux
dedicada a dar suporte via informação em sistemas embutidos.
A comunicação pela rede entre membros de comunidades de desenvolvedores de
software livre, a exemplo dos projetos Linux e Set Top Box, caracteriza um novo paradigma
denominado por Eric Raymond, na obra The Cathedral and the Bazaar (1998), de bazar, pois
é um paradigma diferente daquele praticado pela indústria tradicional:
Eu fui um dos primeiros contribuintes para o projeto GNU nos meados de 1980. [...]
Eu pensei que eu sabia como isso era feito. [...] Eu estava pregando o modo Unix de
uso de pequenas ferramentas, de prototipagem rápida e de programação evolucionária
por anos. Mas eu acreditei também que havia alguma complexidade crítica, acima da
qual uma aproximação mais centralizada, mais a priori era requerida. Eu acreditava
que os softwares mais importantes (sistemas operacionais e ferramentas realmente
grandes como Emacs) necessitavam ser construídos como as catedrais, habilmente
criados com cuidado por mágicos ou pequenos grupos de magos trabalhando em
esplêndido isolamento, com nenhum beta para ser liberado antes de seu tempo. O
estilo de Linus Torvalds de desenvolvimento - libere cedo e freqüentemente, delegue
tudo que você possa, esteja aberto ao ponto da promiscuidade - veio como uma
surpresa. Nenhuma catedral calma e respeitosa aqui - ao invés, a comunidade Linux
pareceu assemelhar-se a um grande e barulhento bazar de diferentes agendas e
aproximações (adequadamente simbolizada pelos repositórios do Linux, que aceitaria
submissões de qualquer pessoa) de onde um sistema coerente e estável poderia
aparentemente emergir somente por uma sucessão de milagres. O fato de que este
estilo bazar pareceu funcionar, e funcionar bem, veio como um distinto choque.
Conforme eu aprendia ao meu redor, trabalhei duramente não apenas em projetos
individuais, mas também tentando compreender porque o mundo do Linux não
somente não se dividiu em confusão, mas parecia aumentar a sua força a uma
velocidade quase inacreditável para os construtores de catedrais.
“De fato, eu penso”, continua Raymond (ibidem), “que a engenhosidade do Linus e a
maior parte do que desenvolveu não foram a construção do kernel do Linux em si, mas sim a
sua invenção do modelo de desenvolvimento do Linux. Linus mantinha os membros da
85
Disponível em www.linux4.tv Acesso em 10/10/07.
86
Disponível em www.tvlinuxalliance.org Acesso em 10/10/07.
87
Disponível em www.linuxdevices.com Acesso em 10/10/07.
83
comunidade, - usuários e desenvolvedores – continuamente estimulados e recompensados,
estimulados pela perspectiva de estar tendo um pouco de ação satisfatória do ego,
recompensados pela visão do constante (até mesmo diário) melhoramento do seu trabalho”.
No desenvolvimento do Linux, único software operacional da atualidade capaz de competir
com os softwares proprietários:
Linus estava diretamente direcionado a maximizar o número de pessoas-hora
dedicadas à depuração e ao desenvolvimento do kernel do Linux, mesmo com o
possível custo da instabilidade no código e extinção da base de usuários se qualquer
erro sério provasse ser intratável. Linus estava se comportando como se acreditasse
em algo como isto: Dada uma base grande o suficiente de beta-testers e codesenvolvedores, praticamente todo problema será caracterizado rapidamente e a
solução será óbvia para alguém. Ou, menos formalmente, ‘Dados olhos suficientes,
todos os erros são triviais.’ Eu chamo isso de: ‘Lei de Linus’. Minha formulação
original foi que todo problema 'será transparente para alguém'. Linus objetou que a
pessoa que entende e conserta o problema não é necessariamente ou mesmo
frequentemente a pessoa que primeiro o caracterizou. ‘Alguém acha o problema,’ ele
diz, ‘e uma outra pessoa o entende. E eu deixo registrado que achar isto é o grande
desafio.’ Mas o ponto é que ambas as coisas tendem a acontecer rapidamente.
(RAYMOND 1998, p. 2).
A resposta que deve ser dada às organizações que duvidam das possibilidades de se
utilizar a plataforma de softwares livres em empresas, entidades escolares etc, a iniciar com o
Linux, com receio de terem problemas com bugs que jamais serão solucionados ou levarão
tempo demasiadamente longo para ser reparados é apresentada por Raymond (1998, p. 2) a
seguir:
Aqui, eu penso, é o centro da diferença fundamental entre os estilos bazar e catedral.
Na visão catedral de programação, erros e problemas de desenvolvimento são difíceis,
insidiosos, um fenômeno profundo. Leva meses de exame minucioso por poucas
pessoas dedicadas para desenvolver confiança de que você se livrou de todos eles. Por
conseguinte os longos intervalos de liberação, e o inevitável desapontamento quando
as liberações por tanto tempo esperadas não são perfeitas. Na visão bazar, por outro
lado, você assume que erros são geralmente fenômenos triviais – ou, pelo menos, eles
se tornam triviais muito rapidamente quando expostos para centenas de ávidos codesenvolvedores triturando cada nova liberação. Consequentemente você libera
frequentemente para ter mais correções, e como um benéfico efeito colateral você tem
menos a perder se um erro ocasional aparece. E é isto. É o suficiente. Se a ‘Lei de
Linus’ é falsa, então qualquer sistema tão complexo como o kernel do Linux, sendo
programado por tantas mãos quantas programam o kernel do Linux, deveria a um
certo ponto ter tido um colapso sob o peso de interações imprevisíveis e erros
‘profundos’ não descobertos. Se isto é verdade, por outro lado, é suficiente para
84
explicar a relativa falta de erros do Linux. E talvez isso não devesse ser uma surpresa,
mesmo assim, anos atrás, sociologistas descobriram que a opinião média de uma
massa de observadores especialistas (ou igualmente ignorantes) é um indicador mais
seguro que o de um único observador escolhido aleatoriamente. Eles chamaram isso
de o efeito 'Delphi88'. Parece que o que o Linus tem mostrado é que isto se aplica até
mesmo para depurar um sistema operacional – que o efeito Delphi pode suavizar a
complexidade do desenvolvimento até mesmo em nível de complexidade do kernel de
um sistema operacional (RAYMOND 1998, p. 2).
Enfim, além de se tornar um novo e revolucionário paradigma para desenvolvimento
de tecnologias, o software livre criou uma nova estrutura social virtual composta por quatro
culturas voltadas para o seu constante desenvolvimento e aperfeiçoamento tecnológico. Essas
culturas que se comunicam pela Internet transcendem o conjunto de valores, crenças e
preferências individuais que direcionaram os padrões de comportamento de seus criadores,
conforme passaremos a expor.
2.5. MOVIMENTO PELO SOFTWARE LIVRE E AS CULTURAS DA INTERNET
A iniciativa de Stallman ao criar a FSF marcou o início da era dos movimentos do
Free Software. Tudo começou com a ideia de liberdade de acesso e compartilhamento de
conhecimentos sobre o código fonte do Software GPL. O movimento pelo software livre é
composto por um universo fascinante de voluntários interessados em desenvolver, popularizar
e participar das comunidades para o software livre. Os membros deste movimento se
posicionam de forma contrária à comercialização de softwares fornecidos exclusivamente
com código-fechado ou executável. Para eles o importante é trocar ideias e as compartilhar
com o público pela Internet. Conforme Sérgio Amadeu (2005) “O movimento de software
livre é a maior expressão da imaginação dissidente de uma sociedade que busca mais do que a
sua mercantilização. Trata-se de um movimento baseado no princípio do compartilhamento do
88
O Método Delphi é, originalmente, o primeiro método de comunicação mediada por computador desenvolvido
para facilitar a comunicação estruturada entre grupos de especialistas que discutem assuntos ou problemas
complexos e que têm por objetivo de chegar a um consenso. A primeira experiência em conferência por
computador com Delphi foi realizada em 1970 e administrada pelo Escritório de Preparação de Emergência dos
EUA. A conferência on-line aconteceu durante treze semanas e envolveu vários especialistas em diversos pontos
dos Estados Unidos, que usaram terminais de computadores conectados à linha telefônica para participarem do
exercício em Delphi (BATTEZZATI, 2003, p. 73-79).
85
conhecimento e na solidariedade praticada pela inteligência coletiva conectada na rede
mundial de computadores.”
Milhares de indivíduos contribuem colaborativamente para a ampliação dos
movimentos de Software livre, observa Friedman (2005, p. 100). O “que eles querem o
mercado não lhes pode proporcionar: o arrebatamento de se criar um produto coletivo capaz
de bater os de gigantes como a Microsoft e a IBM e, sobretudo o respeito de seus pares
intelectuais. Com efeito, esses caras representam uma das mais interessantes e polêmicas
novas modalidades de colaboração [...]”. Essa é a característica básica do movimento de
software livre, continua este pesquisador (ibidem).
[…] envolve milhares de pessoas de todo o mundo que se reúnem on-line para
escrever de tudo juntos, desde seu próprio software e seus próprios sistemas
operacionais até seus próprios dicionários e fórmulas de refrigerante. [...] A expressão
código aberto traduz a intenção de empresa ou grupos específicos de disponibilizarem
on-line o código fonte (isto é, as instruções e comandos que fazem funcionar
determinado programa) e permitirem que todos os que tiverem alguma contribuição a
dar o aprimorem e deixem que milhões de outros simplesmente baixem, de graça, para
seu uso pessoal. Enquanto os programas comerciais são protegidos por direitos
autorais e vendidos, e seus fabricantes mantêm seu código fonte guardado a sete
chaves, a fim de poderem ver novas versões, os softwares de código aberto são
compartilhados, submetidos ao constante aperfeiçoamento por parte dos usuários e
disponibilizados gratuitamente para todos. Em troca, todo usuário que efetuar um
aprimoramento – qualquer detalhe que faça os programas funcionarem melhor – deve
liberar o acesso para os demais.
A partir do contexto apresentado por Amadeu e Friedman, é importante compreender
que o movimento pelo software livre não é apenas um movimento contrário ao monopólio da
indústria do software proprietário, mas caracteriza-se como fundamento do novo paradigma
de produção intelectual colaborativa, voltada para a geração de conhecimento. Uma geração
que vislumbra novas possibilidades para que as pessoas possam se comunicar e criar novas
ideias, novos códigos éticos de colaboração, novos costumes e novas ferramentas interativas
de comunicação digital.
O processo de produção colaborativa e de publicação aberta na rede é, conforme
Castells (2003, p. 45), uma das maiores preocupações da comunidade Linux e do movimento
pelo software livre. Neste contexto Richard Stallman “[...] considera a busca de excelência
tecnológica secundária ao princípio fundamental do software gratuito, que, para ele, é um
86
componente essencial da liberdade de expressão na Era da Informação.” Portanto, é a partir da
premissa de que a liberdade de expressão é a mola mestra para o surgimento e
desenvolvimento de novas comunidades virtuais e, conseqüentemente, do software gratuito,
que muitas pessoas se organizam em comunidades de desenvolvedores que têm por objetivo
manter a luta pela liberdade da comunicação na Internet.
Se os códigos dos softwares são abertos, eles podem ser alterados, seja pelo usuário
informado, seja por uma firma de serviços ou uma organização sem fins lucrativos, ou
uma rede de hackers, trabalhando para o bem comum da Era da Informação. O
controle patenteado sobre códigos de software abre caminho para a restrição dos usos
da informação e para o fim da privacidade na Internet. Num mundo de software de
fonte aberta, a capacidade que têm o governo e as corporações de controlar a
arquitetura fundamental das aplicações da Internet é vastamente reduzida
(CASTELLS, 2003, p. 150).
Como podemos pressupor a preocupação com a liberdade de comunicação na
Internet não se restringe aos governantes ou corporações, é também constante entre os
membros do movimento pelo software livre e das comunidades de desenvolvedores e usuários
da tecnologia de código aberto. Pois a sociedade também é, de certa forma, responsável pela
preservação da liberdade na rede uma vez que cada vez mais utiliza esse meio de
comunicação por diversos motivos e interesses. Para Castells (2003 p. 150):
O caminho que as sociedades tomarão certamente não depende do próprio código, mas
da capacidade que têm as sociedades e suas instituições de impor o código, resistir a
ele e modificá-lo. Na aurora do século XXI há uma inquietante combinação no mundo
da Internet: ideologia libertária generalizada ao lado de uma prática cada vez mais
controladora. Movimentos sociais em defesa da liberdade na Internet [...] são fontes
essenciais para a preservação da Internet original como uma esfera de liberdade. Leis,
tribunais, opinião pública, mídia, responsabilidade corporativa e agências políticas
serão as áreas decisivas em que o futuro da Internet será moldado. Redes globais não
podem ser controladas, mas pessoas usando-as podem, são e serão – a menos que as
sociedades optem pela liberdade da Internet, agindo a partir das barricadas de seus
libertários nostálgicos, e além delas.
Em 18 de maio de 2004, na Declaração de Barcelona para o avanço do Software
87
Livre89 foi lançado e assinado por várias personalidades internacionais que discutem questões
relacionadas com a sociedade do conhecimento e com o software livre, entre elas Manuel
Castells, Vinton Cerf, Marcelo D'Elia Branco, Juantomás García, Jesús M. González
Barahona, Pekka Himanen, Miguel de Icaza, Rafael Macau, Jordi Mas, David Megías, Òscar
del Pozo, Pam Samuelson, um importante documento intitulado Os desafios para ampliação e
consolidação do software livre. O referido documento deixa claro que a maior parte da
infraestrutura da Internet baseia-se em software livre – protocolos abertos, portanto, a rede
evolui a partir dos mesmos princípios de colaboração empregados por membros de
comunidades que participaram colaborativamente do projeto batizado de ARPAnet atualmente
praticados pelos membros do movimento pelo software livre.
Alguns exemplos de projetos desenvolvidos colaborativamente por comunidades do
movimento pelo software livre são mencionados no referido documento. O projeto Apache,
por exemplo. Segundo documento, em 2004 mais de 60% dos servidores da Web já utilizam o
Apache. O servidor Apache foi criado em 1994 por Rob McCool, funcionário do National
Center for Supercomputing Applications – NCSA, e é a principal tecnologia da Apache
Software Foundation, responsável por diversos projetos envolvendo tecnologias de
transmissão via web, processamento de dados e execução de aplicativos distribuídos. Nas
palavras de Taurion (2004, p. 43-44) “O mercado de servidores Web já pode ser considerado
um mercado maduro e comoditizado. No segmento de sistemas Linux e Unix, o Apache é
claramente o líder absoluto em número de instalações”. Continua o autor:
[...] O Apache criou um ecossistema à sua volta, com inúmeras ferramentas, plug-ins e
módulos que são disponibilizados de maneira crescente. O servidor Apache inicial
rodava, sob Unix, o Web site da revista Wired. O NCSA distribuiu livremente o código
fonte e um grupo de técnicos começou a trabalhar neste código para refiná-lo e no
processo convidaram outros a contribuírem. Estas emendas ou 'patches' acabaram
batizando o produto. Apache veio então de a 'patchy'. Atualmente, o seu
desenvolvimento é gerenciado pela ASF – Apache Software Foudation. O modelo de
licenciamento do Apache também é muito flexível. Permite modificações e
redistribuição do código, sem necessidade de revelar mudanças efetuadas. Entretanto,
esta versão não pode ser chamada de Apache. Mas permite que diversas empresas
usem código Apache modificado em seus produtos, contemplando-os, e criando um
verdadeiro ambiente colaborativo e de coexistência entre modelos proprietários e
livres.
89
Editoria:Geral24/May/2004. Os desafios para ampliação e consolidação do software livre - Disponível em
http://www.softwarelivre.org/news/2297. Acesso em 12/05/2006.
88
Friedman (2003, p. 99) faz interessante relato de como as empresas tomaram
conhecimento sobre o software livre Apache.
Foi na década de 1990, no auge do mercado ponto-com, e ele era um alto gerente da
IBM, responsável pela supervisão dos emergentes empreendimentos de comércio
eletrônico da empresa: ‘Eu tinha uma equipe inteira e um orçamento de 8 milhões de
dólares sob meu comando’ – recorda. Era um páreo duro com Microsoft, Netscape,
Oracle, Sun, todas as grandes. E as nossas apostas no comércio eletrônico não estavam
para brincadeira. A IBM contava com uma força de vendas gigantesca para vender o
seu software de e-commerce. Um dia, pedi ao meu diretor de desenvolvimento, Jeff,
que me explicasse o processo de desenvolvimento desses sistemas de comércio
eletrônico. Qual era o servidor web por trás de tudo? Apache, foi a resposta. A
primeira imagem que me veio à cabeça foi a do John Wayne. Mas o que era esse tal de
Apache? Era um shareware para tecnologia de servidores da web, disse-me Jeff,
produzido de graça por um bando de fissurados por computadores que trabalhavam
on-line nalguma espécie de sala de bate-papo sobre código-aberto. Fiquei boquiaberto.
- Mas como se compra isso? - eu quis saber. - Você faz o download de graça de um
site. - Mas quem faz a assistência técnica se alguma coisa der errado? - insisti. - E ele Sei lá, mas funciona! Foi meu primeiro contato com o Apache. Cohen Prossegue: Não esqueça de que, naquela época, Microsoft, IBM, Oracle, Netscape, todas estavam
tentando construir servidores web comerciais. Eram corporações imensas – e de
repente o meu diretor de desenvolvimento estava me dizendo que o nosso vinha da
Internet, e de graça! Era como se todos aqueles executivos de grandes empresas
estivessem lá armando as suas estratégias e, quando fossem ver, os caras responsáveis
pela distribuição da correspondência houvessem assumido o controle. Fiquei
obcecado: quem é que cuida do Apache? Quer dizer, quem são esses caras? Sim, os
geeks da correspondência estão resolvendo que software vão usar – e o que eu e você
vamos usar também.
Para Castells (1996, p. 379) outras comunidades de desenvolvedores de softwares
como o Apache contribuíram para a evolução e desenvolvimento da rede, que assim nutriu-se
de seus próprios recursos para evoluir. O SendMail é outro interessante exemplo de trabalho
colaborativo pelo software livre. Foi desenvolvido por Eric Paul Allman, um programador de
computador que desenvolveu também seu precursor delivermail no final da década de 1970 e
início da década de 80 na Universidade de Berkeley. O SendMail é um programa de
computador ou um agente de software que transfere mensagens de correio eletrônico de um
computador para outro. Conforme Taurion (2004, p. 48) “Hoje, embora ainda exista versão
aberta, a empresa SendMail Inc., oferece versão comercial agregada com ferramentas
adicionais de segurança e gerenciamento. A versão aberta é proposta pela SendMail para
encorajar uma contínua evolução do produto, gerenciada pela organização não-lucrativa
89
SendMail Consortium.”
Outro exemplo de comunidade colaborativa de software livre é o projeto Twiki90.
Segundo Prado apud Barbosa Filho, Cosette Castro e Takashi Tome (org) (2005 p. 33) “Twiki
é uma plataforma de colaboração empresarial flexível, baseada no wiki. Trata-se de uma
plataforma estruturada, podendo ser usada para criar um espaço colaborativo de
desenvolvimento de projetos, um sistema de gerenciamento de documentos, uma base de
conhecimento (knowledge base) ou como uma ferramenta de groupware.” Um dos projetos
com código aberto mais conhecidos em todas as partes do mundo é o projeto Wikipedia,
criado por Jimmy Wales em 2001 e do qual participam membros produtivos e cooperativos da
comunidade Wiki. A Wikipedia baseia-se no sistema wiki, do havaiano wiki-wiki, que significa
rápido, veloz, célere. Friedman (2005, p. 112) explica que “Wikis são sites que permitem que
seus usuários editem diretamente qualquer página na web do seu próprio computador”.
Mantida pela fundação Wikimedia Foundation, sediada na Flórida – EUA, a Wikipedia
é uma organização que congrega vários projetos em diversas línguas e sempre com
conteúdo livre, entre eles: Wikipédia, Wikcionário, Wikiquote, Wikilivros, Wikisource,
Wikimedia Commons, Wikispecies, Wikinews e Wikiversidade, além do software
MediaWiki. Sua criação foi oficialmente anunciada pelo antigo presidente da Bomis companhia ponto-com fundada em 1996 para vender publicidade no portal de pesquisa
Bomis.com.- e co-fundador da Wikipedia Jimbo Wales em 20 de Junho de 2003.
Sérgio Amadeu (2007)91 observa que a Wikipedia é considerada atualmente a maior
enciclopédia do mundo, e “[...] é resultado da produção social, da colaboração, dos commons.
Um dos casos mais fascinantes de sucesso na web, o site YouTube, se baseia na colaboração
dos seus usuários. Projetos como o seti@home, da Nasa, envolvem atualmente mais de 3
milhões de colaboradores voluntários. O movimento de licenciamento flexível de obras de
arte, músicas, livros, denominado creative commons [...] já ultrapassou mais de um milhão de
peças e espalhou-se por todos os continentes.”
O exemplo da Wikipedia nos leva a pressupor que é impossível determinar com
exatidão o número de participantes no movimento pelo software livre, bem como dos
90
91
Disponível em: http://twiki.org/ 12/12/2007.
Commons, a revolução na produção simbólica. Sérgio Amadeu da Silveira - Observatório da Imprensa:
www.cultura.gov.br/foruns_de_cultura/cultura_digital/na_midia/index.php=26056&more=1&c=1&pb=1. Acesso
em 10/10/08.
90
membros das diversas comunidades que trabalham com e em prol do código aberto, uma vez
que existem inúmeros projetos orientados para os mais diversos fins. “Há as distribuições
voltadas para a segurança de redes, para a edição digital de áudio, para os computadores com
baixa capacidade de processamento, traduções para línguas regionais e dialetos, assim como
softwares que desempenham tarefas muito específicas, que não oferecem horizontes
promissores de lucro.” (FRIEDMAN, 2005 idem).
Embora existam polêmicas, a dinâmica de trabalho colaborativo das comunidades de
software livre e dos membros do movimento estabelece-se a partir de relações horizontais
entre produtores, desenvolvedores e usuários. Esta relação é, conforme explica Prado apud
Barbosa Filho, Cosette e Takashi (org) (2005 p. 40 grifo nosso), diferente da relação
tradicional de mercado entre produtor / consumidor ou provedor / cliente. “As últimas se
constituem através de trocas comerciais, impessoais e indiretas, pois são mediadas pelo
dinheiro e visam, de um lado, ao lucro e, de outro, ao consumo. Dentro da outra lógica, [...] as
relações são constituídas mediante trocas diretas, muitas vezes pessoais, cuja mediação é a
comunicação entre pessoas ou canais públicos de comunidades e cujo objetivo não é,
somente, nem o consumo nem o lucro, mas o desenvolvimento de valores de uso voltados
para os mais diversos fins.”
Os autores (ibidem) explicam também que os níveis de colaboração, de relações e,
sobretudo, o processo de troca direta de bens simbólicos sem mediação do dinheiro, que por
vezes confunde as pessoas pode ser melhor entendido a partir do Ensaio sobre a Dádiva, do
antropólogo Marcell Mauss92 (2003), que postula: “Nos sistemas de dádivas, as trocas
estabelecem relações diretas entre pessoas e grupos, pois o princípio da dádiva é a
reciprocidade.”
Essa reciprocidade não é sinônimo de pagamento tal qual observamos nas trocas
comerciais. Nestas, a retribuição por um bem ou serviço é estabelecida de maneira
exata, é uma contrapartida necessária e racionalmente calculada. Nas trocas diretas
entre produtores e usuários de software livre, assim como em um sistema de dádivas, a
retribuição é de outra ordem. Um usuário pode retribuir o trabalho de um
desenvolvedor com um simples obrigado. E esse gesto pode ser considerado
gratificante por parte de quem o desenvolveu.
Em resumo nos sistemas de dádivas o processo de retribuição entre produtores e
92
Sociólogo e antropólogo francês considerado o pai da etnologia francesa. Sobrinho de Émile Durkheim e autor
de Ensaio sobre a Dadiva. São Paulo, Cosac & Naif, 2003.
91
usuários de software livre garante que outros softwares sejam publicados com o código fonte
aberto, desse modo, este processo beneficia todos os interessados no uso desta tecnologia.
Portanto, assim como no sistema de dádivas, diversos grupos estabelecem relações diretas
pela Internet com a finalidade primeira de colaborar para o desenvolvimento, aperfeiçoamento
e uso da tecnologia de software livre. Castells (2003 p. 34-37) apresenta a importância e as
características destes grupos organizados em função de determinados valores que cultuam e
que constituem uma nova cultura da Internet.
A cultura da Internet é a cultura dos criadores da Internet. Por cultura entendo um
conjunto de valores e crenças que formam o comportamento; padrões repetitivos de
comportamento geram costumes que são repetidos por instituições, bem como por
organizações sociais informais. Cultura é diferente de ideologia, psicologia ou
representações individuais, ao mesmo tempo em que influencia as práticas das pessoas
no seu âmbito, neste caso os produtores/usuários da Internet. […] A cultura da Internet
caracteriza-se por uma estrutura em quatro camadas: a cultura tecnomeritocrática; a
cultura hacker; a cultura comunitária virtual; a cultura empresarial. Juntas, elas
contribuem para uma ideologia da liberdade que é amplamente disseminada no mundo
da Internet. Essa ideologia, no entanto, não a cultura fundadora, porque não interage
diretamente com o desenvolvimento do sistema tecnológico: a muitos usos para a
liberdade. (CASTELLS idem, p 34).
Fazem parte da cultura tecnomeritocrática cientistas e pesquisadores reconhecidos
por seus méritos no campo da pesquisa e inovação tecnológica. O mérito é resultado de suas
contribuições para o avanço de sistemas tecnológicos que proporcionam o bem para os seres
humanos. “Trata-se de uma cultura da crença no bem inerente ao desenvolvimento científico e
tecnológico como um elemento decisivo no progresso da humanidade”. Alguns valores da
cultura tecnomeritocrática, apresentados por Castells (idem, p. 34-37), nos ajudam a
compreender suas características.
A descoberta tecnológica (sempre específica da programação de computador num
ambiente de rede) é o valor supremo, para os membros desta cultura. A relevância e a
posição relativa da descoberta dependem da contribuição para o campo como um todo,
num contexto de objetivos de solução de problemas definidos pela comunidade dos
cientistas/tecnólogos. [...] A relevância da descoberta é determinada pelo exame dos
pares entre os membros da comunidade […]. A coordenação de tarefas e projetos é
assegurada por figuras de autoridade que, ao mesmo tempo, controlam recursos
(essencialmente máquinas) e gozam de respeito tecnológico e da confiança ética de
seus pares [...]. Para ser respeitado pela comunidade, e, mais ainda, como figura de
autoridade, os membros devem agir de acordo com normas formais e informais da
comunidade e não usar recursos comuns (conhecimento) ou recursos delegados
92
(posições institucionais) para seu benefício exclusivo, além de partilhar bens como
avanços das capacidades tecnológicas pelo aprendizado a partir dele. [...].A pedra
angular de todo o processo é a comunicação aberta do software, bem como todos os
aperfeiçoamentos resultantes da colaboração em rede […] Assim a Cultura da Internet
enraizá-se na tradição acadêmica do exercício da ciência, da reputação por excelência
acadêmica, do exame dos pares e da abertura com relação a todos os achados da
pesquisa, com o devido crédito aos autores de cada descoberta.
Fazem parte da cultura hackers pessoas com habilidade e competência para escrever
programas de computador, motivadas, principalmente, pelo prazer da auto-realização. Estes
peritos constituíram, originalmente, a massa de desenvolvedores de software livre, interagindo
através da Internet. “Historicamente, a Internet foi produzida em círculos acadêmicos e em
suas unidades de pesquisas auxiliares, tanto na culminância das cátedras como nas trincheiras
de trabalho dos estudantes de pós-graduação, a partir de onde, os valores, os hábitos e o
conhecimento se espalharam pela cultura hacker.” (CASTELLS 2003, p. 37).
Embora os valores da cultura hacker sejam herança da cultura tecnomeritocrática,
pois muitos destes hackers foram estudantes universitários que desenvolveram as atividades
de programação sob a orientação dos membros desta cultura, às vezes o significado conceitual
da palavra hacker é mal interpretado. Ainda existem pessoas que acreditam que os hackers
são viciados em computador. Pessoas irresponsáveis e empenhadas em quebrar códigos para
penetrar ilegalmente em determinados sistemas. Os indivíduos que assim se comportam são
denominados de cracker e não hackers, e geralmente são mal vistos pela cultura hacker.
Richard Stallman93 é considerado um dos ícones da cultura hacker, para ele “O uso do termo
'hacker' significando 'alguém que quebra segurança' é uma confusão por parte da mídia das
massas. Nós hackers nos recusamos a reconhecer este significado, e continuamos utilizando a
palavra significando alguém que ama programar e gosta de saber fazê-lo com esperteza”.
Para Eric Raymond, também um dos ícones e mais destacados observadores e
analistas/participantes da cultura hacker, citado por Castells (idem p.31), “hackers são aqueles
que a cultura hacker reconhece como tais”, uma vez que a cultura dessa comunidade é
compartilhada entre peritos em programação “e bruxos da interconexão cuja história remonta,
através de décadas, aos primeiros minicomputadores de tempo compartilhado e aos primeiros
93
Endereço de site na Internet com depoimento de Richard Stallman sobre a Cultura Hackerhttp://gustgr.freeshell.org/thegnuproject.pt.html - Acesso em 20/07/2005.
93
experimentos da Arpanet”. Portanto, a cultura hacker deve ser reconhecida pelo conjunto de
valores e crenças com as quais nasceu e “[...] a melhor maneira de compreender os valores
específicos e a organização social da cultura hacker é considerar o processo de
desenvolvimento do movimento da fonte aberta como extensão do movimento original do
software gratuito” Para a cultura hacker, continua Castells (2003, p. 42).
[...] a liberdade combina-se com cooperação através da prática da cultura do dom, que
acaba por levar a uma economia do dom. Um hacker divulga sua contribuição para o
desenvolvimento do software pela Net na expectativa de reciprocidade. A cultura do
dom no mundo hacker distingue-se de outras análogas. Prestígio, reputação e estima
social estão ligados à relevância da doação feita à comunidade. Assim, não se trata
apenas de retribuição esperada pela generosidade, mas da satisfação imediata que o
hacker tem ao exibir sua engenhosidade para todos. Além disso, há a gratificação
envolvida no objeto ofertado. Ele não tem apenas valor de troca, tem também valor de
uso. O reconhecimento vem não só do ato de doar, como da produção de um objeto de
valor (software inovador).
Em síntese, a cultura hacker tem um papel de relevante importância no contexto da
Internet por duas razões citadas por Castells (idem, p. 37): primeira – pode-se sustentar que a
Internet é o ambiente fomentador de inovações tecnológicas capitais, mediante a cooperação e
a comunicação livre entre os hackers; segunda, esta cultura faz a ponte entre o conhecimento
originado na cultura tecnomeritocrática e os produtos empresariais que difundem a Internet na
sociedade em geral.
A terceira cultura, comunitária virtual é formada por pessoas que ainda hoje
conservam os padrões de comportamento das redes que antecederam a Internet. Para Castells
(idem p. 46) são pessoas envolvidas nas redes da Usanet News94, na FIDONET95 e nos BBS96
e que desenvolveram e difundiram formas e usos na rede: envio de mensagens, listas de
correspondências, salas de chat, jogos para múltiplos usuários [...] conferências e sistemas de
conferências”. Geralmente são pessoas com alto grau de conhecimento tecnológico, como os
pesquisadores da Arpanet e alguns hackers que utilizaram essas redes para trocar informações
94
Que participam de grupos de debate ou newsgroups sobre os mais diversos tipos de assuntos.
95
Rede de troca de mensagens entre BBS, fundada em 1984 por Tom Jennings, de São Francisco, Califórnia,
EUA. Conhecida também como uma rede mundial que interliga PC's, que transfere um tipo próprio de correio
eletrônico.
96
Sigla para Bulletin Board System ou Sistema eletrônico de quadro de mensagens. Sistema computacional que
permite troca de informações entre usuários interessados em um assunto específico e que oferece recursos de
bate-papo, correio eletrônico e troca de arquivos.
94
e assim criaram as primeiras listas de discussões. A partir da década de 1990, conforme
milhares de pessoas passaram a fazer parte desta cultura, discutindo assuntos de diversos
interesses pela rede, fomentando e intensificando o processo de comunicação e troca de
conhecimentos colaborativamente entre humanos no ciberespaço.
Redes comunitárias, como a criada em Seattle por Douglas Schuler ou a Cidade
Digital de Amsterdã, renovaram e fomentaram a participação de cidadãos. Nos últimos
anos da União Soviética, redes pioneiras de computadores, organizadas por
acadêmicos de maneira independente, como a REALCOM, foram muito importantes
na luta pela democracia e a liberdade de expressão nos momentos críticos da
Perestroika. [...] enquanto a cultura hacker forneceu os fundamentos tecnológicos da
Internet, a cultura comunitária moldou suas formas sociais, processos e usos.
(CASTELLS 2003 p. 47).
Geralmente a cultura comunitária virtual é composta por pessoas preocupadas com o
compartilhamento de conhecimentos, inclusão digital e desenvolvimento social e tecnológico
das nações. Pessoas que exibem on-line o comportamento típico da fase da vida que estão
vivendo e que:
[...] tendem a adaptar novas tecnologias para satisfazer seus interesses [...] e
geralmente trabalham com base em duas características fundamentais comuns. A
primeira é o valor da comunicação livre, horizontal. A prática das comunidades
virtuais sintetiza a prática da livre expressão global, numa era dominada por
conglomerados de mídia e burocracias governamentais censoras [...]. A segunda está
relacionada com a [...] possibilidade dada a qualquer pessoa de encontrar sua própria
destinação na Net, e, não a encontrando, de criar e divulgar sua própria informação,
induzindo assim a formação de uma rede (CASTELLS, p. 48-49).
A cultura empresarial, a quarta cultura, é formada por pessoas que possuem um
conjunto de valores específicos e visão comercial capaz de transformar Know-how
tecnológico em valor financeiro. De acordo com Castells (idem, p. 49 - 52) sem estas pessoas
“não teria havido nenhuma nova economia, e a Internet teria se difundido num ritmo muito
mais lento e com um elenco diferente de aplicações”. O fundamento da cultura empresarial é
em primeiro lugar a cultura do dinheiro. “[...] Mas é também a cultura do trabalho, trabalho
compulsivo incessante. [...] Os empresários da Internet são, ao mesmo tempo, artistas,
profetas e ambiciosos, uma vez que escondem seu autismo social por trás de suas proezas
tecnológicas”.
95
A partir da década de 1990, as firmas comerciais foram de extrema importância para
o processo de expansão e popularização da Internet. A rede, por sua vez, também foi sendo
moldada pelos interesses comerciais de diversos empresários que passaram vê-la como um
veículo rápido e eficiente para a realização de negócios. Porém, observa Castells (idem p. 51),
como os empresários “tiveram por base formas e processos inventados pela cultura
comunitária, os hackers e as elites tecnológicas, o resultado real é que a Internet não é mais
determinada pelos negócios que outros domínios da vida em nossas sociedades. Nem mais,
nem menos também”.
O desejo dos empresários em aumentar seus ganhos por meio de transações
comerciais realizadas pela rede propiciou uma série de inovações para a Internet, pois a
atividade empresarial, enquanto uma dimensão essencial da cultura da Internet, enfatiza
Castells, cria dinheiro a partir de ideias, e mercadoria a partir de dinheiro, tornando tanto o
capital quanto a produção dependentes do poder da mente. Neste contexto, da mesma forma
que é possível vender muitas coisas pela Internet é possível também se comprar carros, casas,
remédios e etc pela rede. Portanto, nessa nova arena tecnológica comercial os empresários não
são apenas homens de negócios, mas criadores de novas formas transações que facilitam a
vida de milhares de pessoas. Para Castells (idem ibidem) os empresários da rede “parecem
estar mais próximos da cultura dos artistas, do que da cultura administrativa e corporativa
tradicional”, pois a arte de utilizarem a Internet como um recurso comercial faz a tecnologia
prosperar, e a cada dia novos softwares são criados para atender as diversas demandas das
empresas da rede. Enfim, a contribuição dos empresários foi e continua sendo indispensável
para alimentar a dinâmica cultural entre as múltiplas camadas geradas pela Internet.
96
CAPÍTULO III. O ENSINO DE COMUNICAÇÃO E A TECNOLOGIA DE
SOFTWARE
Em muitas escolas de comunicação os alunos ainda são conduzidos a um
aprendizado reducionista e durante o curso, ou pelo menos até a metade dele, são convencidos
a concentrarem-se somente nos conteúdos teóricos ignorando a importância das tecnologias,
fator que leva muitos a abandonarem sua vocação inicial, se tornarem comunicadores
profissionais. Neste recorte, completa Squirra (2007)97:
[...] é possível afirmar que em muitas cabeças com forte influência na academia
encontra-se arraigada a crença de que a tecnologia é para os seres ' menos sensíveis e
mais frios', justamente aqueles profissionais 'desprovidos de preocupação filosóficohumanista-poética' ao encarar os dilemas do conhecimento. Alguns admitem
claramente (outros nem tanto) que 'tecnologia é coisa para engenheiro, que só sabe
construir pontes e fazer cálculos'. Outros olham enviesados para o pessoal que se
graduou com 'um pé na profissão', tendo por isso, a compreensão tecnológica que lhes
falta. Por isto, estes defendem, década após década, seus nichos de saber em
trincheiras profundas e muito bem armadas. São linhas de defesa rigidamente teóricas
e elaboradas por quem está 'fora' do campo.
Embora a partir da definição das novas Diretrizes Curriculares o Ministério da
Educação tenha regulamentado os cursos superiores de Comunicação Social de modo que,
obrigatoriamente, o processo de ensino apresente equilíbrio entre as disciplinas teóricas ou de
fundamentação humanística e as de caráter profissionalizante, em muitas entidades a atuação
dos docentes continua a ser fundamentada estritamente por pressupostos de ensino
humanístico, sem contemplar a realização de atividades práticas e necessárias para a inserção
do estudante no campo profissional da comunicação social.
No contexto específico dos cursos de Radialismo, o desenvolvimento de projetos que
contemplem atividades práticas se torna um dos desafios mais árduos para as escolas de
comunicação, pois exigem métodos que permitam o desenvolvimento de atividades
dinâmicas, similares as que ocorrem no campo profissional, notadamente, no campo dos
97
A tecnologia, a sociedade do conhecimento e os comunicadores (mimeo), 2007.
97
especialistas em audiovisual. Para Winck98 apud Kunsch99 (2007 p. 175-182 grifo nosso):
É grande o conjunto de desafio para a formação de especialista em audiovisual. Um
deles é o de conseguir fixar, nas cidades fora do eixo de produção Industrial, uma
equipe de professores, pesquisadores, produtores de televisão e técnicos instrutores
que, além de suas atividades docentes e laboratoriais, colaborassem na programação
das tevês locais e regionais. As universidades fora do “eixo” (Rio e São Paulo)
encontram dificuldades para atrair um número suficiente de professores qualificados
nos centros acadêmicos do país. Entretanto, convém lembrar que o produtor de
audiovisuais não lida apenas com objetos de cultura, mas, sobretudo, com os sujeitos
do conhecimento. Portanto, sua atividade profissional é essencialmente mais política
do que econômica. Antes de ser estética ou lúdica, sua atuação visa a uma ética social.
O maior desafio, nessa direção, é manter atualizados os métodos e estratégias de
produção audiovisual, sempre em constante sofisticação tecnológica e artística, por
meio da cooperação de instituições nacionais e estrangeiras, principalmente no campo
da ciência e tecnologia do audiovisual, bem como para o funcionamento de
laboratórios, equipamentos e bibliotecas.
Dando seqüência ao raciocínio de Winck, pressupomos que a atualização dos
métodos de ensino parece mais complexa ainda se levarmos em consideração uma aparente
falta de professores qualificados ou aptos para desenvolver técnicas adequadas de ensino para
uso de inovadores aparatos tecnológicos, notadamente softwares, portanto, “a carência
generalizada de recursos humanos e tecnológicos impede tanto a formação profissional
adequada quanto a crítica experimental, que alude ao fazer comunicação propriamente dita”.
Outro problema citado por Winck e que pode prejudicar a formação de profissionais capazes
de realizar as atividades demandadas pela indústria brasileira de comunicação, em especial
pelo mercado de rádio e televisão, está relacionado aos altos custos financeiros de
determinadas tecnologias. Problema que afeta várias universidades e que as impede de
“acompanhar o ritmo frenético do mercado de trabalho [...].”
Se por um lado algumas entidades ainda são obrigadas a desenvolver estratégias de
ensino que destacam apenas atividades teóricas em decorrência dos problemas acima citados,
por outro, não podem ignorar o uso de novas tecnologias pela indústria brasileira de
comunicação, notadamente a indústria da televisão. Logo, não podem minimizar a relevância
98
João Baptista Winck é radialista. Doutor em Comunicação e Semiótica. Mestre em Educação e professor da
Universidade Estadual Paulista em Bauru.
99
Margarida Kunsch é graduada em comunicação social, com habilitação em relações públicas. Mestre, doutora
e livre-docência na ECA-USP. http://sistemas.usp.br/atena/atncurriculolattesmostrar?codpes=51860
98
de aproximar os estudantes dos novos aparatos tecnológicos necessários para o
desenvolvimento de atividades profissionais diversificadas, notadamente que demandam o
uso de softwares, pois, conforme explica Marques de Melo (2008, p. 13):
[...] A indústria brasileira de televisão caracterizou-se inicialmente (anos 50-60) como
importadora de programas estrangeiros, sobretudo norte-americanos, mas foi pouco a
pouco reduzindo a dependência externa e, nas últimas décadas do século XX, passou à
condição de exportadora. A empresa líder do setor – Rede Globo – exporta
regularmente telenovelas, musicais e programas esportivos para mais de uma centena
de países. Recentemente, outras empresas ingressaram no mercado audiovisual,
inclusive a Record, cujas telenovelas começam a fazer sucesso nos vizinhos países
latino-americanos.
Os cenários descritos por Winck e Marques de Melo nos remetem às observações de
Valverde apud Kunch (2007, p. 192)100 para quem “[...] as novas oportunidades profissionais
que surgem na área de Radialismo (RTV) estão cada vez mais associadas à capacidade que os
estudantes têm para criar mensagens para entretenimento; para dominar as tecnologias e
técnicas de produção de mensagens – roteirização, produção, captação, direção, edição de
áudio e vídeo e etc; e para desenvolver atividades de apresentação ou locução em programas
de rádio e televisão.”
Integrado por 3.668 emissoras comerciais, sendo 1.681 AM e 1.987 FM, o segmento
radiofônico cresceu sob o signo da regionalização, mas ultimamente vem sendo
nacionalizado através de redes conectadas via satélite, cujas emissoras lideres estão
localizadas nas duas metrópoles nacionais (São Paulo e Rio de Janeiro). Em
contrapartida, tem crescido o universo das rádios comunitárias. São emissoras de
pequeno alcance, cuja maioria funciona clandestinamente, sob o comando dos
movimentos sociais. Não existindo estatísticas confiáveis, calcula-se que
correspondam ao triplo das emissoras autorizadas pelo governo. Tramitam no
Ministério das Comunicações mais de 10 mil pedidos de legalização de rádios
comunitárias; mesmo assim essa cifra não é suficiente para cobrir as demandas de
todos os municípios brasileiros. (MARQUES DE MELO, 2008, p. 13).
100
Artigo intitulado: Editoração Multimídia: Uma Diretriz para Projeto Pedagógico de Curso Superior. Kunsch.
Margarida (org.) Ensino de Comunicação: Qualidade na Formação Acadêmico-Profissional. São Paulo: ECAUSP: Intercom, 2007.
99
Levando em conta que tanto o segmento radiofônico como o televisivo está em
franco crescimento no Brasil. Que oportunidades de trabalhos em emissoras de rádio ou
televisão ou em quaisquer entidades cujas atividades principais sejam a criação, produção,
desenvolvimento e interpretação de materiais audiovisuais também estão em crescimento, os
cursos de comunicação, notadamente os cursos de Radialismo, devem em conformidade ao
Parecer no. 492/2001 do CNE/CES – que instituiu as Novas Diretrizes Curriculares Nacionais
para a Comunicação Social – preparar os estudantes para o uso competente de novos
softwares, pois esta tecnologia é, na atualidade, um dos principais recursos necessários para a
criação de produtos para RTV – para edição de áudio e vídeo, captação e tratamento de
imagens e de sons, por exemplo.
O crescimento da tecnologia de software nas últimas décadas do século XX,
especialmente nos processos de produções audiovisuais, está relacionado, conforme ressalta
Winck apud Kunsch (idem p.175-182) “com o acelerado avanço da informatização dos
processos produtivos e a migração dos sistemas analógicos para o sistema digital”. Nesse
contexto continua o pesquisador, “[...] A mais imprevisível destas transformações tem sido,
sem dúvida, a tendência de unificação dos modos de produção da informação nos meios de
comunicação, no chamado fenômeno da hipermídia, que permite acesso simultâneo a textos,
imagens e sons.” Esta ‘unificação’ dos modos de produção parece ser cada vez mais intensa
porque a indústria da informática tem desenvolvido softwares cada vez mais especializados
para acesso simultâneo de textos, imagens e sons.
Sem ignorar a importância e a qualidade das atividades de ensino com uso de
tecnologia nas várias faculdades de comunicação do país, duas entidades que ofertam cursos
de Radialismo foram selecionadas como objeto de estudo desta tese porque ilustram de forma
interessante o constante uso de software nos processos de criação de produtos para rádio e
televisão. Nas duas entidades pesquisadas o uso da tecnologia de software está em acordo
com as proposições definidas pelas Diretrizes Curriculares para a área da Comunicação
Social, pois tanto na UMESP como na ESEEI a formação do profissional habilitado em
Radialismo (RTV) contempla o desenvolvimento de conhecimentos – teóricos, técnicos e
práticos – para a criação de mensagens e produtos para veiculação através do rádio e
televisão.
100
3.1. UMESP – UNIVERSIDADE METODISTA DE SÃO PAULO
A Faculdade de Teologia da Igreja Metodista foi implantada na cidade de São
Bernardo do Campo no ano de 1938. Em 1970, na mesma cidade, nasceu o Instituto
Metodista de Ensino Superior – IMS. Vinte e sete anos mais tarde, em 1997, nasceu a
Universidade Metodista de São Paulo – UMESP. Uma instituição que se destaca no cenário
nacional por sua longa tradição em formar profissionais críticos, responsáveis e preparados
para uma atuação competente nas várias profissões da nova sociedade da informação. De
acordo com o histórico da UMESP101:
O compromisso com a educação tem marcado a atuação da Igreja Metodista desde a
fundação da primeira instituição de ensino metodista, a Kingswood School, na
Inglaterra, em 1748. Ao longo dos últimos 255 anos, esta vocação educacional
também tem se manifestado no Brasil, onde várias instituições metodistas de ensino
incorporam mais de um século de atividade contínua. A história da Universidade
Metodista de São Paulo vem sendo traçada há mais de 70 anos desde a implantação da
Faculdade de Teologia da Igreja Metodista em São Bernardo do Campo, em 1938.
Ao estudar a história da Universidade Metodista observamos, em linhas gerais, que
seu compromisso com a educação brasileira considera a educação formal um processo social,
amplo e contínuo que abre aos estudantes condições para que construam novos
conhecimentos por intermédio de experiências vividas, individual e coletivamente, dentro e
fora do ambiente escolar. Nesse contexto, os conhecimentos e as atividades práticas buscam
preparar os cidadãos para uma atuação responsável e competente no mundo do trabalho.
Com a consolidação do projeto pedagógico e a excelência alcançada ao longo dos
anos, o IMS passou a figurar entre as mais conceituadas Instituições de Ensino
Superior do país. Isso permitiu que, em 1997, conquistasse o status de Universidade,
ampliando o número de faculdades e cursos oferecidos. Hoje, a Metodista possui três
Campi em São Bernardo do Campo (Rudge Ramos, Vergueiro, Planalto) e um Campus
em São Paulo, no Ipiranga. São mais de 117 mil metros quadrados de área total, que
inclui uma ampla área verde. A Metodista oferece cerca de 70 espaços, entre
laboratórios, agências experimentais e clínicas modernas, para que os alunos possam
colocar em prática os conhecimentos adquiridos em salas de aula, além de bibliotecas
e anfiteatros espalhados pelos quatro Campi da Universidade.
101
Disponível em: http://www.metodista.br/sobre-a-metodista/historia Acesso em 12/08/2008.
101
Como pode ser constatado no portal da entidade, a Metodista oferece um
significativo número de diferentes cursos. Entretanto, como este estudo analisa em
profundidade apenas o curso de Radialismo da FACOM – Faculdade de Comunicação e
Multimídia, descrito em detalhes na seção 3.1.1 deste capítulo, algumas informações gerais
sobre a instituição e os outros cursos não são aqui apresentadas, mas podem ser consultadas
no portal da UMESP.
Além da sua dedicação à educação formal, a UMESP tem a preocupação em oferecer
para a sua comunidade de estudantes, familiares e moradores do grande ABC Paulista alguns
serviços relacionados à saúde, esporte, lazer. Serviços de saúde para a comunidade interna
(alunos e funcionários) e externa (população em geral) são realizados em clínicas especiais,
como: clínica-escola de fonoaudiologia; clínica-escola de nutrição; clínicas de odontologia;
clínica-escola de psicologia. A instituição ainda realiza atendimentos no hospital veterinário e
no labmesp – laboratório de análises clinicas. O Instituto Metodista também desenvolve
variados projetos sociais, como o Projeto Vida – cujo objetivo é oferecer melhor qualidade de
vida para pessoas portadoras de deficiências por meio da prática de esportes.
Para atender os cursos da área da Comunicação Social, a Universidade Metodista
abriga agências que abrem oportunidades para o desenvolvimento de diversas atividades
acadêmicas: a Agência de Fomento a Convênios de Aplicação Tecnológica; a Agência de
Jornalismo; Agência de Relações Públicas102 e Agência de Comunicação Multimídia AgComMM103 da FACOM104.
A Agência de Fomento a Cursos de Aplicação Tecnológica – FoCAT105 é subordinada
à FACET e foi implantada em outubro de 2006 com o objetivo de contribuir para a
concretização das perspectivas inovadoras que a Metodista pretende para a área de Tecnologia
102
http://www.metodista.br/comunidade/comunidade/agencias
103
Disponível em: http://www.metodista.br/rtv/infra-estrutura/agencia-de-comunicacao-multimidia Acesso
12/01/09.
104
No período de desenvolvimento desta pesquisa esta agência não era mencionada na home page do site da
UMESP, somente as 3 primeiras. Para saber mais sobre a Agência de Comunicação Multimídia é necessário
acessar:http://www.metodista.br/bkp/rtv/agencia-de-comunicacao-multimidia/agencia-de-comunicacaomultimidia/?searchterm=agencia%20de%20RTV. Acesso em 12/01/2009
105
No link Histórico há uma lista de palestras proferidas no contexto dos trabalhos realizados pela FoCAT,
como a palestra de Fábio Martinho Campos, especialista em Testes de SI/Softwares, da empresa HOLD T,
intitulada “A Importância do Teste de Software no Mercado Atual” por exemplo, proferida às 18:15 do dia
27/10/2006 no Auditório do Sigma. Embora os títulos sejam bastante interessantes o site não disponibiliza
conteúdos digitais sobre os assuntos aos internautas.http://www.metodista.br/focat/cursos-dafacet/agenda/historico/
102
da Informação. Suas atividades estão voltadas para uma ação significativa na preparação
complementar de profissionais e no estreitamento dos interesses entre universidade, empresa e
comunidade.
A Agência Experimental de Jornalismo – AgenciaJor funciona desde o ano de 2000 e
foi premiada três vezes como a melhor Agência Experimental de Jornalismo do país na
Expocom - Exposição de Trabalhos Experimentais de Comunicação106. “A AgênciaJor teve
projetos premiados, como o Jornal da Metodista (telejornal), o Rudge Ramos Jornal, o Mural
da Metodista, além de vários TCCs de alunos, que também obtiveram reconhecimento. Os 15
produtos da AgênciaJor estão distribuídos em quatro núcleos: Impresso, Jornalismo On-line,
Jornalismo Eletrônico e Jornalismo Social.” Os alunos do curso de Radialismo participam de
alguns projetos desenvolvidos em parceria pelas AgenciaJor e AgComMM - Agência de
Comunicação Multimídia da FACOM.
Conforme informações apresentadas no portal da UMESP, a agência experimental de
Relações Públicas é uma das mais dinâmicas e atua através do Núcleo de Eventos; Núcleo de
Pesquisa; Núcleo de Produtos; Rede de Relacionamentos. Em 2008 o curso recebeu o grau de
5 estrelas do Guia do Estudante Editora Abril. Outra agência, a de Comunicação &
Marketing, está organizada da seguinte forma: Atendimento, Tráfego, Planejamento, Pesquisa
Mercadológica, Redação, Ilustração, Produção Gráfica, Web, Exibitécnica e Eventos. Essas
áreas possuem estagiários, ou seja, alunos que, cursando qualquer um dos oito semestres dos
cursos
de
Comunicação
Mercadológica
ou
Publicidade
e
Propaganda,
podem,
espontaneamente, participar das unidades, desenvolvendo atividades relacionadas com as
áreas afins de cada unidade.
Com cerca de mil alunos matriculados no ano de 2008, a Faculdade de Comunicação
e Multimídia – FACOM107 também tem uma importante agência - AgComMM - Agência de
Comunicação Multimídia que “[...] tem como principal objetivo possibilitar aos alunos que
106
1º lugar na 14ª edição, realizada em Santos - 2007; Menção honrosa na 13º edição realizada em Brasília 2006; 3º lugar na 12ª edição realizada no Rio de Janeiro - 2005; 1º lugar na 11ª edição, realizada em Porto
Alegre - 2004; 1º lugar na 10ª edição realizada em Belo Horizonte - 2003; 2º lugar na 9ª edição, realizada em
Salvador - 2002; 1º lugar na 8ª edição, realizada em Campo Grande - 2001. Disponível em:
http://www.metodista.br/agenciajor/agencia.
107
Criada em 1999 e até o ano de 2008 coordenada pelo professor Dr. Sebastião Squirra – abriga os cursos
de Bacharelado no campus de Rudge Ramos: Cinema Digital; Comunicação Mercadológica; Jornalismo;
Mídias Digitais; Publicidade e Propaganda; Radialismo (Rádio e TV); Relações Públicas. Graduação
Tecnológica – Gestão de Turismo presencial e Gestão de Turismo Educação na modalidade Educação a
Distância. Na área da pós-graduação os cursos do POSCOM.
103
nela estagiam uma vivência das rotinas de produção audiovisual e televisiva e para novas
mídias [...].” Com o apoio de técnicos, profissionais da área e estagiários remunerados e
voluntários, professores e alunos realizam atividades preconizadas nos planos de aula, bem
como atendem à demanda de outras instâncias científicas e administrativas da universidade e
da comunidade. Alguns projetos desenvolvidos pela Agência de Comunicação Multimídia
são: Projeto de desenvolvimento de linguagem e operação técnica para transmissão ao vivo de
tele-aulas da Pró-reitoria de educação a Distância; Projeto de produção e promoção de shows
musicais e programas para a Rádio Metodista e TV local; Produção do programa de TV
“Trocando ideias”, com entrevistas e debates, exibido pela TV Comunitária de São Paulo e
TV Justiça, em rede nacional; Projeto de treinamento e de desenvolvimento de produtos em
áudio, vídeo e multimídia, destinados a professores e funcionários de outras faculdades e
departamentos da Metodista; Projeto de produção de vídeos institucionais e de treinamento
para a Instituição etc. As atividades desenvolvidas por esta agência são amplas e abrem novas
oportunidades para os alunos realizarem na prática trabalhos de produção de áudio, vídeo,
planejamento, gravação etc que fortalecem o aprendizado tanto para atuação na área técnica
como para o aprimoramento de trabalhos voltados ao desenvolvimento de roteiros e projetos
audiovisuais.
Ainda no campo da comunicação social, a UMESP oferta cursos de pós-graduação e
sedia a Cátedra Unesco de Comunicação para o Desenvolvimento Regional. O Programa de
Pós-Graduação em Comunicação Social – POSCOM108, que abriga também o Grupo de
Pesquisa sobre Tecnologia e Comunicação – ComTec, iniciou suas atividades em 1978, com a
implantação do Mestrado, tendo incorporado o Doutorado em 1995. Seu principal objetivo é
formar docentes, pesquisadores e profissionais altamente qualificados para atuar em
empresas, públicas ou privadas, instituições de ensino superior e organizações não
governamentais (ONGs).
Em 30 anos de trabalho ininterrupto, com mais de 519 dissertações e 85 teses
defendidas, o curso alcançou reconhecimento no Brasil e no exterior. Atentíssimo às
orientações federais e sensível às transformações sociais, o Programa vem se
adaptando aos padrões de C&T nacionais e, sintonizado com as demandas da
emergente Sociedade da Informação, vem se alinhando com os princípios da produção
científica destacada correspondendo ao binômio globalização/regionalização.
Modernas instalações didáticas, infraestrutura tecnológica e 80% dos docentes em
108
Outras informações sobre o POSCOM podem ser obtidas através do site http://www.metodista.br/poscom
104
regime de tempo integral traduzem o compromisso da Metodista no atendimento de
um corpo discente motivado e dinâmico109.
A partir da autorização concedida por meio da Resolução Consun110 nº 15/2004 a
UMESP passou a oferecer aos estudantes com pós-graduação stricto sensu em nível de
doutorado Estágio de Aperfeiçoamento, desenvolvido através de projeto de atividades de
pesquisa e realizado com o acompanhamento, em comum acordo, de um professor doutor.
“Em virtude do crescimento dos programas de pós-graduação stricto sensu criou uma nova
estrutura física para alocar os programas de pós-graduação em Administração, Ciências da
Religião e Comunicação Social, que começou a funcionar em Janeiro de 2002.”
A Cátedra Unesco de Comunicação para o Desenvolvimento Regional foi criada em
outubro de 1994 e tem como diretor titular o professor Dr. José Marques de Melo:
[...] o ponto culminante para a decisão das autoridades da Unesco em relação à opção
da Metodista para sediar a cátedra brasileira ocorreu, do meu ponto de vista, em junho
de 1995. Refiro-me à realização do Seminário Internacional sobre Comunicação e
Identidades Culturais na América Latina, que o IMS promoveu em parceria com a
Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) e a Secretária de
Cultura da Prefeitura Municipal de São Paulo (SMC-SP), para celebrar os cinquenta
anos de criação da Unesco e os vinte e cinco de fundação do IMS. Esta foi a
oportunidade encontrada para reunir em nosso campus uma equipe de representantes
da Unesco, dialogando com os mesmos sobre os rumos e as diretrizes da futura
cátedra de comunicação. [...] decidiu-se de comum acordo entre a Unesco e o IMS,
estabelecer a data de 21 de maio de 1996 para realização da sessão solene de
instalação da cátedra, divulgando publicamente suas metas e diretrizes acadêmicas.
(MARQUES DE MELO)111.
109
Disponível em://www.metodista.br/poscom/informacoes-gerais/sobre-o-programa Acesso 10/10/08.
110
O Conselho Universitário (CONSUN), órgão colegiado superior, deliberativo, normativo e de recurso, é
presidido pelo reitor. As matérias submetidas à apreciação do CONSUN são avaliadas por meio de Câmaras
Permanentes que auxiliam o plenário em suas decisões, mediante pareceres. São três as Câmaras Permanentes:
Câmara de Legislação, Normas e Recursos; Câmara de Administração e Finanças; Câmara de Assuntos
Acadêmicos e Didático-Pedagógicos. Todo conselheiro, à exceção do presidente, deverá fazer parte de uma
Câmara Permanente, não podendo integrar, por sua vez, mais de uma delas (art. 5º do Regimento do CONSUN).
Pode constituir comissões para assessorar as Câmaras Permanentes com estudos e pareceres no tocante ao
ensino, pesquisa e extensão, que são compostas com membros do corpo docente ou técnico-administrativos
externos ao CONSUN. São quatro as Comissões Assessoras: Graduação e Seqüenciais; Pós-Graduação; Pesquisa
e Extensão; Política de Pessoal Docente. As decisões do CONSUN são formalizadas por resoluções subscritas
pelo seu presidente. Disponível em:http://www.metodista.br/consun/camaras-permanentes.pdf/sobre-o-consun.
Acesso 12/10/08.
111
Disponível em: http://www2.metodista.br/unesco/catedra.htm
105
A UMESP tem um ambiente especial de intranet112 denominado Portal do Aluno/
Docente que possibilita à comunidade acesso a informações acadêmicas. Todos os serviços
são gerenciados pelo sistema informatizado SIGA113 – Sistema Integrado de Gestão de
Aprendizagem. Outras informações interessantes sobre o gerenciamento da UMESP podem
ser obtidas no portal da universidade.
3.1.1. O Curso de Radialismo da UMESP
Apesar da rapidez dos avanços tecnológicos na área da comunicação o PPC do curso
de Radialismo (RTV) da UMESP114 - coordenado pelo professor Antonio de Andrade115“assume com clareza o princípio de que a tecnologia por si só não pressupõe mudança social e
jamais poderá substituir o diálogo pessoal e o contato direto entre discente e docente.” Se por
um lado a tecnologia por si só não pressupõe mudança social, por outro pode ser considerada
um instrumento de fundamental importância para capacitar o alunado do curso de Radialismo
“no sentido de entendê-las e utilizá-las da melhor maneira e socialmente desejável116”.
A preocupação com os processos de transmissão de conhecimento e aprendizado é
antiga nas escolas de comunicação do país, como já foi dito anteriormente nesta tese. Nesse
contexto, a partir de 2009 começou a ser implementado um novo Projeto Pedagógico para o
curso de Radialismo da UMESP, este projeto tem por base módulos de conteúdos ou de
aprendizagem que agregam temas a serem trabalhados de forma interdisciplinar. Conforme
112
Uma intranet é uma rede de dados interna (de uma empresa, por exemplo,) que liga vários sites mediante
protocolos normalizados de Internet. Sistema implantado no ano de 2006 e que possibilita que os alunos se
matriculem em uma, duas, três, quatro ou cinco disciplinas e personalizem sua grade curricular, pois os
estudantes podem cursar disciplinas de outros cursos ou habilitações em substituição ás disciplinas optativas do
seu curso ou habilitação, conforme seu interesse pessoal ou profissional.
113
Quando acessar o sistema o usuário recebe, entre outras, as seguintes orientação: Para acessar o SIGA 2.0 pela
primeira vez, é preciso atualizar sua senha no Portal do Aluno/Docente- clique aqui - Confira os tutoriais – o
Manual (pdf) - http://www.metodista.br/siga-2.0
114
Reconhecido pelo MEC - Portaria nº 1.211/93 de 20/8/93.
115
Coordenador do Curso de Rádio e Televisão. Possui mestrado em Comunicação Social pela UMESP (1982),
atua como professor adjunto e desenvolve atividades profissionais nos cursos de RTV e Mídias Digitais da
Faculdade
de
Comunicação
Multimídia
da
mencionada
Universidade.
Disponível
em:
http://www.metodista.br/rtv/noticias/rtv/módulos Acesso em 24/01/09.
116
Disponível em:http://www.metodista.br/rtv/rtv/curso - Acesso em 24/01/09.
106
descrito no portal da universidade e questionário117 respondido pelo coordenador da
AgComMM – professor Marcio Antonio Kowalski para que conhecimentos sobre as novas
tecnologias sejam assimilados de forma inteligente e dinâmica os módulos do curso foram
estruturados da seguinte forma: Módulos Básicos do Núcleo Comum dos Cursos de
Comunicação – Teórico; Módulos do Núcleo de Formação Geral – Instrumentalizadores –
Teórico/Prático; Módulos do Núcleo Profissionalizante – Específico/Prático. Para cada
semestre são estabelecidos Projetos Integrados (PIs), de complexidade crescente e que
garantem a integração horizontal e interdisciplinar entre os módulos durante cada semestre
letivo.
Do primeiro ao terceiro semestres, os PIs visam a instrumentalizar teórica e
praticamente o aluno para desenvolver produtos culturais para o Rádio, a TV e novas
Mídias. Terão um caráter de Fundamentação Estética, no primeiro semestre; de
Organização Espacial, no segundo; e de Estruturação para a Produção, no terceiro. A
partir do quarto semestre, os PIs terão um caráter prático: serão desenvolvidos
produtos para o Rádio e a TV, também de complexidade crescente, nos quais serão
exigidos os conhecimentos técnicos, estéticos e culturais até então adquiridos118.
Assim, com o objetivo formar profissionais altamente qualificados para atuar na
indústria nacional de rádio e televisão, o curso de Radialismo da UMESP visa preparar os
jovens para “[...] uma realidade complexa e ao mesmo tempo com grandes perspectivas de
atuação em contextos marcados por inúmeros desafios” (KUNSCH, 2007, p. 92).
Considerando que as práticas profissionais do campo da comunicação se deparam
hoje com contínuas mudanças na indústria radiofônica e televisiva, os alunos de Radialismo
da UMESP parecem ser continuamente estimulados a desenvolver atividades acadêmicas que
se integram às tarefas da profissão, para que possam vivenciar todas as etapas de uma
formação equilibrada entre as disciplinas de fundamentação humanística e as de caráter
profissionalizante. O que pressupõe o intenso o uso de tecnologia de software. Por meio dos
trabalhos desenvolvidos no âmbito da Agência de Comunicação Multimídia – AgComMM –
os alunos curso deste realizam diversas atividades em ambientes adequados e com modernos
recursos tecnológicos.
117
Recebido por correio eletrônico em 15 de outubro de 2008. Apêndice A
118
Disponível em http://www.metodista.br/rtv/noticias/rtv/modulos
107
Conforme nos explica o professor Márcio Antonio Kowalski (idem 2008)119.
São 04 estúdios de TV completos, 03 de Rádio, 08 ilhas de edição dedicadas, além de
02 laboratórios Macintosh com 20 máquinas Apple (cada laboratório) com softwares
de edição de áudio, vídeo e grafismos. As primeiras disciplinas são de embasamento e
funcionam com o fornecimento da operação das ferramentas de trabalho do radialista.
Mesmo assim, existem atividades praticas e integradas desde o primeiro semestre. A
partir do quarto estas atividades são mais abrangentes e intensas, então ganham maior
destaque e visibilidade.
A Rádio Metodista On-Line é um exemplo de laboratório de produção entre as
atividades e projetos desenvolvidos pelos alunos do curso. Opera desde maio de 2005 e é
gerenciada pela Agência de Comunicação Multimídia. Conforme informa o portal da
UMESP120 “É uma emissora pertencente à Universidade Metodista de São Paulo, sediada em
São Bernardo do Campo e está disponível de segunda à sexta-feira das 8h00 às 21h00
acompanhando o período letivo dos alunos.” As equipes técnicas e de produção da rádio são
formadas por alunos estagiários das diversas séries e cursos da instituição, e dois professores
do curso de Rádio e Televisão respondem pela qualidade e coerência da programação.
Ressalte-se o fato da Rádio Metodista On-Line não se propor, em nenhum momento, a
concorrer com o rádio produzido em grande escala e com finalidades comerciais.
Constitui a Rádio espaço privilegiado para os alunos interessados em aprofundar seus
conhecimentos e de estímulo para todos aqueles que vêm no rádio à perspectiva de
uma carreira profissional pautada pelo compromisso com os valores éticos e a
preservação de nossa identidade cultural e artística.
Informações também coletadas121 junto ao coordenador da AgComMM ilustram o
emprego de algumas tecnologias de softwares no contexto do curso de Radialismo em
variados processos de criação de produtos para rádio e televisão – para edição de áudio e
vídeo, captação e tratamento de imagens e sons e etc. Diversas disciplinas ou módulos deste
119
Questionário respondido em 15 de outubro de 2008. Documento idêntico foi respondido pelo professor Dr.
Joaquim Valverde coordenador do curso de RTV da ESEEI. Apêndice A.
120
121
Disponível em: http://www.metodista.br/radio Acesso 11/12/08
Questionário recebido por correio eletrônico em 29/01/09- intitulado Faculdade de Comunicação FAC –
Projeto Pedagógico do Curso de Radialismo. Anexo 1.
108
curso dedicam significativa carga horária para a realização de tais atividades. Segundo Marcio
Antonio Kowalski “[...] estimo que cerca de 30% das disciplinas são técnicas, porém a partir
de 2009 inicia-se um novo projeto pedagógico com alterações. Além dos programas de rádio
muitos programas de TV são realizados durante o Curso de RTV, porém sem exibição aberta
regular atualmente”.
Assim, o novo Projeto Pedagógico do curso de Radialismo contempla um conjunto
de disciplinas ou módulos, com 120 horas cada módulo, voltados ao desenvolvimento de
atividades que aproximam os estudantes das práticas profissionais e que demanda uma
variedade de softwares para a criação de produtos para rádio e televisão. Identificamos e
descrevemos as características dos referidos softwares detalhadamente no capítulo 4 –
intitulado Comparação entre Softwares Proprietários e Livres.
3.2. FACULDADES ESEEI: ESCOLA SUPERIOR DE ESTUDOS EMPRESARIAIS E
INFORMÁTICA
A Escola Superior de Estudos Empresariais e Informática – Faculdades ESEEI,
localizada em Curitiba no Paraná, foi fundada no ano de 1986 para dar início ao
funcionamento do curso de Tecnologia em Processamento de Dados – TPD, autorizado pelo
MEC em 1989 e reconhecido em 1995. No ano de 2000 a ESEEI obteve autorização para
funcionamento do curso de Comunicação Social, reconhecido pelo MEC em 2008. Conforme
descreve o Projeto Pedagógico do Curso – PPC (mimeo 1999) o curso de comunicação social
foi concebido com uma visão de futuro acerca do cenário que os egressos podem encontrar
nas empresas onde irão trabalhar, e tem por objetivo formar profissionais com conhecimentos
especializados e capazes de realizar as atividades demandas pelo concorrido mercado de
trabalho.
A ESEEI é mantida pela Sociedade Paranaense de Ensino e Tecnologia – SPET e se
caracteriza como instituição isolada e sem fins lucrativos. As atividades desenvolvidas pela
Instituição de Ensino Superior – IES são gerenciadas pelos membros do Conselho Diretor da
SPET. De acordo com o institucional122 da entidade “[...] a missão da ESEEI é formar
profissionais qualificados, possuidores de valores humanos, éticos e cívicos, corporativos e
122
Disponível em: http://www.spet.br/institucional.html -www.spet.br – www.eseei.edu.br Acesso em 10/10/08.
109
conscientes de sua responsabilidade social.” Considerando tal missão a entidade desenvolve
suas atividades educacionais com os seguintes objetivos (idem):
Oferecer educação de qualidade e atuar com responsabilidade social para contribuir
com o desenvolvimento da nação brasileira; Contribuir para a formação cultural,
educacional e ética de seus alunos, para sua inserção no mercado de trabalho e para
que possam compreender as mudanças do seu campo de ação profissional no novo
milênio; Estimular a investigação, a pesquisa, o desenvolvimento de tecnologias e
produtos de software e a difusão da cultura científica, técnica e artística; Concorrer
para o desenvolvimento da solidariedade humana, através da preservação e do
aperfeiçoamento do homem, inspirada em princípios cívicos, humanos e democráticos.
Embora seja uma instituição jovem e pequena, quando comparada com a UMESP, a
ESEEI desenvolve diversas atividades que preparam o jovem para interagir com seu meio
social e mercado de trabalho. Segundo o PPC – Projeto Pedagógico do Curso de
Comunicação Social das Faculdades ESEEI – Habilitação Radialismo (mimeo 1999) “os
estudantes de todos os cursos participam de atividades de Pesquisa e Projetos de Extensão,
que são coordenados por professores e funcionários especializados.” Dois programas de TV
são produzidos pelos alunos de RTV com a participação de estudantes de outros cursos da
ESEEI: o programa Tecnologia e Saúde e Viva o Bicho. Estes programas vão ao ar
semanalmente, aos sábados e domingos às 15h respectivamente, no canal – UHF – 59, TV
Transamérica.
Ainda no contexto das atividades de Pesquisa e Projetos de Extensão, além dos
estudantes de Radialismo, estudantes das outras habilitações do curso de comunicação social
– Jornalismo; Relações Públicas; Publicidade e Propaganda; Editoração: Mídia Digital – são
chamados a pesquisar conteúdos, elaborar pautas de programas, matérias para telejornais,
produzir documentários, anúncios publicitários e vinhetas para rádio e televisão, desenhos
animados etc. Essas atividades são desenvolvidas no contexto das agências da faculdade de
comunicação da ESEEI, segundo o portal da IES123:
A Spetcom é uma agência de comunicação integrada, onde ocorrem atividades
envolvidas em projetos de extensão universitária em Publicidade e Propaganda e Relações
Públicas. Aí se desenvolvem e aplicam-se planos de comunicação para organizações e
123
Disponível em: http://www.spet.br/tecnologia/agencias.html
110
empresas de segmentos não-lucrativos. A SpetTV é a agência onde ocorrem atividades de
produção na área televisiva e radiofônica em projetos de extensão universitária. A SpetNews é
a agência onde são produzidas matérias jornalísticas em projetos de extensão universitária. A
SpetDesign é a agência laboratório destinada à criação, produção e impressão/veiculação de
material gráfico e infográfico. Na SpetDesign são realizadas edição, composição,
diagramação, de projetos diversos como a criação de Portais em VRML (Virtual Reality),
Galerias Virtuais e trabalhos de modelagem e animação em 2D e 3D para Web e TV.
Os estudantes do curso de tecnologia em processamento de dados também participam
ativamente dos projetos de pesquisa e extensão desenvolvendo ou adaptando tecnologias e
softwares para os projetos de TI e de comunicação. Cuidam do desenvolvimento e da
administração dos sites da IES e empresas parceiras. Dão suporte técnico à utilização das
tecnologias de hardware e software livre empregados nos laboratórios que atendem a todos os
cursos.
O projeto ou programa de tecnologia aplicada à engenharia de software e produção
midiática124, por exemplo, tem por objetivo investigar as possibilidades de substituição de
software proprietário internacional, notadamente para plataforma Microsoft, por Free
Software e Open Software, principalmente para plataforma Linux, para as áreas de
infraestrutura de tecnologia da informação, automação e produção de mídia digital impressa,
audiovisual e hipermídia (PPC mimeo, 1999).
Nesse programa com o uso e desenvolvimento de software livre espera-se propagar a
utilização dessa tecnologia e contribuir para a redução dos bilhões de dólares enviados
atualmente ao exterior a título de pagamento de royalties e criar as bases para a
formação da indústria paranaense de software livre com geração de emprego e renda.
Nesse projeto os estudantes de Comunicação Social e Tecnologia da Informação
podem participar nos testes de uso dos softwares utilizados em seus respectivos cursos
e habilitações, desenvolvendo produtos midiáticos compatíveis com os utilizados no
decorrer das disciplinas.
No portal da ESEEI125 é possível conhecer outros detalhes sobre os cursos e projetos
124
Disponível também em: http://www.spet.br/pesquisa_e_extensao.html. Acesso 10/09/08.
125
Disponível www.spet.br – www.eseei.br.
111
desenvolvidos pela entidade, a exemplo do projeto de responsabilidade social126 denominado
Programa de Inclusão Digital Comunitária: “Projeto desenvolvido em parceria com a
Secretaria Especial de Relações com a Comunidade do Governo do Estado do Paraná que visa
preparar os líderes comunitários para a utilização do sistema operacional Linux, da internet e
do processador de textos OpenOffice em suas comunidades”.
3.2.1. O Curso de Radialismo da ESEEI
O curso Radialismo da ESEEI proporciona aos estudantes conhecimentos atualizados
sobre as novas tecnologias digitais, especialmente sobre tecnologias adequadas para criação
de produtos para veiculação através do rádio e da televisão, como é o caso da tecnologia de
software livre. Segundo o PPC do curso (idem) “as atividades desenvolvidas pelos
profissionais de RTV na atualidade contemplam, cada vez mais, a substituição de sistemas
analógicos por sistemas digitais, fruto do desenvolvimento da tecnologia computacional”,
porque, segundo Valverde (2003), estamos “assistindo a substituição da informação
midiatizada pelo atômico e físico (que ocupa espaço, é pesado, difícil e demorado para se
transportar) pela informação binária – eletrônica (cujo peso é insignificante e o transporte
facilitado por vias eletrônicas e óticas).” A realidade de substituição da informação
midiatizada pela informação binária nos leva a pressupor a necessidade de os estudantes de
Radialismo compreenderem os prováveis impactos que a digitalização poderá ter nos
processos de comunicação atuais e na produção de bens culturais.
Para atender a esta necessidade, todas as habilitações do curso de comunicação social
contemplam um conjunto de disciplinas voltadas à preparação dos estudantes para criação de
produtos comunicacionais com uso de software livre. Estas disciplinas, bem como as
disciplinas127 específicas da habilitação de Radialismo, têm carga horária de 72h/a semestrais.
Disciplinas de outras habilitações, mesmo não sendo obrigatórias para a habilitação de
Radialismo, podem ser cursadas por alunos deste curso em substituição a disciplinas optativas
de sua habilitação. Por exemplo, um aluno de Radialismo pode deixar de cursar a disciplina
126
Outros projetos de responsabilidade social são desenvolvidos pela ESEEI. Os interessados podem saber mais
sobre este trabalho através do endereço: http://www.spet.br/responsabilidade_social.html.
127
Grade Curricular do Curso de Radialismo das Faculdades ESEEI. Em anexo.
112
Direção de Arte (da habilitação de Radialismo) e cursar a disciplina técnicas de modelagem e
renderização (da habilitação de Editoração) para aperfeiçoar-se no uso de softwares para
produção de efeitos visuais 3D.
Portanto, para colocar em prática atividades que efetivamente contribuam para
formar profissionais aptos para trabalhar com as novas tecnologias digitais, os estudantes do
curso de Radialismo da ESEEI são convidados a participar ativamente das tarefas
relacionadas à produção dos dois programas de televisão – Tecnologia e Saúde e Viva o Bicho
–, ou seja, de atividades de pré-produção, produção, edição (digital) e finalização destes
programas. O programa Tecnologia e Saúde já existia antes mesmo da autorização para o
funcionamento do curso de comunicação social, pois a ESEEI já desenvolvia pesquisas
visando à utilização de softwares livres para edição de audiovisuais, uma vez que pretendia
ofertar cursos na área da comunicação e entendia que era fundamental o uso de tecnologias
digitais nesta área.
Em 1998 esse programa foi ao ar durante 10 meses na TV Exclusiva de Curitiba/PR e
na TV Cidade em Joinville/SC. Programa de entrevistas, "O Oficina da Saúde", [...]
entrevistou médicos, profissionais diversos da área de saúde e professores
universitários. Reformulado para ser um programa com perfil mais jornalístico, após a
implantação do curso de Comunicação Social, em 2001, passou a chamar-se
Tecnologia e Saúde. Programa veiculado na região metropolitana de Curitiba que
alerta a população para a importância de ações preventivas, com ênfase nas
tecnologias que possibilitaram grandes avanços nos diagnósticos precoces de doenças.
Demonstra as vantagens de utilização da tecnologia no diagnóstico, tratamento e
conforto de pessoas acometidas de problemas de saúde (PPC, idem).
O Programa de televisão Viva O Bicho, também semanal, busca sensibilizar a
comunidade curitibana para os problemas relacionados com a transmissão de doenças,
abandono e maus tratos de animais. Para os dois programas de televisão os alunos produzem
vinhetas, computação gráfica e efeitos visuais. As trilhas sonoras também são produzidas
pelos alunos. Em todas essas atividades são utilizados softwares livres. Outra atividade na
qual os estudantes podem colocar em prática os conhecimentos adquiridos nas disciplinas é o
projeto Rádio ESEEI, no qual grupos de alunos se revezam para apresentar diariamente, nos
intervalos das aulas, a programação que criaram para a rádio. Alunos do curso de TPD
também participam desse projeto, já que muitos são interessados em conhecer o
funcionamento dos softwares das ilhas de áudio.
Um dos motivos que justifica o uso exclusivo da tecnologia de software livre na
113
ESEEI, desde sua fundação, está relacionado com o fato de estes softwares serem gratuitos e
permitirem o compartilhamento de conhecimentos sobre as formas de desenvolvimento,
funcionamento, distribuição e melhorias desta tecnologia. Outra questão que impulsiona o uso
de softwares com licença GPL pela IES está relacionada ao fato de estes softwares poderem
ser instalados gratuitamente a partir de download feitos pela Internet. Pois assim, os
estudantes também podem instalar os mesmos softwares utilizados na faculdade em seus
computadores pessoais (PC) sem pagamento de licenças. Os softwares empregados para o
desenvolvimento das atividades do curso estão descritos no capítulo 4.
114
CAPÍTULO IV. COMPARAÇÃO ENTRE SOFTWARES PROPRIETÁRIOS E
LIVRES
Nos processos de criação de produtos para rádio e televisão os profissionais desta
área da comunicação utilizam variados tipos de recursos tecnológicos digitais para compô-los,
como por exemplo, para produzir um documentário. Entre estes recursos se destacam os
computadores e softwares128 especializados.
O processamento digital de imagens envolve atividades como importá-las do mundo
real para dentro dos computadores através de dispositivos de entrada, como scanner ou
máquinas fotográficas digitais, e atividades como editá-las e exportá-las dos computadores
para o mundo real por meio de dispositivos de apresentação tais como impressoras, monitores
de computadores e de televisão, também chamados de dispositivos de saída.
Os softwares de processamento de imagens, genericamente chamados de softwares
gráficos, também são recursos importantes em atividades de criação de produtos para rádio e
televisão e podem ser, conforme classificação adotada pela indústria de software, agrupados
em pelo menos quatro categorias: softwares para processamento de audiovisual; softwares de
computação gráfica 3D; softwares editores de imagem matricial ou raster; softwares de
desenho vetorial. Para cada uma dessas categorias de software existem muitas ofertas de
produtos no mercado, tanto proprietários como livres, conforme descrito nas próximas
páginas. Geralmente estes softwares são identificados pela marca ou nome de algum produto
mais conhecido, como é, respectivamente, o caso dos softwares proprietários Final Cut,
Maya, Photoshop e CorelDRAW.
Uma outra categoria de softwares utilizados na produção de música e de áudio –
locução, efeitos sonoros etc – e nos vídeos, formando, assim, os produtos audiovisuais é a dos
softwares de processamento digital de som. Um exemplo é o software Pro tools, um dos mais
utilizados em processos de produção ou de pós-produção de filmes e músicas. Alguns
softwares de produção audiovisual se limitam a operar em uma única plataforma de hardware
128
Lembrando: um software é um programa que contêm um conjunto de instruções e dados processados pelo
computador.
115
e ou em um único sistema operacional129, por exemplo, no PCWindows – enquanto outros são
multiplataforma, rodam tanto no sistema operacional PCWindows como em workstation
(estação de trabalho) Apple/MAC OS X130 ou Linux.
Duas vantagens importantes dos softwares multiplataforma são a portabilidade e a
escalabilidade. A portabilidade permite a troca de hardware131 e sistema operacional sem a
obrigatoriedade de trocar o software com o qual o usuário pode estar acostumado a trabalhar.
A escalabilidade permite utilizar arquiteturas de hardware mais potentes e mais
eficientes que as dos PC's e sistemas operacionais comuns – como Workstations RISC e
supercomputadores multiprocessados que rodam com UNIX, Linux ou Mac OS X –, sempre
que maior poder computacional ou mais eficiência em cálculos for necessária para realizar
cálculos matemáticos com maior precisão.
Comparar softwares é um trabalho complexo, pois este tipo de análise precisa ser
feita com base em parâmetros concretos, aceitáveis, confiáveis e equivalentes, sem, no
entanto, envolver análise de centenas de detalhes, como, por exemplo, relacionados a
desenhos de interfaces e usabilidade, sequência de operações para realizar tarefas etc. Como
um dos objetivos desta pesquisa foi apresentar as principais características, funcionalidades,
diferenças e semelhanças entre os softwares proprietários e livres, realizamos um estudo
comparativo. Um tipo de estudo empregado para se comparar dois ou mais fenômenos ou
para se confrontar as qualidades ou os elementos de duas realidades ou objetos com a
finalidade de se discernir semelhanças ou diferenças entre eles. Triviños (1987 p. 111-116)
explica que os resultados de um estudo comparativo são válidos somente para um caso
estudado, entretanto, podem contribuir para o encaminhamento de pesquisas que contemplem
análises de abordagem predominantemente qualitativas, um tipo de abordagem que surgiu nos
países da América Latina na década de 70 quando novas experiências científicas começaram a
ser realizadas considerando a importância de se excluir a dicotomia quantitativo-qualitativo
nas análises de resultados.
129
Camanda de software colocada entre o hardware e os programas que executam tarefas para os usuários de
computadores. Controla qual programa está acessando qual recurso. É responsável pelo acesso aos periféricos
(impressora, mouse, teclado etc). (Oliveira, Carissimi e Torcani 2008 p. 1).
130
Sistema operacional que tem como núcleo o software livre UNIX BSD, desenvolvido originalmente pela
Universidade da Califórnia em Berkeley.
131
Parte física do computador, componentes eletrônicos, circuitos integrados, placas etc.
116
A valorização de experiências de natureza qualitativa nos países da América Latina
se deve também ao fato de que mesmo sendo esta uma categoria de pesquisa que exige
rigoroso acompanhamento em todas as fases da investigação, permite que o pesquisador tenha
várias perspectivas comparativas de análise e de interpretação do fenômeno estudado. Logo,
contribui para que um pesquisador possa ter uma visão global de um fenômeno investigado,
bem como de suas particularidades.
Nesta pesquisa, o estudo comparativo entre os softwares utilizados na UMESP e na
ESEEI foi feito a partir da observação “de um fato que já ocorreu” para compreender os
vários fatores que se constituem como suas variáveis independentes. Ou seja, o estudo
comparativo nos permitiu estabelecer algumas variáveis independentes dos softwares
proprietários utilizados na UMESP como um fato que já é, para, então, compará-las com
mesmas as variáveis independentes dos softwares livres utilizados na ESEEI. Triviños (idem p.
106) explica o conceito de variáveis independentes.
A variável é algo que ‘varia’, que muda [...]. As variáveis ‘são características
observáveis de algo’ que pode apresentar diferentes valores. Idade, por exemplo, é
uma variável e pode ter diferentes valores: 15 25,35 etc. Estatura é outra variável e
pode apresentar valores como 1,75 [...] etc. Alguns denominam variáveis
fundamentais aquelas que se referem aos caracteres básicos do que se investiga [...]. E
variáveis principais aquelas variáveis que dimensionam o campo que se investiga. [...]
As variáveis, como as hipóteses, estão constituídas por conceitos. Estes conceitos têm
definições gerais que é preciso, em primeiro lugar, esclarecer de forma precisa. Mas,
em geral, estas definições são ambíguas, além de abstratas. Por isso o investigador
deve ‘operacionalizar’ estes conceitos, dando-lhes um sentido, um conteúdo prático.
Noutras palavras, a operacionalização das variáveis consiste em dar às variáveis um
sentido facilmente observável, que permita operar, medir.
Embora os estudos comparativos sejam amplamente empregados no contexto de
pesquisas de natureza qualitativa, Triviños (idem p. 111-112) chama atenção para o fato de
estes estudos apresentarem algumas limitações:
[...] algumas ultrapassadas pelos tratamentos estatísticos adequados, geralmente
sofisticados, não sendo possível um controle exaustivo das variáveis. Por outro lado, é
difícil determinar que variáveis estão relacionadas com o fenômeno. Podemos colocar
uma série de variáveis (fatores) como responsáveis pela ocorrência do fenômeno e não
incluímos um que pode ser realmente mais importante, mais relevante [...].
117
Por fim, a análise comparativa entre os softwares utilizados na UMESP e na ESEEI
foi feita com base nas informações descritas nos questionários respondidos pelos professores
Marcio Antonio Kowalski – coordenador da Agência de Comunicação Multimídia –
AgComMM da UMESP – e Professor Dr. Joaquim Valverde coordenador do curso de
Radialismo da ESEEI. Informações que serviram como para definir as variáveis fundamentais
existentes entre os dois tipos de tecnologia. Além dos dados coletados por meio do
questionário outras informações gerais sobre tais tecnologias e sobre os dois cursos também
foram extraídas dos sites das duas entidades.
Com o objetivo de facilitar a compreensão acerca da referida análise e para ordenar o
processo de comparação, os softwares foram agrupados em cinco categorias: a primeira
categoria detalha as variáveis fundamentais dos softwares para processamento de audiovisual;
a segunda dos softwares de processamento digital de som; a terceira dos softwares de
computação gráfica 3D; a quarta categoria detalha as variáveis fundamentais dos softwares
editores de imagens matricial ou raster; e a quinta dos softwares de desenho vetorial.
A partir do agrupamento dos softwares nestas cinco categorias, mesmo que isso
possa ser considerado de delicada solidez, elaboramos tabelas com as variáveis fundamentais
de cada software e que mostram as especificidades e as possibilidades de uso dos softwares
com código aberto nos processo de criação de produtos para rádio e televisão. Tais tabelas
foram originalmente elaboradas e adaptadas a partir do modelo de um quadro comparativo
elaborado por Benoît Saint-Moulin, professor convidado de técnicas infográficas da Escola
Superior Albert Jacquard, da Bélgica. Fundador e administrador do site132 TD T3D The Dream
Team sediado na Bélgica. Trata-se de um dos sites133 dedicado a arte em 2D e 3D mais
respeitados no mundo. Foi criado em 5 de novembro de 1999 e projetado para ser ponto de
encontro virtual para artistas de computação gráfica europeus, notadamente belgas, franceses
e ingleses. Muitos destes artistas de computação gráfica, como Carole Demasy134;Adam
Vincent; Benoît Rogez; David Revoy; Deveux Olivier; Gilles Sagot; Goro Fujita; Laurent
Goulois; Philippe Marsigny; Paul Puzyrev; e Vanmeerbeeck Frédéric135 dão consultoria
gráfica pela internet e participam ativamente na mediação do fórum do site, bem como, na
132
www.bsm3d.com
133
http://www.tdt3d.be
134
www.artkm.be
135
www.shadows.fr
118
certificação das informações e trabalhos postados por dezenas de artistas de todo o mundo,
usuários das tecnologias que estamos avaliando.
A Wikipedia também foi uma ferramenta importante para a definição da tabelas, pois,
depois de conhecer o TD T3D The Dream Team, buscamos, nesta enciclopédia livre,
informações que nos ajudasse a definir outras variáveis das categorias de softwares não
contempladas neste site. Qual foi nossa surpresa quando encontramos diversas sugestões ou
modelos de tabelas, fruto de pesquisas realizadas por pesquisadores de todas as partes do
mundo, notadamente da Holanda, Bélgica, Suécia, Reino Unido, Austrália, Brasil, Estados
Unidos, Malásia, Japão e China.
Nossa curiosidade acerca das informações apresentadas na Wikipedia não excluiu a
necessidade de olharmos com muito cuidado e atenção todos os relatos, pesquisas e outros
dados. Por outro lado, tal cuidado e atenção contribuíram para a aquisição de novos e
preciosos conhecimentos, pois, como já foi explicado por Friedman (2005, p. 112) neste
documento, embora diversos questionamentos já tenham sido feitos sobre a credibilidade dos
conteúdos deste portal, inclusive pelo fato de o projeto da Wikipedia – criado por Jimmy
Wales – estar relacionado com o movimento de código aberto e livre, todos os verbetes são
monitorados e eliminados quando não são considerados corretos uma vez que a Wikipedia
solicita a indicação de referências e de fontes dos verbetes editados, pois funciona por
consenso e os usuários podem acrescentar e alterar os conteúdos, garantindo a predominância
de sua qualidade. “Os mal-intencionados ficam anulados” afirma Friedman, pois é fácil
combatê-los uma vez que os próprios usuários vigiam a lista de alterações e corrigem
problemas em minutos, às vezes segundos.
Além do quadro comparativo de Benoît Saint-Moulin e dos exemplos analisados na
Wikipedia o processo de comparação entre alguns softwares proprietários e livres também foi
feito a partir da definição de um critério, de um modelo com três macrofunções: Entrada =>
Processamento => Saída.
Portanto, as comparações foram realizadas considerando
essencialmente os recursos disponíveis nos softwares para importar conteúdos para o
computador; para tratá-los digitalmente; e para exportar os resultados em formatos e
resoluções de arquivos e dispositivos de representação adequados. Nesse sentido, as
macrofunções foram analisadas quanto:
Entrada: dispositivos de comunicação analógico/digital e recursos de digitalização –
codecs e compressores – para importação de conteúdos analógicos e/ou digitais.
119
Processamento: funções para tratamento dos conteúdos (composição, transformações,
efeitos e etc).
Saída: processos, codecs e compressores disponíveis para exportação de conteúdos em
formatos e resoluções adequadas aos dispositivos de representações digitais ou
analógicos produzidos e utilizados pela indústria de mídia.
Por fim, pressupomos que os resultados do processo de comparação entre os softwares
proprietários e livres podem ser bastante úteis para orientar a escolha e o uso de softwares
adequados à criação de produtos para rádio e televisão pelos alunos das diversas entidades de
educação do Brasil que ofertam cursos de Radialismo. A seguir, e antes de apresentar os
resultados da referida análise comparativa, descrevemos as especificidades de cada software,
proprietário e livre136, utilizado nos cursos de Radialismo da UMESP e da ESEEI.
Os softwares proprietários utilizados no curso de Radialismo da UMESP, e que
operam em plataforma Apple137/Macintosh e sistema operacional MAC OS X, são:
1. Os softwares utilizados em atividades de edição de Vídeo – categoria 1 - softwares
para processamento de audiovisual – são o Final Cut Pro HD, desenvolvido pela Apple;
Vegas da Sony e After Effects cujo fabricante é a Adobe.
Conforme informações do próprio fabricante138, – a Apple Computer – o Final Cut Pro
HD (high definition) é um software profissional de edição de vídeo não linear que foi
desenvolvido para o sistema operacional Mac OS X. Pode ser utilizado para editar material
obtido de câmeras de vídeo domésticas MiniDV, bem como materiais de alta definição (HD)
obtidos em estúdio profissional.
Em outras palavras, o Final Cut Pro realiza a edição não linear de qualquer formato de
136
Algumas informações sobre os softwares descritos foram extraídas dos website das empresas fabricantes,
fornecedores e desenvolvedores disponíveis na internet.
137
A Apple iniciou a revolução do computador pessoal nos anos 70 com o Apple II e reinventou o computador
pessoal nos anos 80 com o Macintosh. A Apple é amplamente reconhecida pelo Mac, computadores de mesa e
notebooks inovadores e premiados, seu sistema operacional OS X e pelo estilo de vida digital iLife e aplicativos
profissionais. A Apple está também à frente da revolução da música digital com a linha iPod, líder de mercado de
tocadores portáteis de música e a loja online iTunes, e entrará para o mercado de telefonia celular este ano com o
revolucionário iPhone. Disponível em: www.Apple.com/br/imprensa. Contato para a imprensa. Acesso em
19/01/09.
138
Disponível em: http://www.Apple.com/finalcutstudio.
120
vídeo compatível com QuickTime139 e pode suportar numerosa quantidade de faixas (trilhas)
de vídeo; até 99 pistas de áudio; edição multi-câmera para cortes de vídeo de múltiplas fontes.
Permite criar efeitos de ondulação, rotação e alteração de tempo, além de vários efeitos de
transição em três dimensões e filtros de áudio e vídeo, que possibilitam a correção de cores e
remoção de chiados e estouros.
O Final Cut Pro 5 integra a suíte Final Cut Studio, juntamente com outros aplicativos
"Pro" da Apple dentre os quais o Color, para finalização fotográfica de vídeo e tratamento de
cor. Pode editar vídeos nos formatos Standart (SD), Digital Video (DV), High Definition (HD)
e High Definition Video (HDV).
Em 2001 a Apple lançou o Final Cut Express, que utiliza a mesma interface da versão
Final Cut Pro, mas que não têm as ferramentas de edição específicas para filmes e outras
opções avançadas. Esta versão é mais direcionada para produtores digital amadores de vídeo
ou profissionais que querem adquirir máquinas e software de menor custo.
O Sony Vegas140 é um software de edição não linear141 de áudio e vídeo,
desenvolvido pela Sony Creative Software para rodar no sistema operacional Windows e
comercializado com licença proprietária Microsoft EULA. Sua versão 8 (2008) combina
edição de áudio 5:1 suround – dolby digital DTS para Home Teather ou 2:0 stereo para
televisões normais e edição de vídeo de alta qualidade e fidelidade em tempo real. O Sony
Vegas também tem um extensivo suporte a plug-ins142 e é considerado dentre os programas de
edição, assim como o Adobe Premiere, um dos melhores do mundo, pois renderiza143 em
quase todos os formatos e sempre em qualidade de DVD. É muito utilizado pela indústria de
televisão e de cinema na produção dos filmes da Columbia, por exemplo.
139
É uma estrutura de suporte (framework) multimídia desenvolvida pela Apple, Inc., - conhecido também como
QT´ - para manipular formatos de vídeo digital, mídia clips, som, texto, animação, música e vários tipos de
imagens panorâmicas interativas. Disponível em: www.Apple.com/quicktime/ Acesso 10/12/08.
140
Disponível em: www.sonycreativesoftware.com
141
Processo em que o filme é convertido para um formato digital e pode ser modificado livremente. Vários
softwares proprietários são utilizados em processos de edição não linear, como o Final Cut Pro, Adobe Premiere
e Sony Vegas. Também existem softwares livres para executar essa tarefa como: Avidemux, VirtualDub e o
Cinelerra.http://www.cinelerra.org
142
Um Plug-in é um programa de computador que serve normalmente para adicionar funções a outros programas
maiores, provendo alguma funcionalidade especial ou muito específica.
143
O termo renderizar – tem sido usado em processos de conversão de símbolos gráficos em arquivos visuais, ou
seja, em processos que se pretende fixar as imagens num vídeo, convertendo-as de um tipo de arquivo para outro
ou de uma linguagem para outra. Termo também conhecido como processamento de efeitos, pois permite tornálos permanentes em um segmento de áudio digital. (Brito, 2006).
121
O Adobe After Effects é um programa proprietário de composição de vídeo que cria
gráficos com movimento e com efeitos visuais. Foi originalmente desenvolvido pela
Company of Science and Art – Cosa144 que lançou sua primeira versão (1.0) em 1993. Mais
tarde a Adobe adquiriu a propriedade do After Effects e lançou, em 1995, versão 3.0.
O After Effects tem um extensivo suporte a plug-ins que permitem fazer filme ou
vídeos parecidos com desenhos animados; simular fogo, fumaça ou água; sistemas de
partículas; movimentos lentos; eliminar ruídos; e outros efeitos visuais. Portanto, o After
Effects é bastante utilizado em atividades de pós-produção de vídeo, filmes, DVDs e
produções em Macromedia Flash – software de gráfico vetorial que suporta imagens bitmap e
vídeos.
2. Os softwares utilizados em atividades de processamento de áudio – categoria 2 –
de processamento digital de som – são Sound Forge da SONY; e Pro Tools desenvolvido
pela DigiDesign.
O Sound Forge145 é um software de uso profissional e semi-profissional
comercializado com licença proprietária que edita e cria áudio digital. Também conhecido
como Sonic Foundry Sound Forge ou Forge, devido à compra de seus direitos pela Sony, é
uma ferramenta considerada essencial pelos editores e produtores profissionais de áudio. A
Versão 9 (2007) é a mais atual e permite que seus usuários possam converter arquivos no
formato WAV para mp3; editar, copiar, colar, apagar, retocar trechos de uma composição;
adicionar recursos de fundo, vibração, eco, filtragem de voz, aceleração e desaceleração de
uma música; permite também a eliminação da voz; ampliar as marcas vocais; fazer suas
gravações através de microfone; editar vídeo; fazer cópias de e para CDs.
O Pro Tools é uma estação de trabalho para áudio digital fabricada pela
Digidesign146 – adquirida pela Avid Technology147 – que integra hardware e software. Um
144
A CoSA juntamente com o After Effects foi adquirida pela corporação Aldus em 1993, que foi adquirida pela
Adobe em 1994, junto o PageMaker e o After Effects. em:ttp://www.adobe.com/br/products/aftereffects/
145
Disponível em: http://www.sonycreativesoftware.com/products/product.asp?pid=431|
146
Disponível em: http://www.digidesign.com/ Acesso em 10/08/08.
147
A Avid tornou-se líder mundial em mídia digital com a criação de ferramentas para cinema, vídeo, áudio. Hoje
a grande maioria dos produtos líderes de televisão, longas-metragens, comerciais e programas de música
utilizam um ou mais produtos Avid. Disponível em: www.avid.com/ Acesso em 10/10/08.
122
produto proprietário muito utilizado em processos de produção ou pós-produção de músicas e
filmes pela indústria televisiva. Roda nos sistemas operacionais Mac OS X e Windows.
Conforme o site oficial da Digidesign o Pro Tools 8 é a mais avançada tecnologia de
audiovisual e apresenta uma nova e bonita interface. Dezenas de novos instrumentos musicais
virtuais, plug-ins e funcionalidades MIDI, novos workflows (fluxos de trabalho), facilidade de
uso e integração mais profunda e etc.
3. O software utilizado em atividades de modelagem e animação 3D – categoria 3 softwares de computação gráfica 3D – é o Maya, fabricante Adobe.
O Maya148 é um software computação gráfica 3D adequado para a produção de
animações e efeitos especiais. É um produto proprietário bastante utilizado pela indústria de
cinema, televisão e de jogos de computador. Pode ser considerado um fork149 porque surgiu
de três outros softwares.
Existem duas versões do Maya, a primeira é o Maya Complete que inclui ferramentas
de modelagem, animação, renderização, pintura e sombreamento. A segunda versão do Maya
é o Maya Unlimited, que além das ferramentas existentes na versão Complete tem, por
exemplo, o Maya Fluid Effects (efeitos fluídos) uma ferramenta para criar efeitos de animação
e efeitos de computação gráfica que simulam o comportamento de fluídos, tais como a água.
Tem ainda as mesmas versões disponíveis para cinco diferentes Sistemas Operacionais:
Microsoft Windows XP/Vista, Apple Mac OSX, Irix, Unix e Linux.
148
Desenvolvido pela Alias Systems Corporation que em 1995 se fundiu com a Wavefront Technologies. Ambas
foram incorporadas pela Silicon Graphics Inc (SGI), que lançou o programa. Disponível em
http://usa.autodesk.com Acesso 18/01/09.
149
Wavefront Advanced Visualizer; Thomson Digital Image (TDI) Explore; e, Alias Power Animator. Fork Termo que em português pode ser compreendido como bifurcação.
123
4. Os softwares utilizados em atividades de Processamento de imagens matriciais ou
raster – categoria 4 – softwares editores de imagem matricial ou raster – são Photoshop
CS3 da Adobe e Color da Apple.
Adobe Photoshop150 é bastante utilizado para produzir imagens matriciais ou raster.
Desenvolvido pelo Adobe Systems, o Adobe Photoshop tem ferramentas que permitem a
criação de efeitos que reproduzem técnicas de pintura, fotografias e outras geralmente
utilizadas em gráficas e impressão offset. Conforme Parker (1995, p. 119) programas de
manipulação de imagens como o Adobe Photoshop permitem, por exemplo:
[...] que você faça alterações seletivas em áreas restritas das fotografias. Você pode
clarear áreas sombreadas (queimar) sem fazer com que as áreas claras (fundo da
imagem) fiquem totalmente bancas, e pode aplicar dodging (sombreado) ou escurecer
o fundo da imagem para realçar os detalhes mais claros sem fazer com que as áreas
mais escuras da fotografia fiquem pretas. Com o Adobe Photoshop, você pode ampliar
bastante o tamanho das imagens digitalizadas e trabalhar somente com as partes
selecionadas da mesma. Com o hardware apropriado (memória e velocidade de
processador), você pode inclusive modificar as fotografias. Você pode copiar e colar
um olho, por exemplo, colocando-o no centro da testa do seu chefe! Finalmente,
programas como o Adobe Photoshop permitem que você aumente artificialmente a
nitidez das imagens digitalizadas. Embora seja difícil de acreditar que alguma coisa
possa ficar mais ‘nítida’ do que já é, esses programas podem fazer isso por meio do
aumento do contraste das áreas adjacentes, destacando elementos como sardas ou
cílios.
Por possibilitar que os usuários possam tornar as imagens mais interessantes o
Photoshop é um programa cada vez mais usado para produzir imagens para World Wide Web,
pois as possibilidades de se adicionar texturas e padrões nas imagens criam a impressão de
que as fotografias vistas na tela do computador foram desenhadas sobre tecido. “Você pode,
inclusive, fazer com que os pixels de uma fotografia sejam ampliados ou exagerar as linhas
para tornar as fotografias mais interessantes”, complementa Parker (idem, p. 119).
Outros efeitos de guache e espelho ondulado também podem ser feitos em uma
imagem com o Photoshop. Por este motivo esse editor é um dos preferidos pelos produtores
150
Disponível para os sistemas operativos Microsoft Windows e Mac OS X. Pode ser rodado também no Linux,
através da camada de compatibilidade Wine. Disponível em: adobe.com
124
de imagens digitais profissionais e agências publicitárias do mundo.
O Color151 é um software profissional de ajuste de cor produzido pela Apple Inc.
para seu sistema operacional Mac OS X. Segundo Peter Cohen em matéria intitulada Apple
adquire Silicon Color, publicada na revista MacWorld de 16 de outubro de 2006. “O Color é
uma das principais aplicações incluídas como parte do Final Cut Studio 2”. Esta aplicação foi
originalmente chamada de FinalTouch (toque final) e desenvolvido pela Silicon Color, até que
companhia foi adquirida pela Apple em 2006. Filmes gravados com câmera de cinema muitas
vezes parecem desbotados, um dos objetivos ‘básicos do Color’ é adicionar a vibração e a
riqueza das cores de volta ao vídeo. Uma vez transferido para o formato digital, normalmente
para edição adicional.
5. Os softwares utilizados em atividades de Desenho Vetorial 2D – categoria 5 softwares de desenho vetorial – são Ilustrator do Adobe e CorelDRAW X3 da Corel.
O Adobe Illustrator é um software utilizado em atividades de criação de desenho
vetorial 2D. É uma marca registrada da Adobe System Incorporated e foi desenvolvido em
1985 para o Apple Macintosh. A versão 3.0 tem sido a preferida pelos usuários com interesse
na criação de layout de textos acompanhados por curvas. Conforme explica Parker (1995 p.
27) “Com programas como o Adobe Illustrator [...], praticamente não há limites para a sua
criatividade. Um truque simples, mas que certamente agrada a todos na criação de títulos é
utilizar preenchimento com variação gradual de tom, de escuro para claro”. Portanto, o
Illustrator é um programa que permite fazer mais do que traçar um desenho, é um programa
que possibilita, conforme explica Sue Plumley152 (1995 p. 13 -21) inserir textos nos desenhos,
“controlar a fonte, o entrelinhamento, o alinhamento e o espaçamento do texto, ao mesmo
tempo em que oferece excelente versatilidade em outras áreas”, para se criar um logotipo, por
exemplo, pois tem ferramentas necessárias para “produzir arte e textos dignos de publicação.”
151
152
Disponível em: http://en.wikipedia.org/wiki/Color_(software). Acesso em 10/12/08.
Sue Plumley – autora da obra Adobe Illustrator 4 for Windows Técnicas Avançadas. Proprietária da empresa
americana que fornece treinamento em software Humble Opinions – explica na obra citada detalhes sobre as
funcionalidades deste programa.
125
O CorelDRAW153 é um editor de imagens semelhante ao Adobe. É um programa
especializado para se trabalhar com desenho vetorial, ideal para trabalhos de ilustrações e
modelagem em 2D e 3D. No manual CorelDRAW user’s Manual, publicado pela Corel
Corporation (1994), os usuários encontram explicações detalhadas sobre este programa
desenvolvido em 1988 pela canadense Corel, com sede em Ottawa, para Windows. Em 1997
foi lançada uma versão para computadores Macintosh e em 1998 para Linux. Afirma Roger C.
Parker (1995, p. 138) que o CorelDRAW é “considerado por muitos como o melhor em seu
segmento [...]. Contudo também divide opiniões [...], alguns acham que é pesado, instável e,
por ter muitos recursos, acaba limitando a criatividade dos usuários”.
Os softwares livres utilizados no curso de Radialismo das Faculdades ESEEI e que
operam em plataforma PC e sistema operacional Linux154 são:
1. Os softwares utilizados em atividades de edição de Vídeo – categoria 1 softwares para processamento de audiovisual - são Cinelerra – desenvolvido pela Heroine
Virtual155; Jahshaka – desenvolvido pela Jahshaka.org.
O Cinelerra é um editor156 profissional não-linear de vídeo livre. É considerado uma
poderosa ferramenta de fonte aberta desenvolvida pela Heroine Virtual157 e distribuída sob a
licença GNU – General Public License. Sua primeira versão foi liberada, exclusivamente
para a plataforma Linux, em 1996, com base num produto anterior conhecido como Broadcast
2000.
É um software que possui características semelhantes às de outros editores
profissionais proprietários, como Final Cut. Possui recursos que possibilitam ao usuário
153
Disponível para os sistemas operacionais Microsoft Windows sob Licença Comercial - Proprietária. Fonte:
www.corel.com.br/pt/ Acesso em 26/01/09.
154
Com exceção ao hardware e software especializados na função de switcher, com oito canais de sinal de vídeo
componente, oito canais de vídeo S-VHS e oito canais de som profissional – cânon – conector profissional de
áudio – que operam com tecnologia Vídeomachine em plataforma PC Windows.
155
http://heroinewarrior.com/cinelerra.php3
156
No website da empresa estadunidense O'Reilly Media e da Comunidade O'Reilly matéria intitulada Editando
no Linux Professional Vídeo com Cinelerra, do escritor americano freelance, Howard Wen descreve como tal
processo pode ser realizado. Disponível em: www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html 41k – Acesso em: 12/01/09.
157
Heroine Virtual é uma empresa que desenvolve software para o sistema operacional Linux. Seu produto mais
popular é Cinelerra.
126
executar operações de composição comuns como keying (chaveamento) e mattes
(mapeamento). Produz efeitos visuais e tem suporte para HDTV, além de editar vídeo sem
compressão (RAW158).
O Jahshaka é um software de código aberto desenvolvido para editores e outros
profissionais envolvidos em criação digital de conteúdos. Conforme informações extraídas do
website159 oficial, o Jahshaka é uma suíte de pós-produção que inclui módulos para edição,
composição, animação e inserção de efeitos visuais ou gráficos em áudio e vídeo. Os usuários
desta tecnologia também podem editar com flexibilidade e velocidade para criar efeitos
visuais; fazer animações, pintar e desenhar em vídeos em tempo real; criar efeitos musicais e
animações 3D etc.
2. Softwares utilizados em atividades de processamento de áudio – categoria 2 –
processamento digital de som – são Ardour – desenvolvido pela comunidade ardour.org;
Audacity pela comunidade Audacity Team; Rosegarden – pela Rosegarden Music.com e
Hydrogen pela hydrogen-music.org160.
O Ardour161 é uma estação digital profissional para processamento profissional de
áudio digital, desenvolvido sob a licença GNU - General Public License. Suporta plug-ins162
que permitem produzir vários tipos de efeitos de áudio com controles dinâmicos e roda nas
plataformas Linux, FreeBSD, Solaris, e Mac OS X.
Sendo o Ardour um sistema livre qualquer pessoa pode ler seu código fonte. Esta
característica permitiu que a primeira porta do Ardour para Mac OS X fosse desenvolvida por
alguém não envolvido com o projeto Ardour original, como, por exemplo, engenheiros de
som líderes em estúdios cinematográficos de várias partes do mundo. Atualmente, a norteamericana SAE Institute patrocina o projeto Ardour Open Source DAW – e está provendo
suporte corporativo ao Ardour. O objetivo desta iniciativa é proporcionar uma experiência
158
Material bruto.
159
Disponível http://superdownloads.uol.com.br/download/23/jahshaka http://jahshaka.org/
160
http://hydrogen-music.org/
161
http://ardour.org/node/976
162
Entre outros plug-ins padrão com o software Wine.
127
mais integrada no Mac OS X e o desenvolvimento de uma versão adaptada para iniciantes. O
website da comunidade Ardour informa que seu primeiro autor foi Paul Davis, também
responsável pelo desenvolvimento da interface MIDI JACK Audio Connection Kit. A empresa
norte-americana Solid State Logic empregou Paul Davis para trabalhar em tempo integral no
Ardour durante o desenvolvimento da versão 2 que durou até o final de 2006.
O Audacity163 é um software livre de edição digital de áudio. O código fonte do Audacity
também está sob a licença GNU General Public License. É um sistema muito popular entre os
podcasters pela sua grande disponibilidade em múltiplas plataformas, suporte e o preço,
gratuito. A palavra podcasting é uma junção de iPod - marca do aparelho de mídia digital da
Apple de onde saíram os primeiros scripts de podcasting164 - e broadcasting (transmissão de
rádio ou tevê). A série de arquivos publicados por Podcasting é chamada de Podcast. O autor
(ou a autora) de um Podcast é chamado (a) Podcaster.
O Audacity possui recursos para importação e exportação de áudio em inúmeros
formatos arquivos. Permite a gravação e a reprodução de sons; a edição simplificada como
cortar, copiar, colar e apagar; mixagem em múltiplas faixas; alteração da velocidade do
som sem alterar sua altura, para sincronização perfeita com vídeo (em dublagens);
remoção de ruídos; aplicação de efeitos digitais de som e plug-ins de efeitos sonoros etc.
O Rosegarden165 é um programa de edição de música de código aberto. O projeto foi
criado em 1993 na Universidade de Bath. A equipe de desenvolvedores é composta por Chris
Cannam, Richard Bown e Guillaume Laurent que criaram a empresa Rosegarden Music.
Opera somente em sistemas UNIX/Linux. Dispõe de recursos para composição musical com
seqüenciadores MIDI e editores de partituras é uma alternativa gratuita para softwares
proprietários como Cubase (da Steinberg) entre outros.
O Hydrogen – desenvolvido pela hydrogen-music.org é um avançado software que
permite imitar som de tambores e de outros instrumentos percussão. É uma ferramenta muito
útil para produção de ampla variedade de gêneros musicais. Desenvolvido por Alessandro
163
Website audacity.sourceforge.net
164
Podcasting é uma forma de publicação de arquivos de mídia digital (áudio, vídeo, foto, pps, etc...) pela
Internet, através de um Feed RSS, que permite aos utilizadores acompanhar a sua atualização. Com isso, é
possível o acompanhamento e/ou download automático do conteúdo de um Podcast. Disponível em:
http://pt.wikipedia.org/wiki/Podcasting
165
Website rosegardenmusic.com
128
Cominu, um programador italiano conhecido pelo pseudônimo Comix. Foi originalmente
desenvolvido para rodar em Linux e mais tarde foi portado para o Mac OS X. Uma versão
experimental foi desenvolvida para o Microsoft Windows, porém foi abandonada. O código do
Hydrogen é liberado sob a licença GNU General Public License.
3. O software utilizado em atividades de modelagem e animação 3D – categoria 3 softwares de computação gráfica 3D – é o Blender 3D – desenvolvido para Comunidade
Blender Org.
O Blender é um software de código aberto - suportado pela Fundação Blender e pela
comunidade de desenvolvedores e usuários. É um software para criação 3D com recursos de
adequado para modelagem ou criação de formas, objetos e cenários; animação de
personagens; composição de imagens; renderização; edição de vídeo; e, mapeamento de
texturas (texture mapping)166.
Segundo Pissuto167 (2006, p.38) “O Blender foi desenvolvido em 1995,
originalmente, pelo estúdio de animação holandês NeoGeo. Em 1998 foi criada a Number
Tecnologies - NaN com o objetivo de desenvolver o software[...]. Em 2001, foi lançado o
primeiro software comercial direcionado para o mercado de internet em 3D, o Blender
Publisher.”
Em decorrência do fraco desempenho comercial do software e da crescente
dificuldade econômica a NaN encerrou suas atividades e interrompeu o desenvolvimento do
Blender, até que em 2002 foi criada a Blender Foundation168 - uma entidade pública sem fins
lucrativos e cujo objetivo foi dar continuidade ao desenvolvimento do software Blender como
um projeto de código aberto. Neste mesmo ano foi realizada a campanha “Blender Livre”,
para a arrecadação de doações para a fundação, para que pudesse obter o direito sobre o
166
Mapa de textura que é aplicado (ou mapeado) para um lado de um polígono - palavra grega e que significa
muitos (poly) e ângulos (gon). É uma técnica muito usada na produção de jogos de vídeo game.
167
TCC intitulado O Trânsito e as Crianças: Aprendizagem Interativa em 3D. Elaborado por Camila de Lima
Pissuto e orientado por esta pesquisadora (mimeo). Faculdades ESEEI, Curso de Comunicação Social:
Habilitação
Editoração
Mídia
Digital.
Curitiba
2006.
Disponível
em:
http://www.spet.br/intranet/Login.do;jsessionid=b465390e0270709af5a58caafb64.
168
Organização neerlandesa independente e sem fins lucrativos, fundada na Alemanha em 2002 por Ton
Roosendaal, e financiada por meio de doações com o objetivo de manter o projeto Blender. Software do gênero
Modelador 3D - e disponível em 23 idiomas. Sua última versão é a 2.48ª, de 2008, roda em sistema Operacional
Multiplataforma sob licença dupla BL (Blender License) / GNU GPL. Disponível em
http://studioz.multiply.com/links/item/408 ou Blender.org Acesso 19/01/09.
129
código-fonte e a propriedade intelectual do mesmo, assim, em 2002, o Blender foi lançado
pela fundação como um projeto de código aberto sob a licença GNU General Public Licence GPL.
4. Os softwares utilizados em atividades de processamento de imagens matriciais ou
raster – categoria 4 – softwares editores de imagem matricial ou raster – são: GIMP –
desenvolvido pela comunidade GIMP.org. Projeto GNU da Free Software Fundation e o
software CinePaint – pela comunidade Cinepaint.org169.
O GIMP170 é um software adequado à representação e tratamento de imagens
rasterizadas de variados tamanhos e com alto nível de detalhes, como as imagens
fotográficas. O projeto GIMP foi criado em 1995 no contexto de um projeto universitário e
como uma alternativa ao Photoshop. Segundo André Milani171 (2005 p.17):
O GIMP é uma ferramenta de criação e edição de imagens de código aberto. Seu nome
é formado pelas iniciais de ‘GNU Image Manipulation Progra’ (em português
Programa de Manipulação de Imagens GNU). Foi criado para preencher o espaço
gerado pela falta de programas gráficos para o sistema UNIX. [...] e permite que
centenas de desenvolvedores da comunidade172 de software livre contribuam
constantemente para seu desenvolvimento, por meio da eliminação de bugs,
desenvolvimento de novas funcionalidades, bateria de testes e até mesmo
desenvolvimento de novos plug-ins, que possam ser disponibilizados na internet e
instalados de acordo com a necessidade específica de cada profissional.
Algumas das principais características do GIMP são: suporte a formatos de imagens
sem perda de qualidade; maior fidelidade de cores etc. Alguns dos filmes bastante conhecidos
utilizaram este programa, entre eles: O Último Samurai; Homem-Aranha; A Liga
Extraordinária; Harry Potter; O Planeta dos Macacos. Para atender usuários acostumados com
o Adobe Photoshop a comunidade de desenvolvedores do GIMP criou uma interface similar à
169
www.cinepaint.org
170
Desenvolvido pela comunidade The GIMP Team. Lançado em 1996 (versão 0.54). Última versão 2.6.0 (2008out-1) Disponível para sistemas operacionais Multiplataforma – GNU/Linux, Windows, Mac OS X e outros sob
licença GPL. Disponível em: GIMP.orgwww.GIMP.org/ Acesso em 26/01/09.
171
Bacharel em Ciência da Computação e pós-graduado em Business Intelligence para PUC/PR. Analista de
Informática da SANEPAR- Companhia de Saneamento do Paraná. Professor do Curso de Comunicação Social
das Faculdades ESEEI. Autor da obra GIMP: Guia do Usuário (2005).
172
www.GIMP.org
130
deste produto proprietário, assim, a estrutura dos menus, além das terminologias, reproduzem
as do Photoshop.
O CinePaint é um editor de bitmap frames de filmes para pintura e retoque. Já foi
nomeado de Film GIMP por ser baseado no GIMP. É um software de código fonte livre
mantido pela comunidade cinepaint.org. Segundo informa o site oficial do CinePaint, alguns
desenvolvedores trabalham em empresas como a Dreamworks Animation, Sony Pictures
Imageworks e Apple. O portal ainda apresenta as doze principais razões para uma pessoa
utilizar CinePaint, entre elas: o recurso HDR – High Dynamic Range – que permite que as
imagens possam ter destaques de cores mais brilhantes e por isso é usado para fazer filmes em
grandes estúdios do mundo; maior fidelidade e qualidade de impressão; e o fato de ser Open
Source e poder ser adquirido sob várias licenças, pois usa código de várias fontes, incluindo o
GPL, LGPL, BSD e MPL. Além de publicar as vantagens, o portal cita também três razões
para não se utilizar o CinePaint. Entre as três destaca-se o fato de o software não rodar em
ambiente Windows.
5. Software utilizado em atividades de Desenho Vetorial 2D – categoria 5 softwares de desenho vetorial – Inkscape – desenvolvido pela comunidade The Inkscape
Team, patrocinada pela Inkscape Org.
O software livre Inkscape173 tem funcionalidades similares ao Adobe Illustrator e ao
CorelDRAW, ou seja, cria imagens a partir dos traços ou pontos definidos e suporta muitas
características avançadas SVG – Scalar Vectorial Graphics. O Inkscape pode ser considerado
um fork porque foi desenvolvido com base em outro software. Em outras palavras, a partir de
2003 um grupo de desenvolvedores iniciou o projeto Inkscape com base no código do editor
gráfico vetorial Sodipodi - criado por Lauris Kaplinski - um hacker de computador que
propagou o Linux.
Conforme detalharemos no próximo capítulo, existem muitos processos/softwares
diferentes para compressão de conteúdos e todos se baseiam em modelos matemáticos
sofisticados, implementados nos softwares que fazem à compressão e descompressão,
respectivamente, ao ler e gravar os conteúdos de arquivos digitais. Existem alguns modelos
173
É mantido/desenvolvido pela comunidade The Inkscape Team. A última versão é a 0.46.0 (25-mar-2008).
Disponível para sistemas operacionais multiplataforma sob a licença GPL. Disponível em: www.inkscape.org.
Acesso em 26/01/09.
131
que implicam perdas em resolução (qualidade) dos conteúdos, enquanto outros mantêm
grande fidelidade entre o conteúdo original e o comprimido. Dessa forma, os softwares
gráficos que tratam conteúdos digitais podem se valer de inúmeras combinações de codecs e
de compressores, de modo que os resultados dos processos de digitalização podem ter grande
variedade de formatos de representação e, por conseqüência, de arquivos. Formatos ou
extensões de arquivos são especificações de padrões estabelecidos pela indústria de TI,
fabricantes de softwares e desenvolvedores para descrever como o conteúdo é armazenado no
computador de modo a possibilitar seu processamento sem erro pelos programas.
4.1. ANÁLISE COMPARATIVA ENTRE SOFTWARES PARA PROCESSAMENTO DE
AUDIOVISUAL
Os softwares editores de audiovisual podem ser considerados resultado de uma longa
trajetória do desenvolvimento de tecnologias que possibilitaram o tratamento de imagens em
movimento e de áudio, desde o início do surgimento do rádio e da televisão.
A terminologia e os conceitos desenvolvidos nessa trajetória são fundamentais para
compreensão do funcionamento destes softwares. Por este motivo, apresentamos breve
retrospectiva histórica acerca do surgimento das principais tecnologias analógicas tomadas
por base para o desenvolvimento das digitais identificando neste percurso terminologias e
conceitos necessários. Neste contexto, buscamos na obra O Século Dourado: a comunicação
eletrônica nos EUA (1995, p. 32) de Sebastião Squirra, alguns fatos que contextualizam o
surgimento do primeiro VTR – Vídeo Tape Recorder. Segundo este pesquisador “O primeiro
gravador de imagens para televisão surgiu só em 1965, quando a Ampex Corporation
apresentou o primeiro aparelho de videoteipe [...] com o videoteipe, a produção ficou mais
barata e permitia que todos os programas fossem gravados, editados e estocados”.
Portanto, conforme artigo intitulado History of Tape Recording Technology174, antes
da existência dos videotape, no início dos anos 50, as redes de televisão se limitavam a gravar
as poucas reportagens em filme de película de 16 mm ou 35 mm, revelar o conteúdo, editar as
gravações cortando o próprio filme e emendando-o com fita adesiva, da mesma forma como
174
Disponível em http://www.tvhandbook.com/History/History_recording.htm Acesso em 12/10/08
132
eram montados os filmes de Hollywood, sob enorme pressão do tempo. Uma reportagem
gravada em Nova York, na costa leste americana, teria que ser editada e transmitida por
microondas para Los Angeles, na costa oeste, no prazo da diferença dos fusos horários das
duas regiões, de modo a ir ao ar no mesmo horário. Para isso, as redes de televisão americanas
tiveram que utilizar uma tecnologia chamada cinescopia175.
O cinescópio dominou as gravações de TV para ajuste de fuso horário no início dos
anos 50. Um gravador cinescópio era basicamente uma câmara especial de 16 mm ou
35 mm montada em uma caixa e direcionada para um monitor de vídeo (um
cinescópio) monocromático de alta qualidade. [...] o cinescópio tornou respeitável e
confiável as gravações de TV. [...] Sua câmera de filme rodava numa velocidade de 24
quadros por segundo. Uma vez que a imagem da TV repetia em 60 campos (ou 30
quadros) por segundo, o filme tinha que mover intermitentemente entre os quadros do
vídeo e então ficar completamente imóvel durante a exposição [...]. Muitos fabricantes
de cinescópio, tais como RCA, Acme, General Precision, Eastman Kodak e Palmer
Films encontraram diversas formas para resolver esse problema. (History of Tape
Recording Technology).
Porém, o principal problema que as empresas de televisão encontraram com o uso do
cinescópio foi o custo do processo conversão dos filmes gravados em película176 para fitas
magnéticas da televisão – cinescopia. Conforme descreve o artigo do History of Tape
Recording Technology.
Por volta de 1954, o custo da cinescopia para o atraso do fuso horário foi ao espaço.
Operações da TV americana usavam mais película bruta para cinescopia do que todos
os filmes de Hollywood combinados. Foi estimado que a NBC usou mais de um
milhão de pés de película por mês somente em sua sede de Nova York para programas
de troca de horário. A rede teria pago com satisfação uma régia quantia por um método
alternativo de gravação de TV. (ibidem).
175
Dispositivo técnico que permite filmar com uma câmera cinematográfica um programa de televisão captado
em receptores comuns. Para que a imagem filtrada fique nítida e contínua, sem interferências ou manchas de
varredura, é necessário sincronizar exatamente a velocidade da filmagem (v. fotograma) com a velocidade de
mudança de quadros no televisor (cerca de 30 por segundo). Câmera cinematográfica utilizada neste processo.
Registro, em filme de um programa de televisão geralmente obtido diretamente do tubo receptor. Sistema que
videotape tornou obsoleto. (Rabaça e Barbosa 2002, 135).
176
Lembramos que o processo de produção cinematográfica é um processo químico e que a indústria eletrônica
teve que desenvolver técnicas para que as imagens gravadas nos VTRs tivessem qualidade equivalente as do
cinema.
133
Estes fatos deixam claras as variáveis que motivaram as pesquisas e o
desenvolvimento do gravador de videotape. Possibilitar que programas de televisão pudessem
ser gravados em alguma mídia intermediária com qualidade de imagem e som que
permitissem sua reprodução para transmissão a posteriori, com tecnologia mais barata e ágil
do que a cinescopia. O grande problema até então era a inexistência de métodos e tecnologias
adequadas a esse desenvolvimento, embora as empresas de televisão já utilizassem o processo
de telecine177 para transmissão pela TV de programas ao vivo.
Problema similar havia ocorrido com a gravação de programas para rádio até que em
abril de 1948 a Ampex – Empresa americana que se dedicara à construção de componentes
para radares durante a guerra – tornou-se pioneira na fabricação de gravadores de áudio de
qualidade utilizando fita magnética. O sucesso da Ampex na fabricação e venda de gravadores
de áudio levou-a a inevitável conclusão de que sistema parecido, baseado em fita magnética,
poderia muito bem adaptar-se aos gravadores de vídeo, afinal a transmissão de TV de altadefinição havia começado em 1939 nos EUA e a prospecção de crescimento comercial para
gravadores de vídeo era obvia. Como observou John Mullin178: “nosso pensamento [...] nos
idos de abril de 1948 era a de que se a informação por vídeo pudesse ser trabalhada do mesmo
modo que a gravação de som de alta qualidade com o uso de fita magnética, técnicas
mecânicas poderiam ser simplificadas e etapas óticas poderiam ser eliminadas.”
Algumas iniciativas foram pioneiras no desenvolvimento de videotape, ou VTR Vídeo Tape Recorder. Uma realizada na Europa pela BBC e a outra na América do Norte pela
Ampex. Segundo texto intitulado BBC VT179 “[...] tudo começou em 1952, quando Peter Axon
coordenou o projeto VERA – um acrônimo para Vision Electronic Recording Apparatus.
Como resultado um gravador foi demonstrado dentro da BBC em uma transmissão realizada
numa segunda feira, 14 de abril de 1958. [...] Vera utilizou fita magnética de meia polegada
num carretel de vinte polegadas e meia, tinha velocidade de 200 polegadas por segundo e
permitia gravar no máximo 15 minutos.”
Os videotapes criados na BBC mantiveram-se em uso por alguns anos. Entretanto,
177
Equipamento destinado a captar as imagens de um filme cinematográfico (ou de um slide) para transmissão
por tv. Constituído por um projetor acoplado a uma câmera de tv, converte as imagens ópticas registradas
previamente sobre uma película comum de cinema em sinais elétricos de televisão. (Rabaça e Barbosa 2002,
710).
178
3M Corporation - textos estão disponíveis no site oficial da BBC – www.bbc.co.uk
179
Disponível em site http://www.vtoldboys.com. Acesso em 12/10/08.
134
dois anos antes da conclusão do projeto VERA, em março de 1956, a empresa americana
Ampex apresentou ao mercado o primeiro gravador de videotape VRX-1000, mais tarde
denominado Mark IV. Em 30 de novembro de 1956 o programa Douglas Edwards and The
News, da CBS, foi ao ar com a transmissão da reprodução da primeira gravação em videotape
em Los Angeles, Califórnia, utilizando o Ampex Mark IV180.
Considerando a ocorrência dos fatos descritos, parece não ser difícil imaginar que no
exato momento em que foi possível gravar programas em videotape surgiu também a
necessidade de editar os conteúdos das gravações para retirar partes indesejadas, juntar
conteúdos de dois ou mais carretéis etc, como, por sinal, também já havia acontecido com as
gravações de áudio. Nesse momento teve início o desenvolvimento de técnicas e tecnologias
necessárias à edição de vídeo gravado em fitas magnéticas que definiram terminologia e
conceitos ainda hoje empregados nos softwares de edição de vídeo.
No caso da edição do audiovisual em fitas magnéticas foi preciso editar
simultaneamente a imagem e o som e cuidar dos aspectos de sincronização entre ambos, já
que a imagem e o som eram gravados numa mesma fita magnética. Outro aspecto é que
existiam diferenças fundamentais entre o filme fotográfico e as gravações de vídeo.
Recorremos a Valter Bonasio181 (2002 p. 205- 207) para compreender este aspecto. No caso
do filme, “além de ser um meio quimicamente baseado para captar frames fotográficos
completos, seu movimento é criado através da ilusão da rápida exibição sucessiva dos
frames.” Já no caso da gravação de imagens em fitas magnéticas o sinal de vídeo “envolve a
conversão de energia ótica em sinais elétricos focando a luz sobre uma superfície
fotossensível de um aparelho de imagem de uma câmera, o qual converte a luz em sinais
elétricos. Pontos brilhantes da imagem original produzem uma carga maior e partes mais
escuras, uma carga menor.” Portanto, “os frames de vídeo não podem ser vistos na fita ou
disco porque eles estão na forma de sinais eletrônicos.”
Relatos apresentados no portal do Museum of Early Editing Equipment and
180
Em 2005 os seis inventores do primeiro gravador de videotape comercial, Charles Anderson, Shelby
Henderson, Alex Maxey, Ray Dolby, Fred Pfost e Charles Ginsburg foram laureados com o primeiro prêmio
Lifetime Achievement Award da National Academy of Television Arts and Sciences. Disponível em
http://www.vtoldboys.com Acesso em 12/10/08.
181
Valter Bonasio é especialista em Broadcast, Comunicação e Arte Eletrônica. Atuou nas redes RECORD e
SBT. Consultor de produção de televisão e mídia eletrônica para universidades, produtoras e emissoras. Produtor
da primeira série documentária brasileira.
135
Techniques182 demonstram que em função das influências da cinescopia, os primeiros
processos de edição também envolveram cortes físicos das fitas plásticas (magnéticas). Com o
propósito de possibilitar a visualização do local exato onde a fita deveria ser cortada, a
empresa Smith desenvolveu o Smith Splicer, equipamento composto por uma guia para a fita
magnética, uma guilhotina de corte acionada por um botão e um microscópio.
Esse processo mostrou-se muito mais complicado do que o processo empregado no
cinema ou na cinescopia porque, no caso, havia uma dificuldade natural de sincronizar vídeo
e áudio nos mesmos espaços. Caso houvesse erros de corte a reprodução do vídeo ou do áudio
seriam prejudicadas. Nesse contexto, é importante esclarecer que com a revelação da fita
magnética, contrariamente ao que ocorre no cinema, o que se conseguia era ver as marcas
magnéticas feitas na fita e não as imagens:
Para fazer uma emenda perfeita, primeiro era preciso revelar a fita. Isso era feito de
modo que com a ajuda de um microscópio a pessoa poderia ver onde fazer o corte. O
‘revelador’ é uma solução que contém partículas metálicas finas que são atraídas pelas
áreas magnetizadas do videotape. Você então usava as lâminas da guilhotina para
cortar a fita. Finalmente a emenda era completada com o uso de uma fita de emenda
de vídeo da 3M para juntar as duas pontas183.
Da citação apresentada podemos concluir a extrema dificuldade na adaptação das
técnicas de corte que eram empregadas no cinema para a edição do audiovisual, afinal, como
afirma Bonasio (2002 p.207):
As diferenças básicas entre o vídeo e o filme estão na captação eletrônica e na fluidez
constante das imagens Em vídeo a imagem se baseia no constante movimento de
pistolas elétricas construindo linhas, frames e imagens que nunca são concluídas, já
que a imagem em vídeo é formada por pontos aquecidos pelas pistolas elétricas para
proporcionar o brilho da imagem. O vídeo confirma a teoria do filósofo francês
Bérgson de que o movimento de um objeto é indivisível e que este objeto
simplesmente vai de um ponto inicial continuamente para o final, num processo
dinâmico numa fluidez contínua de eventos.
Para resolver a dificuldade das emendas a Ampex lançou o que chamou de Electronic
182
Museu Virtual: Museu de Técnicas e
http://www.sssm.com.html. Acesso em 12/11/08.
183
Equipamentos
Disponível em http://www.sssm.com.html. Acesso em 02/10/08.
de
Edição
Antigos.
Disponível
em
136
Editor, em 1963. Com o Electronic Editor era possível emendar sem cortar fisicamente as
fitas e as edições eletrônicas podiam ser repetidas e a reprodução era tão suave quanto a
reprodução da fita original. Havia, porém, um pequeno problema de ordem operacional com
Electronic Editor, cuja descrição apresentada a seguir justifica o apelido ‘aperte e reze’ dado a
esta tecnologia. Ele permitia fazer emendas eletronicamente, mas “[...] o operador tinha que
pressionar o botão Record exatamente ½ – segundo antes que a edição tivesse que ocorrer.
Um pequeno erro e a edição ocorria no ponto errado e, pior, não havia realmente um modo de
corrigir o erro184”.
Uma solução veio a seguir com o lançamento do painel de controle Editec MK pela
Ampex, quando, pela primeira vez, através da operação do painel, foi possível editar quadro a
quadro (frame) de um filme; fazer pré-visualização das entradas e do resultado previsto para a
edição; acompanhar visualmente a edição; e, até mesmo, acionar equipamentos externos,
como, por exemplo, iniciar a operação de um reprodutor de áudio, para incluir o som na
edição.
Mas ainda não foi desta vez que a solução de edição foi completa. Utilizar o Editec
MK em edições complexas dava muito trabalho, era difícil operar os controles com tantos
botões e chaves e faltava uma tecnologia que possibilitasse a precisão na definição dos pontos
de corte. Faltava o time-code, uma forma para identificar, de modo único, cada frame presente
no material da edição e cuja importância pode ser constatada a seguir. O time-code:
[...] é um código de oito-dígitos que permite que você especifique com precisão os
pontos de edição de vídeo e áudio. Um ponto designado de time-code (conjunto de
números) não pode variar de uma sessão de edição para outra ou de uma máquina para
outra. Instruções de edição tais como, ‘corte a cena onde uma pessoa sorri para a
câmera’ deixam muito espaço para a interpretação – especialmente se tal pessoa tende
a sorrir muito. Mas mesmo que a fita seja de quatro horas de duração, por exemplo,
‘00:01:16:12’ se refere a um ponto muito preciso dentro da duração total da fita. [...]
Por ser um número de oito dígitos, o time-code pode parecer complicado. Mas, o seu
significado é bastante simples. Por exemplo, 02:54:48:17, significa: 2 horas, 54
minutos, 48 segundos e 17 quadros (RON WHITTAKER)185.
184
Museu Virtual: Museu de Técnicas e Equipamentos de Edição Antigos.
http://www.sssm.com/editing/museum/ampex/ampex.html Acesso em 15/04/08.
185
Disponível
em:
Whittaker atua como escritor de importantes revistas norte-americanas. Sua experiência profissional inclui
trabalhos como colunista em jornais e revistas - escreveu vários livros e artigos - fotógrafo, produtor e diretor de
televisão e locutor de rádio. É professor de radiodifusão em universidades americanas do sul da Califórnia.
Citação extraída do curso Television Production do CyberCollege. http://www.cybercollege.com/tvp057.htm.
Acesso em 12/11/09.
137
O time-code tornou-se um recurso essencial para referenciar, sincronizar e identificar
pontos de edição e é amplamente utilizado para marcar filmes de cinema, vídeo, áudio e para
sincronizar música. O uso do time-code possibilitou o corte perfeito de cenas e o seu código é
gravado juntamente com os demais conteúdos do videotape. Porém, um novo problema
surgiu, cada fabricante de VTR pôde inovar criando sistemas de códigos diferentes e, desse
modo, inviabilizar a transferência de videotape de uma tecnologia para outra. Para evitar esse
tipo de incompatibilidade foi necessária a criação de um time-code padrão, tarefa realizada
pela Society of Motion Picture and Television Engineers186 ou SMPTE que definiu um
conjunto de padrões para etiquetar cada frame individual de vídeo ou filme. Time-codes que
aderem a esses padrões recebem o nome de SMPTE/EBU time-code.
O crítico americano de televisão, cinema e cultura John Leonard, que iniciou seu
trabalho na indústria de televisão em 1963 na rede Australiana GVT de televisão canal 9, em
Melbourne, registra assim suas lembranças acerca início do uso de time-code em
equipamentos EECO187 nas edições dos programas dessa rede Australiana:
O uso mais antigo para televisão foi pela EECO, em 1966 nos EUA, utilizando um
formato de dados modificado de um código científico anterior. O primeiro sistema de
edição com time-code que eu usei foi fabricado pela EECO. Nessa época esses
sistemas de time-code tornaram-se tão onipresentes que muitas vezes o time-code era
chamado EECO-code, do mesmo modo que outra geração se referiu a aspirina como
Aspro. Entretanto, nem o EECO 900 nem o RS-400 eram sistemas de edição
computadorizados, como conhecemos hoje. Eram sistemas digitais dedicados e
construídos com componentes discretos – não havia chip de CPU à vista. Na mesma
época em que passamos a utilizar EECO a filial da Melbourne of Videotape Corp e o
Channel O (canal zero, mais tarde canal 10) também compraram o sistema.
Compreendo que EECO teve penetração similar em toda a Austrália [...] e a produção
para televisão a cores estava começando.
De fato, um dos primeiros sistemas para edição de vídeo digital somente foi
introduzido no mercado em 1971 pela CMX Editing Systems, fundada em conjunto pelas
186
Associação internacional de profissionais de engenharia que trabalham na indústria de filmes e televisão
(motion pictures) sediada nos Estados Unidos da América.
187
O editor EECO – 900 foi desenvolvido pela empresa americana Electronic Engineering Company of
Califonia. Disponível em: http://www.screeneditors.com/forums/archive/index.php/t-21.html: Acesso em
02/02/07.
138
empresas CBS – Columbia Broadcast System e pela Memorex empresa da Imation
Corporation dos Estados Unidos da América. A criação dos sistemas CMX Editing Systems só
foi possível depois da invenção dos minicomputadores e do armazenamento de vídeo e áudio
digitalizados em sistemas de discos magnéticos dos computadores ou Disc pack188.
A CMX – acrônimo de CBS, Memorex, e eXperimental – integrou computadores
digitais e editores analógicos de videotape e construiu os primeiros sistemas digitais de edição
de vídeo. Os sistemas CMX foram desenhados para possibilitar tanto edição on-line, em
tempo real, quanto off-line, em fase de pós-produção a partir de conteúdos de vídeo e áudio
gravados em videotape.
O sistema CMX 300189, um dos primeiros baseados em computadores para edição
linear, permitia ao usuário controlar até 4 VTRs – Vídeo Tape Recorders para edição offline190 ou 4 entradas de sinal de vídeo para edição on-line191, além de áudio e vídeo switch192.
Possibilitava também a criação de listas de decisões de edição (EDL) e sua perfuração em fita
de papel, e foi o primeiro editor a usar time-code para quadros Coloridos. Conforme explica
Bonasio (idem p. 283).
Quando você está trabalhando em edição linear e quiser encurtar ou alongar um
segmento em um programa já finalizado, você tem de mudar todos os pontos de
edição que vem em seguida na fita master. Para retirar ou somar um take ou seqüência
em uma fita já editada o editor de vídeo tem algumas alternativas para executar esse
processo. A primeira tentativa é copiá-la para uma segunda master de edição usando a
primeira como a fita fonte, mas reeditando apenas o que for necessário. É uma solução
188
Disc pack, pacote de discos ou conjunto integrado de discos, são dispositivos físicos para embalagem de
diversos pratos de discos magnéticos que se comportam como unidade única.
189
Museu Virtual: Museu de Técnicas e Equipamentos de Edição
http://www.sssm.com/editing/museum/ampex/ampex.html. Acesso em 15/04/08.
Antigos
Disponível
em:
190
É útil em produções externas. As decisões de edição podem ser feitas pelo repórter/produtor usando apenas
uma máquina para marcar os pontos de edição numa lista. Esse procedimento vai economizar seu tempo na sala
(“ilha”) de edição. [...] o método de edição off-line oferece uma alternativa para diretores e editores refletirem
nas suas edições, já que a pressão é muito menor [...] a lista de decisões é usada mais tarde, como referência para
dirigir a edição final. (BONASIO, idem p. 283).
191
On-line - Em português em linha diz-se dos dispositivos periféricos que estão sob controle direto de uma
unidade central de processamento em comunicação com ela. Oposto a off-line. [...] estado em que se encontra o
equipamento ou terminal quando efetua transmissão ou recepção de uma mensagem que é produzida naquele
momento e não registrada previamente em fita ou qualquer outro suporte, para posterior transmissão. Usa-se
também sem o hífen: online. (RABAÇA e BARBOSA 2002 p. 525).
192
Dispositivo da mesa de controle, que permite selecionar um sinal de vídeo ou de som desejado dentre os
sinais captados pelas diferentes câmeras, além de mesclar diferentes sinais (com efeitos de corte, fusão, cortina,
split-screen etc.) e ligá-los ao circuito de transmissão. Diz-se também Corte. (RABAÇA e BARBOSA 2002, p.
01).
139
rápida, porém a qualidade técnica é afetada com uma geração a mais e, dependendo
dos equipamentos utilizados poderá comprometer a qualidade do trabalho. A outra
alternativa seria editar um time-code em um sistema computadorizado. Ele possui um
recurso chamado rippling, que permite reprogramar um ponto de edição na fita master
fazendo com que o controlador do computador automaticamente mude todos os pontos
de edição seguintes no momento exato de frames. Esse método não perde uma
geração, mas ainda é um processo linear, ou seja, o programa tem de ser editado e leva
tempo.
Um segundo sistema, o CMX 600193, de fato o primeiro sistema de edição não-linear,
possibilitava a digitalização de conteúdo audiovisual em baixa resolução (preto e branco) ao
utilizar
minicomputadores
e
sistemas
disc-pack
para
armazenamento
do
vídeo.
Contrariamente à edição analógica linear com videotape, também conhecida como A/B roll
que exige a leitura seqüencial do vídeo gravado nas fitas magnéticas de entrada, o disk pack
permitiu que trechos de áudio e vídeo fossem recuperados randomicamente dos discos, ou
seja, segmentos de frames podiam ser transportados dos discos para a time-line194 dos
computadores de modo imediato e independentemente de sua posição no fluxo (stream) do
audiovisual. Em outras palavras, o computador e o software dos CMXs utilizavam o time-code
para acesso direto aos pontos de início e de fim do trecho do vídeo desejado.
Uma vez digitalizados os conteúdos do videotape, o sistema CMX600 possibilitava o
corte de clips195, arranjo dos clips em trilhas de time-line, inclusão de efeitos etc. Após a
conclusão da edição as escolhas do editor eram gravadas em listas das decisões de edição –
edit decision list – EDL. Uma vez gerada, a EDL era introduzida em um terceiro sistema –
CMX200196 – que, com base nas decisões registradas, montava automaticamente a versão final
do audiovisual controlando fisicamente diversos VTR – Vídeo Tape Recorders – onde estavam
os videotape com os conteúdos originais (master), de modo a garantir alta qualidade no
resultado final.
Essa forma de edição não-linear, a partir de cópias digitais de baixa resolução, com a
possibilidade da criação de EDL para posterior edição linear (A/B roll), em um segundo
193
O CMX 600 utilizava um minicomputador com sistema operacional UNIX, modelo PDP-11, fabricado pela
Digital Corporation. Disponível em: http://www.sssm.com/editing/museum/ampex/ampex.html. Acesso em
15/04/08.
194
Trilhas lógicas com marcação dos tempos normalmente em horas, minutos, segundos e frames, sobre as quais
são colocados os clips, de modo a demonstrar o tempo exato gasto pelo clip.A/B roll.
195
Pequenos trechos de um filme editado.
196
O CMX 200 utilizava um terminal de teletipo modelo ASR-33 para introduzir as EDLs geradas no CMX600.
140
momento e sem intervenção humana, não somente possibilitou enormes ganhos de
produtividade como também resolveu o problema de qualidade típico da edição linear que a
cada nova geração de saída perdia qualidade de imagem, conforme nos relata Peter Sharp, em
seu artigo Da lâmina de barbear ao desktop - Uma história de edição de vídeo (2007)197:
Com o advento das ilhas de edição controladas por computador o processo tornou-se
menos antiquado – e muito menos arriscado. As máquinas podiam orquestrar edições
baseadas em Listas de Decisões de Edição (EDL), com editor programado, usando
pontos de entrada e saída. Tomando esses pontos, o controlador pode movimentar a
fita para frente (rollon) ou para traz (rollback) até encontrar o ponto certo ler ou gravar
um sinal na fita master. Esse processo é obtido pelo uso do time-code que é gravado
em uma trilha de áudio ou misturado dentro das trilhas de vídeo. Sony e Ampex
fabricaram essas ilhas, como também a CMX, e a amplitude de seu uso foi
responsável pelo vídeo musical dos anos 1980.
Entretanto, mesmo estando os sistemas CMX à frente das tecnologias de edição
disponíveis na década de 1970 o custo dos produtos eletrônicos (minicomputadores) e
magnéticos (disc pack) utilizados para a construção do sistema CMX 600 ainda eram muito
elevados, e isto impossibilitava a venda destes equipamentos por valores inferiores a US$
250.000,00. A viabilidade econômica para utilização de computadores e softwares de edição
de audiovisual somente foi resolvida depois da miniaturização do hardware eletrônico, do
desenvolvimento da indústria dos microprocessadores, da consolidação da indústria de
software para a microinformática e da generalização do uso dos microcomputadores,
potencializada pela computação gráfica e pelo desenvolvimento e popularização das GUI –
Graphic User Interface. Por outro lado, os processos de gravação de áudio e vídeo
continuaram sendo feitos em fita magnética, embora os carretéis de fita magnética e as
próprias fitas magnéticas também tenham diminuído de tamanho e sido encapsuladas em
cassetes.
O primeiro Vídeo Cassete Recorder – VCR a chegar ao mercado foi o U-matic
lançado pela Sony em 1971 e tornou-se um padrão de mercado para gravação e edição de
vídeo em ilhas analógicas lineares, também denominadas U-matic. Com o aumento da
capacidade de processamento dos microcomputadores e a construção de hardware
197
Peter Sharp é um artista contemporâneo australiano que trabalha com uma variedade de mídias. Nascido em
Sydney, é bacharel em Educação Artística pelo City Art Institute de Sydney, com mestrado em Belas Artes pela
Universidade de Nova Gales do Sul. Disponível em http://www.netribution.co.uk/content/view/590/304/ ou em
http://www.netribution.co.uk/content/view/1236/277/ .
141
especializado na conversão de sinais analógicos para digitais, acopláveis as interfaces dos
microcomputadores, a partir da década de 80, tornou-se possível ligar VCRs diretamente nas
interfaces dos microcomputadores e se utilizar softwares criados para controlar esses
equipamentos em edição linear, não-linear e switching. Dessa forma surgiram os sistemas
híbridos de edição digital. Bonasio (2002 p. 283) explica que:
A vantagem real do sistema computadorizado é sua habilidade de trabalhar off-line e,
ao mesmo tempo, permitir montar um material master da mesma forma que na fita de
trabalho. Esse sistema usa o time-code SMPTE - para produzir uma lista de decisões
detalhadas de edição eletrônica (EDL). À medida que você vai fazendo suas edições, o
computador guarda as informações em sua memória e usa a EDL finalizada como uma
guia para a montagem automática final da fita máster de edição. A edição
computadorizada combina as capacidades do computador com os equipamentos
convencionais de produção de televisão. O computador controla os diversos VTs e os
faz interagir com equipamentos auxiliares de produção, como switchers de produção e
geradores de efeitos especiais [...] o sistema computadorizado pode ser usado tanto em
linha (on-line) como fora de linha (off-line). [...] a comparação que se pode fazer para
representar os avanços da edição não linear para edição de videoteipe é como uma
máquina de escrever comum e um programa processador de texto. A edição não linear
dá aos editores mais liberdade para manipulação das imagens, textos, gráficos, cortar e
colar, fazer inserções em cadeia [...] ela pode incorporar transições de vídeo e efeitos
especiais que antes estavam disponíveis apenas em equipamentos de última geração,
misturando vários formatos, tais como NTSC e PAL. Não existe perda de qualidade
em gerações múltiplas e ela é muito menos cara que os sistemas de edição em linha. O
PC é capaz de funcionar como um switchers de vídeo, gerador de efeitos especiais e
controlador de edição tudo combinado em uma unidade.
A excepcional redução de custo das tecnologias de edição de vídeo linear e nãolinear, baseadas em microcomputadores e software especializado, possibilitou que estas
atividades extrapolassem o âmbito e a aplicação nas redes de televisão centrais e se
popularizassem em atividades e empresas com orçamentos significativamente menores,
mantendo no mercado a qualidade broadcast praticada, até em tão, exclusivamente pelas
emissoras de televisão e grandes produtoras de vídeo. Principalmente a partir da década de 90
tornaram-se centrais as empresas fornecedoras de softwares de edição como Avid Liquid,
FAST Vídeo Machine, Apple Final Cut, Adobe Premiere, entre outras menos conhecidas por
desenvolverem tecnologias de software livre.
Por fim, a acelerada evolução da indústria do audiovisual no final do século XX pode
ser, em parte, considerada como resultado do progresso das tecnologias digitais, notadamente
142
das tecnologias de software. Para Squirra198 (2000, p.1) “É reconhecido que a comunicação
audiovisual compõe parte importante da cultura dos nossos tempos. [...] A comunicação com
imagens em movimento é a base da estrutura e das formas de expressão mais abrangentes
existentes nos dias atuais.” Neste contexto, continua este pesquisador:
Sonhamos com imagens. Nossa mente sistematiza histórias com imagens. Envolvemonos nas situações oníricas, ora sendo personagens, ora testemunhas destes. Assim, um
filme (que nada mais é que uma sucessão de imagens) se desenrola em nossa mente
quase todas as noites (ibidem).
Neste início do século XXI é fato que a revolução informática impulsionou de forma
acelerada a digitalização de imagens em movimento, e este processo é realizado a partir do
emprego de softwares cada vez mais especializados.
A seguir apresentamos os resultados da análise comparativa entre os softwares
proprietários e livres utilizados em atividades de produção de audiovisual pela UMESP e pela
ESEEI de Curitiba. Produção que envolve a criação de conteúdos que podem ser vistos e
ouvidos ao mesmo tempo, ou seja, compostos por elementos visuais – imagens, desenhos,
gráficos etc – e sonoros – voz, música, ruído, etc. Para descrever tais resultados elaboramos
algumas tabelas que explicam as variáveis funcionais dos softwares de processamento de
audiovisual.
A primeira variável – denominada Dados Gerais – descreve as características gerais
dos softwares e pode ser útil para orientar a escolha de produtores iniciantes. Normalmente,
tais informações também são apresentadas nos websites das comunidades de desenvolvedores
e dos seus fabricantes, distribuidores ou nas próprias embalagens desses produtos.
A segunda variável – Plataformas de Operação – indica as plataformas de sistemas
operacionais nas quais os softwares podem ser operados.
A terceira variável – Formatos de Alta Definição para Importação de Vídeo – diz
respeito aos formatos de arquivos a partir dos quais os softwares são capazes de importar
(digitalizar) os conteúdos.
A quarta variável se refere aos – Formatos de Arquivos de Trabalho e Saída – se refere
198
Artigo intitulado Leitura de imagens. Capítulo do livro Sociedade midiática – Significação, mediações e
exclusão, organizado por Dirceu Lopes e Eugênio Trivinho, Editora Universitária Leopoldianum, Santos, 2000,
v.1, p.105-127.
www.metodista.br/poscom/cientifico/publicacoes/ultimas-publicacoes/atct_topic_view?b_start:int=30.
143
aos formatos de arquivos nos quais os softwares podem gravar os resultados dos seus
trabalhos..
Tabela 1. Categoria 1. Dados Gerais
FABRICANTE
ANO E
OU
MODALIDADE
VERSÃO
DESENVOLANALISADA
VEDOR
SOFTWARE
TIPO DE
LICENÇA
Final Cut Pro
Proprietário
Apple
Apple.com/br/fin
alcutstudio/
finalcutpro
Sony Vegas
Proprietário
Sonic Foundry/ Edição de vídeo e
Sony
áudio
sonycreativesoft
(NLE202 e
realtime) Editor
ware.com/
products/vegasfa de efeitos visuais
mily
After Effects
Proprietário
Adobe
adobe.com/br/pr
oducts/aftereffec
ts
Cinelerra
Livre
Jahshaka
Livre
CUSTO199
6
(2007)
R$ 2.663,24200
ou
R$ 3.699,00201
8.0c
(2007)
U$ 549,95
Editor de efeitos
visuais 2D – 3D.
C 5.4 (9.0)
(2008)
R$ 1.620,00
Heroine Virtual
heroinewarrior.c
om/cinelerra
Editor de vídeo.
Pós-produção e
finalização de
vídeo.
4.0
(2008)
Livre
The Jahshaka
Project
jahshaka.org
Editor de efeitos
visuais 2D - 3D
(NLE e realtime).
2.0 RC3 para
Linux203
(2006)
Livre
Edição e
Montagem de
Vídeo
A tabela 1 nos mostra a existência de softwares livres suficientes para desenvolver
atividades de aprendizado voltadas à produção de audiovisuais pelas escolas de comunicação.
Com estes softwares é possível editar vídeos de modo não linear (NLE - non-linear editing)
ou em tempo real; incluir efeitos visuais 2D e 3D; realizar tratamento de fotografia e cor; e
199
Os valores apresentados na coluna Custo (em dólar – US$ ou real U$) foram, no período de realização desta
pesquisa, divulgados nos websites de cada fabricante e distribuidor. Também podiam ser consultados nas lojas e
nos websites dos estabelecimentos que comercializam os produtos na cidade Curitiba, a exemplo da FNAC, pois
os valores praticados por esta loja na capital paranaense são os mesmos praticados em outros pontos do Brasil.
200
O referido preço inclui também o Software Color.
201
Valor praticado pela FNAC Curitiba.
202
Non linear editing – Edição não linear.
203
2.0 para Mac.
144
integrar áudio e vídeo.
Pelo fato de os softwares livres serem desenvolvidos por comunidades e não
necessariamente por indústrias tradicionais de softwares, possíveis usuários têm preocupações
com relação a prestação de serviços de suporte, para realização de acertos em bugs (erros em
programas), bem como sobre a atualização dos softwares para implementação de novas
funcionalidades, adaptação a novas tecnologias de hardware, equipamentos eletrônicos e
tecnologias de interface. Na tabela 1 podemos constatar que novas versões (releases) são
feitas em prazos relativamente curtos pelas comunidades de desenvolvedores, conforme
também pode ser constatado nos sites oficiais dessas comunidades – citados na coluna
fabricantes ou desenvolvedores da referida tabela. Portanto, como pode ser constatado na
coluna ano e versão, todos os softwares livres citados têm versões atualizadas e disponíveis
para produção de audiovisuais.
Quanto à questão relacionada ao pagamento de licenças, também podemos constatar
que por serem distribuídos com licença GPL estes softwares livres podem ser obtidos
diretamente da Internet através de download sem nenhum custo. Entendemos ser interessante
ressaltar que, muitas vezes, mesmo depois do pagamento da licença para aquisição os
usuários de softwares proprietários são chamados a pagar pelas atualizações dos softwares que
utilizam, para se beneficiar de sua evolução. Conforme pode ser verificado nos sites dos
fabricantes ou fornecedores.
Por fim, as informações da tabela 1 podem ajudar os usuários interessados a escolher
softwares adequados para produção de produtos audiovisuais. Outras informações sobre estes
softwares podem ser encontradas nos websites das comunidades de desenvolvedores. No caso
dos softwares proprietários nos website dos fabricantes, nas próprias embalagens desses
produtos ou junto às pessoas que comercializam tais softwares.
145
Tabela 2. Categoria 1. Plataformas de Operação
SOFTWARE
WINDOWS
MAC OS X204
UNIX205
Final Cut Studio
Não
Sim
Não
Sony Vegas
Sim
Não
Não
After Effects
Sim
Sim
Não
Cinelerra
Não
Sim
Sim
Jahshaka
Sim
Sim
Sim
Na tabela 2 temos o sistema operacional Windows típico da plataforma PC; o sistema
Mac OS X da plataforma de Workstations Macintosh, cuja capacidade de processamento vai
um pouco além da dos PCs; e o sistema operacional Linux que opera em múltiplas
plataformas, desde o PC e MAC até computadores de grande porte (mainframes).
Conforme informam os dados da referida tabela todos os softwares proprietários
trabalham quase que exclusivamente em uma outra plataforma de sistema operacional, com
exceção do ambiente Unix/Linux. O software livre Cinelerra é o único que opera somente em
duas plataformas, Mac OS X e Unix, enquanto o Jahshaka é portável para qualquer das três
plataformas.
O After Effects é o único software proprietário que opera em duas plataformas,
Windows e Mac OS X, porém não opera em Unix. Os dados acima nos permitem concluir,
portanto, que não existe nenhuma desvantagem para uso dos softwares livres em relação aos
proprietários nessa variável – Plataformas de Operação. Ao contrário, mostra as
possibilidades de portabilidade e escalabilidade dos softwares livres para edição de
audiovisual.
204
Unix inclui sistemas operacionais Unix-like, tais como LINUX, AIX - IBM, HP-UX. O Mac OS X é uma
versão do BSD UNIX desenvolvido na Universidade da Califórnia em Santa Barbara.
205
Unix – é nome da plataforma de sistema operacional a qual pertencem sistemas operacionais como Linux,
BSD, Irix (Silicon Graphis) entre outros.
146
Tabela 3. Categoria 1. Formatos de Alta Definição para Importação de Vídeo
SOFTWARE
DV
Standard
HDV
720p 1080i
DVC
PRO
IMX AVC XD
HD CAM
AVCI RAW DNx
HD HD
REDCODE
Final Cut Pro
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
?
Sim
Sim
Sony Vegas
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
?
After Effects
Sim
Sim
Sim
?
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Cinelerra
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Sim
Jahshaka
Sim
Sim
Sim
?
Sim
Sim
?
Sim
Sim
Sim
Sim
Os formatos de arquivo para importação e exportação de vídeo podem ser utilizados
para representar elementos individuais (arquivos) de áudio, de vídeo, containers ou
wrapper206. Os containers são formatos especiais de arquivos que permitem combinar em um
mesmo arquivo elementos de áudio e vídeo, ou seja, num mesmo arquivo container podem
ser gravados um arquivo no formato de áudio e outro no formato de vídeo. Isto facilita o
armazenamento e o transporte simultâneo dos dois elementos.
Quando os elementos são armazenados em computadores, os segmentos de um
vídeo, bem como, as informações (metadados) acerca dos segmentos também são
armazenados. Ao transferir os arquivos de áudio/vídeo para outros sistemas os metadados
também precisam ser transferidos. O wrapper é um tipo especial de container usado em vídeo
profissional para combinar os elementos – os arquivos de áudio e de vídeo – e os metadados.
Diferenciar elementos (arquivos de áudio ou de vídeo) e containers pode ser uma
tarefa complexa porque um mesmo nome de arquivo pode ser compartilhado por diferentes
elementos e containers. Por exemplo, MPEG-2 é um codec para vídeo digital, mas, também, é
um container quando um arquivo de áudio está combinado nele.
Quando os arquivos são combinados dentro de um wrapper somente através da
informação contida no metadado saberemos se trata-se de um elemento de vídeo, por
exemplo, MPEG-2 separado de um elemento de áudio AIFF ou de um container MPEG-2
com os elementos de áudio e vídeos combinados, porque nos dois casos o arquivo terá a
mesma extensão do wrapper.
Outra questão importante está relacionada ao fato de as captações de vídeo e áudio
206
Disponível em: http://broadcastengineering.com/hdtv/digital_file_formats_0203/. Acesso em 13/02/09.
147
passarem a ser feitas por filmadoras que armazenam o stream (fluxo da informação dos
elementos de áudio e vídeo) em formato digital Nesse processo, utilizam codecs e
compressores identificados nos wrappers. Por este motivo os softwares precisam dispor de
recursos capazes não somente para processar elementos de áudio e vídeo, mas, também, os
metadados existentes em containers.
A tabela 3 apresenta os principais formatos digitais em uso na atualidade, mas sem
preocupação excessiva por identificá-los como elementos de containers ou wrappers.
Alguns formatos, sinalizados com um ponto de interrogação (?), ainda não podem ser
considerados adequados para executar tal atividade, pois não encontramos pesquisas que nos
permitam considerá-los confiáveis e assim recomendá-los.
A seguir, com o objetivo de facilitar a compreensão do leitor, apresentamos o
significado de tais formatos, considerados suficientes para a realização dos processos de
edição. O primeiro formato – DV Standard – se refere a fluxos (stream) de áudio e vídeos
digitais (DV) captados diretamente de equipamentos de filmagem (em tempo real) ou de
VCRs (video cassete records), através de algum tipo de interface tal como iLink (fireware),
podem ser armazenados diretamente em arquivos de computador. Caso não utilizem codecs
de compressão são armazenados em estado bruto (raw, uncompressed) em arquivos com
formatos .dv ou .dif, na medida em que os dados são recebidos. O conteúdo DV também pode
ser gravado em arquivo container207 AVI – Audio Video Interleave. Outros containers podem
ser utilizados para armazenar o formato DV, os mais conhecidos são os containers QuickTime
player da Apple e o VLC media player208. Em todos os casos os metadados do DV são
preservados.
O formato HDV – High Definition Vídeo – foi desenvolvido pelas empresas JVC e
Sony para oferecer uma linha de evolução (upgrade) para gravação em alta definição com
custos compatíveis aos do DV Standard. Em setembro de 2003 as duas empresas se juntaram
às empresas Canon e Sharp e formaram o Consórcio HDV. As duas principais versões de
HDV são HDV720p (para reprodução em dispositivos de plasma) e HDV1080i (para
reprodução em dispositivos LCD). Utiliza compressores MPGE-2 para vídeo e MPGE-1
áudio layer II, PCM para áudio. Normalmente utiliza a extensão .m2t.
207
O container AVI permite o uso de vários codecs em sua extensão .AVI. Os codecs mais conhecidos são DivX,
XviD, 3ivx, AC3 e OGG.
208
O VLC media player é um reprodutor (player) e servidor de streaming multiplataforma que suporta vários
formatos de áudio e vídeo, dentre os quais MPEG-1, MPEG-2, MPEG-4, DivX, mp3, ogg, DVDs, VCDs e
diversos protocolos de streaming (fluxo de sinal de áudio ou vídeo).
148
Os formatos DVCAM da Sony e DVCPRO da Panasonic são variantes do padrão DV
standard e voltados para uso profissional de suas filmadoras e VCRs.
IMX é uma evolução do formato Digital Betacam, desenvolvido pela Sony em 2001.
Usa o sistema de compressão MPEG-2, porém em bitrate (velocidade) superior ao do
Betacam SX. Possibilitam a gravação de sinal de vídeo, oito canais de áudio e trilha de timecode. Os Video Tape Records – VTRs IMX da Sony permitem utilizar interfaces de
comunicação SDTI - Serial Data Transport Interface para importação de segmentos de
elementos de áudio e vídeo e metadados de time-code e controle remoto dos VTRs.
A especificação AVC HD – Advanced Vídeo Codec High Definition – é uma
definição de formato de arquivo para filmadoras de mão sem fita. Permite gravação em
definições standard e de alta definição (HD), inclusive 720p, 1080i e 1080p. Utiliza codec
MPGE-4 AVC/H264.
O formato Sony XDCAM permite gravação de arquivos MPEG IMX, DVCAM e
stream com baixa resolução em empacotadores MXF – Material eXchange Format, um
formato aberto de arquivo projetado para intercâmbio de áudio e vídeo associado aos dados e
metadados que os definem – e gravados no disco Sony ProDATA – mídia ótica similar ao
disco ótico Blu-ray Disc.
O formato AVC-Intra (AVCI) foi introduzido pela Panasonic com um novo codec HD
(High definition) baseado no esquema de compressão MPEG-4 AVC/H.264 que busca
eficiência três vezes superior ao MPEG-2.
Isto posto, pode-se perceber que tanto os softwares proprietários de edição de vídeo
como os softwares livres são capazes de importar conteúdos de equipamentos profissionais
(filmadoras, VTRs e VCRs) compostos por elementos e metadados. O formato RAWHD é o
mesmo HDV, mas importado sem compressão (uncompressed).
O DNX HD é um codec desenvolvido pela Avid para compressão com perdas
(LOSSY) e que utiliza pouco espaço e banda para comunicação. É normalmente armazenado
no container MXF, mas também pode ser armazenado nos containers quicktime da Apple ou
no container AVI da Microsoft. Também é suportado pelo Projeto Open Source FFMPGE
utilizado pelos editores de software livre. Trata-se de um codec em conformidade com o
padrão VC3 da SMPTE. A implantação do codec VC3 foi feita com apoio da BBC Research209
e concluída no ano de 2007.
209
BBC Research – website - www.bccresearch.com/
149
O codec redcode foi desenvolvido pelo fabricante de câmeras Red Digital Cinema
Camera Company.210 Este codec é capaz de tratar resoluções de até 4.096 pixels por 2.304
pixels e gravar diretamente em memória flash211 ou discos rígidos
Em resumo quanto aos recursos de edição, os softwares proprietários e livres se
assemelham bastante. Possibilitam a edição não destrutiva, playback, em tela cheia e
permitem a colocação de elementos de áudio e vídeo em múltiplas trilhas. Possuem mostrador
de time-code extensivo a vídeo e áudio.
Tabela 4. Categoria 1. Formatos de Arquivos de Trabalho e Saída
SOFTWARE
DVD
HDV
OPEN-EXR
QUICKTIME
WINDOWS
MEDIA
MPEG4
Final-Cut Pro
Sim
Sim
Não
Sim
Sim
Sim
Sony Vegas
Sim
Sim
(Blu-ray)
Não
Sim
Sim
Sim
After Effects
Sim
Sim
Sim
Sim
Sim
Sim
Cinelerra
Sim
Sim
Sim
Sim
Sim
Sim
Jahshaka
Sim
Sim
Sim
Sim
Sim
Sim
Os formatos de arquivo de trabalho e saída de vídeo também podem ser utilizados
para representar elementos de áudio e vídeo, containers ou wrappers. Os dados da tabela 4
nos mostram que tanto os softwares proprietários e livres são capazes de trabalhar com quase
todos os formatos comparados. Uma exceção é que os editores Final-Cut Pro e Sony Vegas
não trabalham com o formato Open EXR, apesar de sua importância para o vídeo e o cinema.
O Open EXR é um formato de arquivo para imagens dinâmicas criado pela Indústria
Light and Magic (ILM) empresa da Lucasfilm (George Lucas) que foi liberado como um
padrão aberto, juntamente com um conjunto de ferramentas de softwares criado pela mesma
entidade e distribuído com licença de free software, similar a BSD212. Suporta compressão
210
Red Digital Cinema Camera Company. Disponível em: www.red.com.
211
Memória flash – memória de computador não volátil que pode ser apagada e reprogramada eletronicamente.
212
A licença BSD é uma licença de código aberto utilizada nos sistemas operacionais do tipo Berkeley Software
Distribution, da Universidade de Berkeley na Califórnia.
150
com e sem perda de grandes volumes de dados. Introduz o conceito de formato multiresolução e canais arbitrários que eliminam a necessidade de separação das informações em
arquivos distintos. Esta tecnologia está portada para ambientes MAC OSX, Windows e Linux.
E pode ser portada para qualquer plataforma de sistema operacional que suporte a linguagem
de programação C++213. Os demais formatos foram desenvolvidos para atender a
necessidades específicas de tecnologias conforme dito a seguir.
DVD e HDV – os formatos de arquivo DVD – Digital Video Disc e HDV – High
Definition Disc estão na tabela para representar as possibilidades dos softwares acionarem
diretamente as unidades de gravação capazes de gravar esses dois tipos de formatos em
mídias que os suportam, hard disc, DVD, fita magnética etc.
O Quick-Time é uma especificação de formato de arquivo desenvolvida pela Apple.
Trata-se de um container multimídia, multitrilha para armazenamento de áudio, vídeo, efeitos
e textos, por exemplo, subtítulos. É identificado pela extensão .mov. Suporta inúmeros
formatos de arquivos e tem por base o padrão MPGE4 (.mp4).
Windows Media é uma especificação de formato de container, proprietário da
Microsoft, contém a especificação dos vídeos Windows Media Vídeo (wmv) e VC1 (nome
informal para o padrão de codec de vídeo SMPTE 421M, que se tornou um padrão para
HDDVD e discos BLURAY) e do Windows Mídia Áudio, tecnologia de compressão de áudio,
de propriedade da Microsoft.
O padrão MPEG4, definido pela ISO/IEC Moving Picture Expercts Group (MPGE),
especifica processos de compressão com e sem perda para vídeo, áudio e imagens.
É
utilizado em inúmeros formatos e especificações na indústria.
Para finalizar, podemos ver que produções desenvolvidas com softwares livres
podem ser gravadas em todos os formatos descritos e, desse modo, favorecer a transferência
de conteúdos entre eles.
213
C++ - em português se pronuncia "cê mais mais" ou /sê/ /máys/ /máys/. C++ é uma linguagem de
programação de alto nível, ou seja, código de máquina de compreensão próxima à linguagem humana.
151
4.2. COMPARAÇÃO ENTRE SOFTWARES DE PROCESSAMENTO DIGITAL DE
SOM
Uma pesquisa no Google, utilizando as palavras processamento, áudio, edição, som,
voz e digital, é suficiente para nos darmos conta das centenas de instrumentos, equipamentos,
sistemas computadorizados e softwares disponíveis para processamento de som. Isso nos leva
a perguntar qual será o motivo para tanta variedade de produtos, tantas diferenças de preços e
até mesmo como será possível compará-los. Será que existe uma forma ou um método para
classificá-los em função dos tipos de operações que realizam com o som, do modo como
executam tais operações ou da qualidade do trabalho realizado? Será que existe um modo de
classificação que dê conta de realizar tal tarefa? Com base em análise dos resultados da
pesquisa no Google, consideramos que é impossível classificar ou comparar softwares para
processamento de som sem uma melhor definição de conceitos importantes relacionados ao
assunto. Conceitos muitas vezes desconhecidos e aparentemente de difícil compreensão ou
complexos, mas necessários.
Neste capítulo apresentamos alguns conceitos importantes e que caracterizam os
softwares para processamento de áudio. Conscientes da grande variedade de tecnologias de
softwares disponíveis para executar operações de processamento de áudio cada vez mais
complexas e de qualidade, limitamos a análise comparativa aos softwares proprietários e
livres utilizados na UMESP e ESEEI.
Para conhecer e compreender conceitos relacionados com softwares para
processamento de áudio é necessário primeiro compreender alguns conceitos que dizem
respeito ao som. Recorremos a Robert Jourdain214 que no seu livro intitulado Música, Cérebro
e Êxtase: como a música captura nossa imaginação (1998, 25) explica o que é o som.
Pergunta: quantos bêbados são necessários para fazer um martíni? Resposta: um para
segurar a coqueteleira e não importa quantos outros para sacudi-lo. Eles fazem uma
fila por trás, cada qual agarrando rigidamente os ombros do próximo, com o bêbado na
frente segurando a coqueteleira com o martíni. Então, o bêbado que está atrás começa
214
O norte-americano Jourdain é pianista profissional e compositor que há 20 anos trabalha com inteligência
artificial. Dedica-se ao desenvolvimento de esquemas conceituais para representação do conhecimento. Criador
de software sintetizador de música, feito para representação gráfica e manipulação dos conceitos musicais. É
também autor de cinco livros sobre computação.
152
a trabalhar sacudindo o seu vizinho, cujos passivos banboleios são passados para o
próximo na fila; este, por sua vez, sacode o bêbado à sua frente, e assim por diante, até
que a coqueteleira com o martíni é agitada. Se estivesse ao lado, você veria os
empurrões e puxões ondulando ao longo da fila. É assim que música viaja para nossos
ouvidos, com o sujeito de trás no papel de objeto vibrador e a coqueteleira e o martíni
no papel do tímpano. Todos os bêbados que estão nas posições intermediárias são
moléculas, em geral de ar, agitando-se para frente e para trás, enquanto captam uma
pulsação de energia que vem pelo seu caminho e passam-na para outras moléculas
recomeçando o ciclo em seguida.
Portanto, o som é o resultado da agitação de moléculas produzidas por ruídos
naturais, instrumentos musicais e voz que provocam vibrações e atingem nossos tímpanos.
Mas como podem, por exemplo, todos os sons dos instrumentos de uma orquestra
movimentar-se simultaneamente através do ar? Indaga o pesquisador.
Imagine novamente a fileira de bêbados, mas, agora, com várias pessoas sacudindo o
infeliz sujeito que está na retaguarda. Uma delas o sacode duas vezes por segundo;
outra, três vezes; e ainda outra cinco. Seus movimentos se combinam de várias
maneiras. Em alguns momentos, todos empurram ou puxam ao mesmo tempo,
transmitindo um forte impulso à fila. Com mais frequência, algumas puxam e outras
empurram, de modo que seus esforços em parte se cancelam. Num dado instante, um
forte empurrão combinado com um fraco puxão resulta em apenas um empurrãozinho.
Um instante depois, empurram exatamente na mesma medida em que puxam e não há
movimento algum. Todas as sacudidas se somam formando um complexo modelo
temporal que se agita em direção à coqueteleira com o martíni [...] esse padrão de
empurrões e puxões é passado de uma molécula para outra até chegar aos tímpanos,
que esperam, fazendo com que vibrem da mesma maneira. Um trombone explode ao
lado da trombeta e o padrão composto por suas muitas vibrações é incorporado aos
movimentos da mesma molécula de ar que a trombeta excitou. Na verdade, cada
molécula de ar no salão de concertos soma as vibrações de todos os instrumentos,
numa dança frenética (JOURDAIN, 1998, p.25)
As explicações de Jourdain podem nos levar a concluir que ouvimos o barulho de
sons naturais tais como o da chuva, do trovão ou da voz de uma pessoa porque são vibrações
no ar. O mesmo fenômeno sonoro parece ocorrer quando ouvimos sons artificiais, como um
discurso ou uma música através de dispositivos como o auto-falante ou receptor de ondas de
rádio. Sons também podem ser gerados por instrumentos musicais de teclas, de cordas, de
sopro, de percussão etc.
153
No livro Multimídia: Conceitos e Aplicações (2000) Wilson de Pádua Paula Filho215
adianta que as vibrações sonoras geradoras do som podem ser representadas matematicamente
como ondas senoidais.
A onda senoidal é particularmente importante graças a um fato matemático
fundamental: em geral, formas complexas de vibração sonora podem ser sintetizadas
como combinação de ondas senoidais. [...] Uma onda senóide soa como uma nota
musical muito simples e de sonoridade pobre. Ela é, entretanto, um conceito básico
para a compreensão dos sons de voz, música e ruídos. Por isso, a decomposição de um
sinal em funções senoidais é um princípio fundamental para a análise de sons
complexos (PAULA FILHO idem p. 209-210).
Além das propriedades físicas que podem ser representadas matematicamente, o som
também possui propriedades perceptuais, determinadas pelas propriedades físicas das ondas
senoidais. Sobre esta questão, Paula Filho (2000 p. 210) esclarece que:
Os parâmetros perceptuais do som representam as propriedades sonoras, tal como
podem ser percebidas pelo sentido da audição. Na onda senoidal, já podemos observar
duas das propriedades perceptuais básicas do som: a intensidade e a altura. Elas
correspondem às propriedades físicas, embora não de forma direta ou proporcional. Os
parâmetros mais utilizados são os seguintes: Intensidade: qualidade que distingue sons
fortes (de grande volume) de sons fracos (de pequeno volume). Altura: qualidade que
distingue sons graves de agudos. Timbre: qualidade que distingue sons da mesma
intensidade e altura, quando emitidos por instrumentos musicais. A fase [...] é uma
propriedade física importante, mas normalmente não tem uma propriedade perceptual
associada. Incluem-se às vezes também, entre as propriedades perceptuais, aquelas
ligadas com a sensação de localização espacial do som.
Portanto, a partir da leitura da obra de Paula Filho entendemos que existe uma
ralação direta entre as propriedades físicas das ondas senoidais e as propriedades perceptuais
dos sons representados. Assim, a intensidade (propriedade física da onda senóide) representa a
215
Wilson de Padua Paula Filho possui graduação em Engenharia Mecânica pelo Instituto Tecnológico de
Aeronáutica (1968), mestrado em Engenharia Elétrica pela Universidade de São Paulo (1971) e doutorado em
Engenharia Elétrica pela Universidade de São Paulo (1975). Tem experiência na área de Ciência da Computação,
com ênfase em Metodologia e Técnicas da Computação.
154
percepção da amplitude da vibração sonora sentida como potência do sinal ou volume do som
que ouvimos, normalmente medido em decibéis (dB). Rabaça e Barbosa (2001, p. 210)
explicam:
[...] um decibel é uma unidade de medida relativa entre dois níveis de potência. Embora
possa ser empregado para medir qualquer forma de energia (como luz ou o calor) o decibel
(décima parte do bel) é usado com mais frequência para exprimir diferenças de níveis em
acústica e eletrônica. Para medir o som, costuma-se adotar como ponto de referência (pois o
decibel é apenas uma medida relativa) o limiar da audição, isto é, a mínima potência
acústica perceptível ao ouvido humano normal. O termo decibel é uma homenagem a
Alexander Graham Bell.
A frequência indica a quantidade de ocorrência de ondas em um determinado período
de tempo. É medida em hertz (Hz) ou ciclos por segundo e corresponde ao que percebemos
como altura ou pitch. Percebemos os sons de menor altura (menor freqüência) como mais
graves e os de maior altura (maior freqüência) como mais agudos. Conforme Rabaça e
Barbosa (2001, p. 210) hertz é uma unidade de medida de frequência equivalente a um ciclo
por segundo. Numa frequência de 80, por exemplo, a corrente oscila (muda de direção) 80
vezes por segundo.
A fase representa, de acordo com Paula Filho (idem, p. 211-214), a diferença (atraso)
em tempo do sinal senoidal de uma onda com relação ao tempo das outras ondas, que juntas
compõem o som complexo. O timbre (propriedade de percepção dependente de sinais mais
complexos) nos permite diferenciar notas de instrumentos diferentes a partir de aspectos
físicos de domínios de frequência216 e de tempo217. Assim, “[...] Cada combinação
suficientemente diferente de freqüências, amplitude e fases será percebida pelo ouvido como
um timbre diferente.”
Uma característica comum aos sons produzidos naturalmente ou artificialmente é que
são eventos cuja existência depende da manutenção de suas vibração no ar. Como esclarece
216
Domínio de frequência é a maneira como o sinal pode ser decomposto em sinais periódicos elementares.
217
Domínio de tempo é a forma como a amplitude do sinal varia com o tempo.
155
David M. Rubin218 no livro O Músico Desktop (1996, p. 17):
À medida que a onda de som se movimenta para longe da fonte (espalhando-se em
todas as direções), ela perde mais e mais energia, e as mudanças de pressão tornam-se
menores. Em outras palavras, o som fica cada vez mais fraco quanto mais ele se afasta
da fonte até eventualmente sumir por completo. Se não ocorrerem mudanças na
pressão do ar circundante, então percebemos a condição como silêncio.
O som pode adotar várias formas de representação, sinal acústico no ar, sinal elétrico
no auto-falante ou sinal digital em arquivo de computador, em função dos dispositivos
utilizados para representá-los. Os dispositivos de representação podem ser equipamentos ou
sistemas analógicos ou sistemas digitais, e a principal diferença entre eles é que, conforme
Paula Filho (idem p. 224):
Os dispositivos e sistemas analógicos representam o sinal sonoro, que é um sinal de
pressão mecânica, por um sinal magnético ou elétrico [...]. Amplificadores e
gravadores de fita cassete convencional são exemplos de dispositivos analógicos. São
exemplos de sistemas digitais de som: as redes telefônicas digitais; os equipamentos a
disco laser (CDs); os equipamentos de fita cassete digital (DATs); os computadores
dotados de interfaces de som.
As vibrações sonoras, ao exercerem pressão mecânica sobre o meio em que se
propagam formam ondas de frequência e amplitude variadas. O ouvido humano é capaz de
perceber somente uma pequena variação dessas ondas sonoras, e a essa variação audível219
pelo ouvido humano denominamos áudio. Neste estudo utilizamos os termos som e áudio
como sinônimos. Para converter sinal acústico do som – vibrações sonoras – em sinal elétrico
são utilizados transdutores de sinal. “Os transdutores de sinal elétrico para acústico são os
auto-falantes, e os transdutores de sinal acústico para sinal elétrico são os microfones”.
(PAULA FILHO, idem, p. 224).
218
Rubin é mestre em Teoria da Composição e Música e especialista em música digital. Tem seu próprio estúdio
de música MIDI onde, utilizando computador, compõe para filmes, vídeos e multimídia. É autor de The Audible
Macintosh e co-autor de The Audible PC.
219
A faixa normal de audição estende-se de 0 dB até além 120 dB – um nível normalmente chamado linear da
dor. (Rabaça e Barbosa 2001 p. 210).
156
A conversão do sinal analógico, que é a representação elétrica do som acústico, para
o sinal digital, que representa o sinal elétrico do som por meio de sequências de números
(zeros e uns), é realizada pela operação de conversão analógico-digital, ou conversão A/D. A
conversão digital-analógica (conversão D/A) realiza o processo inverso. Para as duas
operações é necessário o uso de hardware e software especializados, de modo que
dispositivos eletrônicos possam ser conectados fisicamente ao hardware básico220 do
computador para possibilitar gravação de áudio.
A distinção entre os processos de gravação analógica e digital de áudio é apresentada
por Rubin (idem, 339):
[...] o som ocorre quando um objeto vibrando define padrões de pressão no ar
chamados ondas de som. Para captar essas ondas de som numa gravação, você pode
usar dois métodos – analógico ou digital. [...] O processo da gravação análoga
funciona assim: as ondas de som excitando um microfone fazem com que o pequeno
diafragma que há dentro do microfone vibre [...]. O diafragma vibrando produz um
sinal elétrico com voltagens que estão sempre variando. Essas flutuações de voltagem
correspondem às vibrações do diafragma, as quais, por sua vez, correspondem às
vibrações da onda de som. A gravação digital começa como a análoga. [...]. As coisas
mudam rápido, porém, à medida que o gravador digital transforma as voltagens
flutuantes numa série de números binários (1’s e 0’s). Ele faz isso com um circuito
eletrônico chamado conversor análogo-digital (conversor A/D ou ADC).
A diferença entre a gravação analógica do sinal acústico e o processamento digital do
sinal elétrico pode ser mais bem percebida nos exemplos apresentados por Robert Lindstrom
na obra: Guia business week para apresentações em multimídia (1995, p. 305):
Para fazer a gravação de um som, um dispositivo eletrônico converte as ondas de som
dentro de alterações correspondentes em níveis de voltagem elétrica. [...] Os níveis de
voltagem, relacionados com o sinal analógico, são depois usados para criar um padrão
em uma fita magnética (ou talhes em uma gravação). Para a reprodução, o sinal é lido
da fita por cabeças de reprodução amplificando e passado aos auto-falantes.
A gravação digital, segue explicando Lindstrom (1995, p. 307), “[...] faz a mesma
coisa para som que faz para texto ou qualquer tipo de informação. Ela converte a informação
220
Composto por motherboard (placa mãe), processador, memória, gabinete, teclado, mouse e etc caso trate-se
de um microcomputador.
157
em combinações numéricas que podem ser armazenadas, recuperadas e manipuladas por um
computador.” Portanto, os hardwares e softwares especializados processam as representações
de som utilizando tanto sinal elétrico como digital, ou seja, são capazes de converter o áudio
analógico – reproduzido por um amplificador ou gravador de fita cassete, por exemplo – em
áudio digital, ou obter o áudio digital diretamente de um disco laser (CD) onde estão gravadas
as combinações numéricas representativas do som acústico.
Com outras palavras, o som acústico gerado no ambiente é introduzido (input) nos
computadores através de equipamentos eletrônicos de som, que funcionam como transdutores.
Uma vez obtido o áudio analógico, processadores digitais e softwares realizam a operação de
conversão A/D e geram áudio digital, para armazenamento em arquivos de computador ou
reprodução (output) no ambiente externo, através de auto-falantes. Assim sendo, nesta
pesquisa a representação digital do áudio gravada em arquivos de computador é denominada
áudio digital.
O armazenamento dos arquivos de áudio digital é feito em mídia digital, por
exemplo, em fita DAT (digital audio tape), disco magnético221 ou em mídia ótica (CD). Os
arquivos digitais podem, segundo Lindstrom (1995, p. 309) ser gravados com diversos
formatos e apresentam vantagens sobre os arquivos analógicos porque são mais imunes aos
ruídos e não perdem qualidade nas reproduções. “O meio magnético passando sobre a cabeça
do aparelho de reprodução/gravação de fita produz um assobio audível que pode prejudicar a
qualidade do som. Gravações digitais não adicionam assobio durante o armazenamento ou a
reprodução.”
Quanto à manutenção da qualidade do áudio digital nas reproduções, continua a
explicar Lindstrom (idem, p. 310), “quando o som analógico é transferido de uma fita para
outra, um pouco da informação é perdida e algum som estranho é adicionado. Quanto mais
toques ou transferências mais o som degrada. A informação de som digital, se adequadamente
manuseada, pode ser transferida de um meio digital para outro sem estragar.”
Conforme Paula Filho (2000, p. 209) o processo de digitalização pressupõe a
realização de operações de codificação – criação de códigos binários para representar as
propriedades do áudio analógico introduzido no computador através de alguma interface – e
de decodificação – que realiza a operação inversa e transforma o áudio digital novamente em
221
Um disquete é um exemplo de um disco de mídia magnética removível, para armazenamento de dados. Um
disquete é um dispositivo que possibilita acesso randômico a conteúdos.
158
analógico. Denominamos codec, acrônimo de codificação e decodificação aos softwares que
realizam essas operações de conversão A/D e D/A.
A operação de codec de áudio, portanto, consiste em determinar quais propriedades
físicas e sensoriais de uma amostra de áudio serão registradas, de que forma e em que locais
do arquivo, de modo que a informação numérica possa ser utilizada para reconstituir as
propriedades originais do áudio. Os arquivos que contém o áudio digital, codificados pelos
diversos codecs desenvolvidos pela indústria, são identificados por meio de formatos e
representados por extensões (sufixos precedidos de “.”) acrescidas ao nome do arquivo, tais
como .mp3 ou .WAV. 222 Existe uma enorme quantidade de formatos de arquivos digitais de
áudio, criados com o passar dos anos de acordo com o desenvolvimento das tecnologias de
hardware e software, quase sempre visando melhorar a qualidade do áudio armazenado. Em
alguns formatos de arquivos os códigos representativos do áudio são gravados em estado
bruto (RAW). Em outros são usados programas de compressão de códigos binários
representativos porque “embora o fluxo de informação de áudio seja relativamente baixo se
comparado com os de vídeo, há situações em que existe a necessidade de compressão do sinal
de áudio digital [...] principalmente quando se transmite material musical de alta qualidade.”
(PAULA FILHO 2000, p. 241).
Alguns arquivos, chamados containers, podem armazenar segmentos de áudio
codificados sem que seja necessário utilizar sempre um mesmo codec. Nesses casos, as
extensões dos arquivos não identificam o codec empregado e, por esse motivo, a informação
relativa ao codec que foi utilizado nessa gravação específica (e a do compressor) é gravada no
próprio arquivo, juntamente com o áudio.
Certos softwares são capazes de utilizar “pedaços” de código de outros programas de
computador e conectá-los logicamente aos programas de processamento de arquivos, para
realizar determinadas tarefas. Esses pedaços de software são conhecidos como plug-ins.
É bastante comum o uso dos mesmos plug-ins especializados por uma infinidade de
222
.mp3 – abrev. de MPEG - Formato de áudio MPEG que permite armazenar músicas e arquivos de áudio no
computador em um espaço relativamente pequeno e mantendo a qualidade do som. Os programas que tocam
arquivos de som no formato MP3 mais populares são Winamp, RealJukebox, iTunes e XMMS. Produzem som
com alta qualidade filtrando informações supérfluas do áudio original, o que resulta em arquivo menor com uma
perda imperceptível de qualidade. O MPEG (moving pictures expert group ou grupo de especialistas em imagem
em movimento) é um grupo formado pela ISO (International Standards Organization) e pela IEC (International
Electro-Thecnical Comission) responsáveis pelo desenvolvimento de padrões de vídeo e áudio digital chamados
genericamente de MPEG. WAVE - arquivo de som padrão do Windows. Todos os sons que o Windows produz,
como ao iniciar e enviar mensagens de erro são arquivos wave. Estes arquivos têm extensão.wav e são cerca de
12 vezes maior do que um arquivo MP3. (Rabaça e Barbosa 2002 p. 500).
159
softwares de diferentes fabricantes principalmente para possibilitar a portabilidade de
conteúdos processados entre softwares e equipamentos. Ou seja, para permitir que um arquivo
de áudio gravado em determinado software seja processado por outro, sem erro.
Outro uso comum de plug-ins é para possibilitar que codecs e compressores possam
ser embutidos em containers. Desse modo, softwares que processam conteúdo em containers
de áudio no formato WAV ou de vídeo nos formatos AVI ou Quicktime223, podem processar os
mesmos codecs e ou compressores que foram utilizados na criação dos arquivos, no momento
de seu uso. Lindstrom (idem, p. 318-319) explica que “a compressão trabalha usando
algoritmo224 para interpretar matematicamente os dados e reduzir o valor de código necessário
para representar a informação.”
Uma vantagem do áudio digital, gravado em disco magnético ou ótico, com relação
ao analógico, também apontada por Lindstrom (idem, p. 309), está na possibilidade de acesso
randômico ou aleatório para leitura ou gravação de segmentos de áudio quando se usa
sistemas computadorizados.
O som armazenado digitalmente por meio de disco magnético ou disco ótico permite
que você vá para frente ou para trás para a seleção desejada, dentro de milhares ou
milhões de um segundo. Localizar uma seleção ou ponto inicial em uma fita de áudio,
por outro lado, exige avançar ou retroceder as fitas fisicamente. [...] com a gravação
digital você pode selecionar um local no disco tão preciso como uma amostra
individual. Isso significa precisão de cerca de 20 microssegundos [...]. Raramente
alguma produção precisaria deste grau de precisão, mas um efeito de som que ocorre
até meio segundo mais cedo ou mais tarde é percebido pelo público.
Estas vantagens do áudio digital, adicionadas com software, tornam a tecnologia
digital um poderoso instrumento para o processamento de áudio, como observou Paula Filho
(idem p. 228).
Pode-se simular um estúdio de som com operações de cortar, colar, atenuar, realçar e
mixar segmentos de sinal de áudio, trabalhando com um grande número de trilhas.
Pode-se armazenar informação de redundância junto com o áudio, permitindo a
223
QuickTime ou QT´ é uma estrutura de suporte (framework) multimídia capaz de manipular formatos de
vídeo digital, mídia clips, som, texto, animação, música e vários outros tipos de imagens panorâmicas
interativas. A tecnologia QuickTime foi desenvolvida pela Apple, Inc.
224
Algoritmo é uma sequência finita de instruções ou códigos de programação executados por computadores.
160
detecção e recuperação do som. O som digital pode ser armazenado, recuperado e
transmitido como qualquer arquivo, e combinado com outros tipos de mídia.
Além das operações típicas de um estúdio de som, nos computadores também é
possível criar o áudio diretamente no interior dos computadores225. Em qualquer dos casos,
para o processamento digital de áudio pelos computadores de mesa (desktop) é necessário,
além do próprio computador e softwares especializados, um conjunto de dispositivos
adicionais de hardware para possibilitar a conexão de aparelhos de áudio analógicos ou
digitais ao computador. Este conjunto de dispositivos de hardware de conexão é chamado de
interface.
Rabaça e Barbosa (2002, p. 393) explicam que interface é a “união física e
geralmente também lógica entre dois sistemas que não poderiam ser conectados diretamente.”
Ou seja, as interfaces podem ser implantadas através de placas especializadas conectadas nas
placas motherboard (placa mãe) dos microcomputadores ou em dispositivo externo para unir
sistemas de áudio analógicos aos digitais. Com essa finalidade a indústria da eletrônica
desenvolveu também dispositivos para conexão dos aparelhos de som nas interfaces dos
microcomputadores, normalmente chamados de portas, tais como plug (tomada) e jack
(pino).
Algumas destas portas permitem exclusivamente a passagem do fluxo elétrico
representativo de freqüência sonora, ou seja, ondas sonoras analógicas – como é o caso das
placas controladoras dos CD-ROM. Outras, mais sofisticadas e caras, como é o caso da
conexão digital chamada firewire, permitem não somente a passagem do áudio, mas também a
troca de mensagens (informações) para controle e sincronização entre os equipamentos de
áudio externos e o software no computador. Raul Fernando Weber226 explica no livro
Arquitetura de Computadores Pessoais (2008, p. 240) que a tecnologia firewire, cujo nome foi
popularizado pela Apple e chamada de i.Link pela Sony, é uma interface serial de alta
225
Por exemplo, softwares e hardware especializados possibilitam o sequenciamento de notas musicais em
partituras virtuais e a partir dessas notas sintetizadores físicos ou virtuais reproduzem o som das notas.
226
Engenheiro Elétrico - Eletrônica pela Universidade Federal do Rio Grande do Sul (1976) Engenheiro Elétrico
- Telecomunicações pela Universidade Federal do Rio Grande do Sul (1977), com mestrado em Ciências da
Computação pela Universidade Federal do Rio Grande do Sul (1980) e doutorado em Institut Für Informatik IV
pela Universitat Karlsruhe (1986). http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4787275T3
161
velocidade baseada na norma 1394227 do IEEE – Institute of Electrical and Electronic
Engineers. “Desenvolvido originalmente para conectar discos magnéticos, CDs e DVDs, o
IEEE1394 também é bastante utilizado para câmeras digitais e camcorders228.”
O controle das operações das interfaces e dispositivos de conexão (conectores) é
realizado por softwares especializados chamados de drivers. Ou seja, há uma exigência por
drivers229 para midiatizar a comunicação entre as interfaces e o sistema operacional das
máquinas e essa exigência cria uma dependência entre as interfaces e os sistemas
operacionais, o que muitas vezes impede que determinadas interfaces possam operar de forma
idêntica ou mesmo parcialmente em computadores e sistemas operacionais diferentes. Isto
significa que existem placas desenhadas para operar em hardwares diferentes e cujos drivers
estão exclusivamente vinculados a determinados sistemas operacionais. Por exemplo,
podemos ter uma placa de áudio que funciona em PC (Personal Computer), mas cujo driver
só funciona no sistema operacional Windows.
A complexidade de se fabricar softwares generalistas para tipos variados de
processamento de áudio levou seus produtores a criarem produtos especializados na
realização de determinadas operações e que podem ser classificadas em três modalidades. A
primeira é a dos softwares editores de áudio digital, especializados na manipulação de
segmentos de áudio armazenados em arquivos digitais.
Os editores de áudio são programas que permitem realizar operações simples de
processamento no domínio do tempo sobre arquivos de áudio. Isto inclui operações de
recorte, cópia e colagem, visualização gráfica, conversão de arquivos e efeitos simples
como amplificação e eco. [...] Os editores profissionais de áudio, como o Sound
Forge, [...] permitem realizar grande variedade de operações de processamento nos
domínios do tempo e de freqüência. [...] (PAULA FILHO idem, p. 241).
Os editores de áudio são normalmente utilizados em regime off-line, em atividades
de pós-produção e importam os segmentos de áudio de arquivos já digitalizados para
múltiplas trilhas cronometradas (timelines). Alguns possuem recursos para digitalização de
227
Norma que define o barramento P1394, um barramento serial de alta velocidade e que suporta atualmente três
velocidades: 100Mbps, 200Mpbs ou 400Mbps (12,5 MBytes/s, 25 MBytes/s ou 50 MBytes/s). Futuras extensões à
norma propõem velocidades de 800 Mbps e 1 Gbps (100 MBytes/s e 125 MBytes/s. (WEBER, idem ibidem).
228
229
Filmadoras.
Softwares responsáveis pela interligação do sistema operacional com o hardware do computador. Revista
Coleção Guia Fácil Informática – edição Especial no. 009 – Nov/2007.
162
áudio a partir de dispositivos de reprodução analógicos. Outros dispõem de recursos para
controle de time-code. Em certos casos os editores contemplam ainda capacidade para
aplicação de efeitos sonoros. Lindstrom (idem, p. 234) ressalta que:
Os efeitos sonoros são as marcas de pontuação nos parágrafos de experiência: os sons
que alguma coisa faz os ruídos de fundo que sempre existem, as interferências
audíveis inesperadas, as indicações sonoras do que você está vendo. Você está
familiarizado com o uso de efeitos de som em filmes e na televisão. Na época de ouro
do rádio, os efeitos de som eram os ‘visuais’ da rádio-novela. [...] Quando são ruins,
podem transformar uma novela séria em uma farsa.
Os efeitos sonoros podem ser utilizados, conforme explica Lindstrom (idem, p. 234),
como “marcadores de páginas auditivas chamando a atenção para fatos e ideias importantes
[...]. Acrescentar profundidade e riqueza a uma cena [...]. Adicionar humor [...]. Reforçar
visuais [...]. Motivar uma alteração de visual ou cena [...]. Contar uma história sem palavras
[...]”.
A segunda modalidade de produtos é a das estações de trabalho de áudio digital
chamadas de digital audio workstations (DAW230) ou estúdio digital. Uma digital audio
workstation é um sistema eletrônico projetado para gravar, editar e reproduzir áudio digital.
Pode realizar o processamento de áudio em multitrilhas (multitrack231) e uma vez que
disponham de conversores A/D (analógicos/digitais) e D/A (digitais/analógicos), com
qualidade de som profissional, podem digitalizar sinais sonoros reproduzidos por dispositivos
analógicos de áudio.
A esse tipo de estação normalmente podem ser instaladas interfaces de alta qualidade
com portas para conexão simultânea de vários dispositivos de entrada de áudio, digitais ou
analógicos, mono ou estéreo. Normalmente possibilitam a conexão de duas ou mais saídas de
áudio para monitoramento de reprodução (playback) e roteamento de sinal para outros
dispositivos de saída (para gravação, reprodução, ampliação etc).
Dependendo
dos
softwares
aplicativos
instalados,
da
disponibilidade
de
230
Requer computadores de alto desempenho, memória RAM veloz e em abundância e bastante espaço em
discos de alta velocidade. Interfaces e dispositivos de som de qualidade e software para processamento de áudio
em multi-trilhas.
231
Multitrack é um método que possibilita a gravação e leitura de múltiplas amostras de áudio separadas em
trilhas lógicas. Desse modo é possível, por exemplo, gravar separadamente o som de cada instrumento e compor
o todo musical através de processo de edição.
163
microprocessadores de som especializados232 e da presença de interfaces de controle de
dispositivos, as estações DAW podem editar conteúdos de arquivos de áudio; criar efeitos
sonoros; mixar conteúdos das trilhas, reproduzi-las ou fazer inserção de trilhas sonoras em
fitas de vídeo (dublagem), desde que o equipamento de vídeo também tenha interface com
time-code SMPTE.
A interface SMPTE é usada para a sincronização entre os dispositivos de um estúdio,
incluindo equipamentos analógicos e digitais de áudio e vídeo. Esta interface, em
conjunto com um programa de estúdio digital, permite que a reprodução de
determinadas trilhas armazenadas no disco seja disparada por um sinal proveniente de
um aparelho de reprodução/gravação de vídeo, quando este atinge o ponto exato de
um determinado quadro de imagem. Isto permite a inserção de trilhas sonoras em fitas
de vídeo (dublagem), desde que o equipamento de vídeo tenha tecnologia apropriada
(PAULA FILHO idem, p.233).
As estações DAW também podem realizar uma das tarefas mais complexas de
processamento de áudio digital: compor e editar trilhas de áudio em tempo-real a partir de
eventos criados por instrumentos musicais digitais conectados em rede MIDI e gravá-los
diretamente nos discos magnéticos do computador. Segundo Rubin (1996 p. 39-40) “MIDI é a
sigla de Musical Instrument Digital Interface (interface musical para instrumentos musicais)”.
[...] está no coração de toda a indústria de música. [...] a especificação em MIDI
estabelece um conjunto de normas que garantem a compatibilidade adequada de
hardware entre marcas diferentes de instrumentos eletrônicos. Ela também fornece um
protocolo padronizado para transmitir e receber dados entre aparelhos MIDI
compatíveis. (RUBIN, ibidem).
Para atender as normas e assegurar compatibilidade entre equipamentos de áudio e
computadores interconectados, explica Rubin (1996 p. 39-40), “a rede MIDI usa cabos e
conectores padronizados, isolados opticamente dos instrumentos para evitar interferências
elétricas que possam ser audíveis”. Pois, a arquitetura MIDI é muito mais do que uma rede,
além da padronização de cabos, o sistema também define claramente as estruturas dos
protocolos de comunicação utilizados na rede. Conforme esclarece Paula Filho (idem p. 252):
232
Por exemplo, processadores digitais de sinais (DSPs) que aumentam consideravelmente os recursos das
interfaces de som, permitindo que muitas funções de processamento sejam realizadas na própria placa, Isso pode
significar grandes ganhos de desempenho.
164
[...] um conjunto de convenções para comunicação digital entre instrumentos musicais
eletrônicos, como teclados, sintetizadores, máquinas de percussão e instrumentos
convencionais adaptados. Ele pode ser encarado como protocolo de uma rede local
especializada na comunicação entre instrumentos musicais digitais, permitindo pelo
exemplo, que um conjunto de instrumentos seja controlado por um solista humano ou
um computador.
Os protocolos de comunicação MIDI incluem eventos que estão associados tanto as
notas musicais como as operações de controle dos instrumentos conectados à rede local.
Desse modo os sistemas computadorizados podem ser utilizados como sintetizadores.
Em geral o termo sintetizador refere-se a qualquer instrumento musical que crie seus
sons eletronicamente (ao contrário daqueles que criam som de forma elétrica ou
acústica). Mais especificamente, porém, os sintetizadores criam seus sons usando
componentes geradores de sons chamados osciladores. Por meio do uso desses
osciladores, um sintetizador pode ‘sintetizar’ novos sons desde o início, o que o torna
uma ferramenta poderosa e criativa. [...] atualmente a maioria dos sintetizadores é
digital [...] usam micro processadores e processamento digital de sinais (DSP) para
simular os efeitos dos osciladores (RUBIN 1996, p.84).
A sintetização de áudio também pode ser realizada a partir do processamento de
definições de eventos musicais, ou seja, não se trata de uma representação de ondas ou sinais
e sim de informações textuais que possibilitam que determinados dispositivos, aí incluídos
computadores, softwares e sintetizadores eletrônicos, possam gerar o som. Nesse sentido, o
processamento digital do som não fica limitado à manipulação de sons gravados.
Novos sons podem ser sintetizados de forma inteiramente artificial [...] a partir de
notas musicais em tempo real [...]. Os primeiros sintetizadores eram construídos com
circuitos analógicos, que eram ligados por meio de um painel de conexões [...] quando
se viabilizou o processamento digital do som, os próprios circuitos de síntese foram
substituídos por algoritmos equivalentes, realizados por microprocessadores (PAULA
FILHO idem, p. 241- p. 247).
Uma vez mais recorremos a Rubin (idem, p.141) para melhor compreensão dos
sintetizadores.
[...] o grande sintetizador RCA de 1955 foi um marco na evolução da composição
eletrônica. Sua habilidade de gerar ricos timbres musicais, porém, era apenas parte de
seu legado. Isso era tão importante quanto o fato de você poder programá-lo para gerar
165
uma série de notas dentro das definições de timbre, duração e outros parâmetros. O
sintetizador RCA usava no input um rolo de papel para armazenar seus dados, e ao
fazer isso, empregava um método de reprodução de música semelhante ao usado pelas
pianolas do século XIX. É claro que os rolos de papel não produzem de forma direta
sons musicais semelhantes à gravação fonográfica. Em vez disso, eles fornecem os
dados de execução necessários para que um instrumento crie o som.
Também é possível sintetizar música de estrutura arbitrária, ou seja, utilizando-se
notação musical não-convencional e escalas musicais não-usuais. Isto pode ser feito
utilizando-se programas chamados compiladores acústicos.
Estes programas processam linguagens de síntese musical, em que as partituras e os
instrumentos musicais virtuais são definidos através de comandos semelhantes aos de
uma linguagem de programação. [...] As partituras são formadas por listas de notas,
definidas por seu tempo de início, duração, altura, intensidade e parâmetros de timbre,
que são dependentes de instrumentos. O resultado do processamento pelo compilador
acústico é um arquivo de áudio. [...] Os arquivos de áudio também podem servir
novamente de entrada para os programas compiladores acústicos, permitindo que
realizem algumas funções de edição de áudio encontradas nos estúdios digitais. Esses
recursos permitem também introduzir em gravações de áudio efeitos especiais que só
são possíveis com o emprego dos métodos de síntese musical.
Em síntese, o sistema MIDI foi o mecanismo encontrado pela indústria para integrar
instrumentos musicais, sistemas computadorizados e outros equipamentos para possibilitar a
produção de sons musicais, como demonstra Paula Filho (idem p. 253-256).
Os instrumentos MIDI mais utilizados são provavelmente os teclados sintetizadores,
controlados através de teclas semelhantes às do piano. [...] Podem funcionar como
controladores de rede, reproduzindo canções pré-gravadas. Instrumentos acústicos
também podem funcionar como controladores MIDI, desde que disponham de
transdutores das ações mecânicas para as mensagens. Existem instrumentos de sopro,
instrumentos de corda e pianos MIDI. As baterias eletrônicas são sintetizadores
especializados na produção de sons de percussão. [...] Outros instrumentos MIDI,
usados em redes avançadas, incluem: módulos de efeito, capazes de realizar eco,
reverberação e outros efeitos de processamento de áudio; equipamentos de áudio com
controle MIDI, como amplificadores, misturadores, mesas de som e gravadores;
equipamentos teatrais com controle MIDI, como controle de iluminação, cortinas,
cenários e outros efeitos visuais.
O protocolo MIDI também é a base para a definição de como a música é representada
166
no computador pelo sistema MIDI. Segundo Ricardo Mazzini Bordini233, em Introdução à
Multimídia na Web, o lado negativo do MIDI é que ele não pode gravar sons (somente notas).
Ou seja, ele não pode armazenas canções (songs), somente melodias (tunes). O lado positivo
do formato MIDI consiste no fato de ele conter somente instruções (notas).
As principais vantagens do formato de arquivo .MID, quando comparado a outros,
tais como .mp3, é que podem ser bastante pequenos e o som de cada instrumento pode ser
gravado separadamente e, por conseqüência, editado individualmente desde que o software
editor seja compatível com o protocolo MIDI. Neste contexto Paula Filho (idem, p. 256)
informa que:
[...] O formato .MID é muito mais compacto que os formatos de sinal de áudio; ele
pode captar nuanças de expressão musical, refletidas no volume e andamento da peça.
O timbre, entretanto, é codificado apenas como um número que denota o instrumento.
Este número é chamado de programa ou patch. O resultado da reprodução dos
arquivos MIDI será um sinal de áudio, cujos detalhes dependerão do sintetizador
utilizado. Os arquivos .MID são organizados em trilhas, por analogia com os
gravadores profissionais de áudio. Estas trilhas representam as vozes, no sentido
musical. Cada voz normalmente corresponde a um instrumento monofônico.
Instrumentos polifônicos podem ser repartidos em vozes; por exemplo, nas partes do
piano correspondente às duas mãos. As trilhas por sua vez, são organizadas como
seqüências de eventos. Eventos são mensagens MIDI carimbadas com os instantes de
tempo associados à sua interpretação ou emissão. Funções de controle não associadas
diretamente à produção de som podem ser incluídas através de metaeventos. Pode-se
incluir também informação de texto, como comentários e notas de copyright.
O padrão MIDI também permite a mixagem de eventos musicais de diferentes
origens, fonte, época e formatos.
Os arquivos MIDI podem ser obtidos de várias fontes: gravação de performances ao
vivo através de sequenciadores; bibliotecas comerciais, vendidas em disquetes ou CDROMs; bibliotecas de domínio público, disponíveis na Internet; transformações de
outros arquivos, através do processamento com sequenciadores; edição gráfica de
partituras musicais; geração semi-automática, através de ferramentas de composição
[...]. A capacidade de gravação e reprodução de MIDI permite que o compositor que
esteja trabalhando com ele possa, em tempo real, ouvir a música que está sendo
composta, dentro das limitações impostas pelo sintetizador disponível [...]. O material
233
Bordini é graduado em Composição e em Regência pela Universidade Federal do Rio Grande do Sul. Mestre
em Música pela Universidade Federal da Bahia e Doutor em Música pela Universidade Federal da Bahia – textos
disponíveis no website do Centro de Laboratórios Integrados de Música (CLIM) disponível em:
http://www.hugoribeiro.com.br/Curso_HTML/media/c02.htm
167
musical pode ser criado de várias maneiras: desenhado na pauta; capturado nota a
nota, de um teclado on-line ou até do teclado normal do computador; importado de um
arquivo MIDI; capturado em tempo real, podendo-se conservar, para fins de
reprodução sonora, detalhes de performance que não são expressos rigorosamente pela
notação musical (PAULA FILHO idem p. 263-264).
A utilização de hardwares e softwares sequenciadores de áudio é o que caracteriza a
terceira modalidade de processamento de som. Rubin (1996 p. 142) explica esta afirmação:
Imagine um sequenciador como um editor de texto sofisticado para música. E o uso
frequente de comandos como Cut, Copy end Paste tende a reforçar a analogia. Assim
como o editor de texto [...] um sequenciador permite que você faça o mesmo antes que sua
música vá para seu estágio final de saída – o módulo de som. Desse modo, você pode
fazer coisas com um sequenciador que um gravador de fitas nunca poderia fazer, tais
como mudar o andamento de uma peça sem alterar sua afinação ou copiar uma passagem
repetidas vezes sem diminuir sua qualidade de som.
O sistema MIDI também é fundamental para o funcionamento dos softwares
sequenciadores, como observa Paula Filho (idem p. 256-267):
Os sequenciadores são as principais ferramentas disponíveis para o trabalho com os
arquivos .MID. Eles fazem o papel de estúdios digitais de gravação, edição e reprodução. Ao contrário dos estúdios digitais de áudio, a unidade de trabalho não é a
amostra do som, mas o evento MIDI. Todos os sequênciadores suportam o formato
.MID, o que permite o intercâmbio de dados entre eles e com os outros aplicativos que
trabalham com MIDI, como editores de partitura [...]. Os sequênciadores podem
oferecer diversos tipos de vistas de um arquivo MIDI. Tipos comuns são as vistas de
trilhas, rolos de pianola, eventos e pautas.
Assim como no processo de comparação entre softwares para produção de
audiovisual, para comparar os softwares proprietários e livres de áudio utilizados nos cursos
de Radialismo da UMESP e da ESEEI foi necessário compreender a definição de
determinados conceitos relativos ao processamento digital de áudio. Tais conceitos são
explicados com o objetivo de facilitar a compreensão dos dados das variáveis funcionais,
apresentados nas tabelas que foram assim organizadas:
A primeira variável Dados Gerais descreve informações consideradas importantes
para orientar a escolha e a aquisição de softwares processadores de áudio pelos usuários
comuns. Normalmente tais informações são apresentadas nos sites dos seus fabricantes ou nas
168
próprias embalagens desses produtos.
A segunda variável se refere às Plataformas de Operação – aponta as plataformas de
sistemas operacionais nas quais os softwares processadores de áudio podem ser operados.
A terceira variável, Interfaces aceitas pelos Softwares, diz respeito à capacidade dos
softwares operarem com determinadas interfaces, de forma que possam interagir diretamente
com equipamentos eletrônicos para entrada e saída de sinais de áudio.
A quarta variável se refere aos Formatos de Arquivos que os softwares de áudio podem
ler e gravar. Os arquivos de áudio como outros arquivos digitais são identificados por sua
extensão, ou seja, podem ser .MID, .mp3 etc. Lembrando o que já foi dito, existem dois tipos
de representação de som em arquivos digitais de computador: áudio digital e arquivos MIDI.
“Áudio digital é um termo geral para qualquer voz, efeito de som ou música convertidos de
forma analógica para digital. MIDI é uma designação padronizada para arquivos de música
gerados por instrumentos e dispositivos musicais controlados digitalmente” (LINDSTROM
1995 p. 317).
169
Tabela 1. Categoria 2. Dados Gerais
SOFTWARE
Sound Forge
Pro Tools
Rosegarden
TIPO
DE
LICENÇA
MODALIDADE
FABRICANTE
OU
DESENVOLVEDOR
VERSÃO
ANALISADA
CUSTO
Proprietário
Editor de Áudio
Digital
Sonic Foundry.
Atualmente distribuído
pela Sony234
9
(2007)
A partir
de
U$
299,95
Proprietário
Estação DAW;
sequênciador
MIDI; Editor de
áudio digital.
Digidesign235
divisão da Avid
Technology
8
(2008)
A partir
de U$
1.047,00
1.7.2
(2008)
Livre
Editores de
partituras
musicais.
Livre
Livre
Ardour
Digital audio
workstation
Estação DAW
MIDI;
Processador de
áudio digital.
Paul Davis e
Comunidade
Ardour.org237.
2.7.1
(2008)
Livre
Editor de áudio
digital
Comunidade238
Audacity.sourceforge.ne
t
1.2.6
(2006)
e
1.3.5
(2008)
Livre
0.9.4
(2008)
Livre
Livre
Audacity
Livre
Hydrogen
Chris Cannam, Richard
Bown, Guillaume
Laurent, e
comunidade236
Rosegarden music
Sequênciador
MIDI; Editor de
eventos musicais
de percussão.
Alessandro Cominu e
Comunidade
hydrogen-music.org
A partir da apresentação dos dados gerais descritos na tabela podemos concluir que
existem softwares livres para atender as todas as modalidades de processamento de áudio, ou
seja, para edição de áudio digital, estação DAW e sequenciadores MIDI para edição de eventos
musicais, partituras e de percussão. Informações seguras sobre estes produtos com código
aberto e licença GPL podem ser facilmente encontradas na internet nos sites oficiais das
comunidades de desenvolvedores. Como por exemplo: Rosegarden music.com, Ardour.org,
234
Website - http://www.sonycreativesoftware.com/
235
Website - http://www.digidesign.com/
236
Website -Rosegarden music.com/
237
Website - http://www.Ardour.org/
238
Website - http://www.audacity.sourceforge.net
170
audacity.sourceforge.net e Hydrogen-music.org
Quanto à questão relacionada ao pagamento de licenças, podemos constatar que por
serem distribuídos com licença GPL estes softwares livres podem ser obtidos diretamente da
Internet através de download sem custos.
Em relação a preocupações com acertos de bugs (erros em programas) e evolução dos
softwares (implementação de novas funcionalidades, adaptação a novas tecnologias de
hardware, equipamentos eletrônicos e tecnologias de interface), pelo fato destes softwares
serem desenvolvidos por comunidades e não por indústrias tradicionais podemos constatar
que releases (novas distribuições) são feitos em prazos relativamente curtos, como pode ser
constatado nos sites oficiais das comunidades.
Tabela 2. Categoria 2. Plataformas de Operação
SOFTWARE
WINDOWS
MAC OS X
LINUX
Sound Forge
Sim
Não
Não
Pro Tools
Sim
Sim
Não
Rosegarden
Não
Não
Sim
Ardour
Não
Sim
Sim
Hydrogen
Não
Sim
Sim
Esta variável é importante para possibilitar portabilidade e escalabilidade dos
softwares livres de processamento de áudio, ou seja, tem a mesma finalidade e importância
descritas na tabela 2 da categoria 1. Na tabela acima podemos observar que a portabilidade
também permite a liberdade de escolha para se operar os software livres em dois sistemas
operacionais, ou seja, de rodar o software em Mac ou Linux, por exemplo. Já a escalabilidade
também contribui para que um usuário de PC/Windows, por exemplo, possa rodar um
software de processamento de áudio em máquinas maiores e com sistema operacional
diferente daquele instalado no PC.
171
Tabela 3. Categoria 2. Interfaces aceitas pelos Softwares
SOFTWARE
REWIRE
JACK
VST
LADSPA
LV2
DSSI
RTAS
AU
DXI
Sound Forge
Sim
Não
Sim
Não
Não
Não
?239
Sim
?
Pro Tools
Sim
Sim
Sim
Não
Não
Não
Sim
Não
Não
Rosegarden
Não
Sim
Sim
Sim
Não
Sim
Não
Não
Não
Ardour
Não
Sim
Sim
Sim
Não
Não
Não
Sim
Não
Audacity
Não
Sim
Sim
Sim
Não
Não
Não
Não
Não
Não
Sim
Não
Sim
Sim
Sim
Não
Não
Não
Hydrogen
Esta variável é importante porque a inexistência de interfaces que permitam a
realização de processos de conversão A/D e D/A limita a funcionalidade dos softwares, pois
estes somente poderão utilizar arquivos previamente digitalizados. Este recurso também é
importante quando é necessário acionar entradas ou saídas de sinais automaticamente em
vários equipamentos a partir de time-code sincronizado.
Os softwares acionam as interfaces de duas formas: na primeira embutem em seu
próprio código os algoritmos obtidos das API – Application Programming Interface (Interface
de Programação de Aplicativos) fornecidas pelos fabricantes das interfaces. Ou seja, as APIs
definem um conjunto de rotinas, padrões e de funções estabelecidas pelo fornecedor para o
acionamento e controle das interfaces. A segunda forma consiste na utilização de Plug-ins
que, como explicado anteriormente, é um programa pronto e capaz de acionar e controlar as
interfaces com o qual o software processador do áudio se comunica. As interfaces
consideradas na tabela e descritas a seguir, são as mais utilizadas nas respectivas plataformas
em que os sistemas operacionais operam, quais sejam:
ReWire – esta interface é um protocolo de software proprietário desenvolvido
conjuntamente por Propellerhead e Steinberg, que permite controle remoto e transferência
de dados entre softwares de edição de áudio digital e outros relacionados. Permite gatilhos
com ação remota tais como começar e parar gravação. O protocolo é licenciado,
gratuitamente, somente para autores de software proprietário.
239
O sinal de ? significa que não foi possível avaliar o desempenho à interface.
172
O JACK Audio Connection Kit ou apenas JACK, é uma API (interface para
programação de aplicações) open source para Linux e Mac OS X. É um servidor de som que
fornece conexões para interfaces de áudio e MIDI.
Steinberg's Virtual Studio Technology (VST) é uma interface para integrar softwares
sintetizadores de áudio e plug-ins de efeitos com editores de áudio e sistemas de gravação em
disco. Usa Digital Signal Processing (DSP) para simular sistemas tradicionais de gravação.
LADSPA é um acrônimo para Linux Audio Developers Simple Plug-in API. É uma
interface padrão para uso de filtros e efeitos de áudio. Licença GNU LGPL.
LV2 similar ao LADSPA, mas permite programação de extensões com mais
facilidade.
DSSI significa Disposable Soft Synth Interface e estende a LADSPA para cobrir plugins de instrumentos. DSSI é uma arquitetura de plug-in para software sintetizador de
instrumento virtual, para uso por aplicações de sequenciamento de música. Foi desenhado
especificamente para plug-in de instrumentos que geram sons de eventos de notas.
Real-Time Audio Suite (RTAS) é um plug-in formato de áudio desenvolvido pela
Digidesign para o Pro Tools. Utiliza o poder de processamento do computador hospedeiro ao
invés de placas DSP utilizados nos sistemas Pro Tools HD.
Audio Units (AU) são arquiteturas de plug-in em nível de sistemas fornecidas pelo
Core Audio no Mac OS X desenvolvido pela Apple Computer. AU são conjuntos de aplicações
de serviços de interface de programação fornecidas pelo sistema operacional para gerar,
processar, receber ou manipular fluxos de áudio próximo de tempo-real com um mínimo de
latência.
DirectX plug-in é um componente de processamento de software que pode ser
carregado como plug-in por aplicações hospedeiras para possibilitar processamento em tempo
real, efeitos de áudio, mix de áudio ou atuar como sintetizador virtual.
Os dados da tabela 3 nos permitem concluir que os softwares livres analisados
dispõem de interfaces equivalentes aos proprietários e, em alguns casos, são até mesmo
capazes de utilizar interfaces proprietárias.
173
Tabela 4. Categoria 2. Tipos de Arquivos para Leitura e Gravação
SOFTWARE
OMF
AAF
Sim
Sim
Sim
Sim
Sim
Sim
Não
Não
Sim
Não
Não
Não
Não
?
?
Sound Forge
Pro Tools
Rosegarden
Ardour
Audacity
Hydrogen
MIDI WAV
MP3
AAC
Sim
Sim
?
Sim
?
AIFF, FLAC,
SND
Sim
Sim
Não
Não
Sim
AIFF, SDII
(Mac OSX)
?
Sim
Sim
?
?
?
Sim
Sim
Sim
Não
Sim
Sim
Sim
Sim
Sim
?
?
Não
Ogg/Vorbis REX2
Sim
Sim
Sim
Não
Não
?
OUTROS
AIFF, RAW,
FLAC
?
A importância dessa variável está na possibilidade do transporte de arquivos de áudio
e MIDI – Musical Instrument Digital Interface – entre diversos softwares, por exemplo,
permitir que uma música criada em um software sequenciador MIDI possa ser lida por uma
estação DAW, mixada com uma voz gravada na própria estação, editada (incluído um efeito
sonoro, por exemplo) e transportada para um segmento de vídeo. A leitura e a gravação
podem ser feitas de duas formas: entrada e saída ou importação / exportação. No primeiro
caso o software é capaz de processar o formato original do arquivo, por exemplo, o software
abre um arquivo .mp3 e trabalha com este formato. No segundo, o software se utiliza de
conversores (API ou Plug-ins) para converte o formato original para um formato com o qual
trabalhe internamente. Rubin (1996 p. 39- 40) explica que embora até o momento o Ardour
suporta uma série de funcionalidades MIDI, dentre elas: MIDI sequencing; MIDI Time Code
(MTC) master e slave; Controle de dispositivos através do MIDI Machine Control (MMC);
todos os plug-ins do MIDI Continuous Controller (CC) e mensagens de liga/desliga, notas
musicais e outras.
Na comparação dos tipos de arquivos suportados em leitura e gravação foram
considerados os formatos de arquivos mais utilizados pelos produtores de áudio do mundo nas
diversas plataformas em que os sistemas operacionais operam. Porém, como mostra a tabela 4
alguns tipos de arquivos estão sinalizados com um ponto de interrogação (?) devido à falta de
dados confiáveis e não podem ser considerados adequados para executar tal atividade. Mesmo
assim, com o objetivo de facilitar a compreensão dos leitores deste documento cada tipo de
arquivo é explicado a seguir.
174
Open Media Framework (OMF) é um tipo ou formato de arquivo independente de
plataforma para transferir mídia digital entre softwares aplicativos diferentes.
The Advanced Authoring Format (AAF) é um formato de arquivo para intercâmbio
profissional projetado para ambientes de pós-produção de vídeo e autoria. AAF foi criado para
auxiliar no problema de portabilidade para produção de vídeo baseado em computador entre
plataformas de multi-fabricantes.
MIDI – Musical Instrument Digital Interface é um protocolo padrão da indústria
definido em 1983 que habilita instrumentos musicais eletrônicos, computadores e outros
equipamentos a comunicar, controlar e sincronizarem-se entre si. Permite que computadores,
sintetizadores, controladores MIDI, placas de som, amostradores (samplers ou sintetizadores
PCM) e baterias controlem uns aos outros, e troquem informações do sistema. Não transmite
sinal de áudio e sim mensagens de eventos tais como altura (pitch) e intensidade das notas
musicais tocadas, e sinais de controle para parâmetros tais como volume e sinais de
cronômetro para estabelecer o tempo.
WAV ou WAVE é abreviatura de Waveform utilizada como extensão de formato
padrão de arquivo criado pela Microsoft e IBM para armazenar fluxos de bits (bitstream) de
áudio em microcomputadores pessoais PC. É uma aplicação do método bitstream do formato
de arquivo RIFF utilizado para armazenar dados em espaços volumosos de área bruta de
discos magnéticos (chunks). Muito parecido com os formatos de arquivo IFF utilizado por
computadores Amiga e AIFF dos computadores Macintosh. Utilizado no ambiente Windows
gravação de áudio bruto (raw) e sem compressão. A codificação (codec) utiliza o formato
PCM.
MP3 é a camada 3 do formato de codificação de áudio digital MPEG-1. Utiliza uma
forma de compressão com perda (lossy). Formato comum para armazenamento de áudio para
mercado consumidor e um padrão (de fato) de codificação de música para reprodução em
tocadores digitais de áudio. Criado pelo Moving Picture Experts Group, foi projetado para
reduzir significativamente o volume de dados necessários para representar o áudio gravado.
Advanced Audio Coding (AAC) é um padrão para codificação e compressão com
perda (lossy) de áudio digital. Projetado para ser o sucessor do formato MP3, geralmente
obtém melhor qualidade de som. Foi padronizado pela ISO - International Standard
Organization e IEC, como parte das especificações MPEG-2 e MPEG-3.
Ogg é um formato de container sem custo e de padrão aberto mantido pela Xiph.Org
Foundation e sem restrição de patentes. Projetado para fluxo (streaming) eficiente e
175
manipulação de multimídia digital de alta qualidade. Pode embutir grande quantidade de
codecs independentes, livres e de fonte aberta para áudio, vídeo, texto (tais como legendas) e
metadados. Dentre eles: Theora para camada de vídeo com perda; Vorbis para camadas de
áudio; Speex para compressão de som de fala; codec de compressão sem perda (loseless)
FLAC; e OggPCM para áudio.
REX2 é um formato de arquivo proprietário para sample loop de arquivo de áudio,
desenvolvido pela empresa sueca Propellerhead. É o mais popular em uso para
sequenciadores e software para DAW.
Outros Formatos240: AIFF – Audio Interchange File Format – formato de áudio
utilizado pelo sistema operacional Mac OS X da Apple e em computadores Silicon Graphics.
FLAC acrônimo de Free Lossless Audio Codec ou codec de compressão de áudio sem perda
de informação. Não remove nenhuma informação do fluxo de áudio, mantendo a qualidade do
som. SND Sound – arquivos SND não são multi-plataforma e o formato não é suportado por
todos os navegadores web. Os sons armazenados no formato SND têm a extensão .snd. É um
formato comum de gravação para armazenar som cru em computadores. SDI - Serial Digital
Interface de vídeo e áudio utilizada em equipamentos profissionais. Pertence a uma família de
vídeo interfaces padronizada pelo SMPTE. RAW – formato de arquivo digital de imagens.
Este formato conserva todos os dados da imagem captada pela câmara e uma maior
profundidade de cor, em geral 30 ou 36 bits/píxel. Seus arquivos são grandes, salvo quando
são comprimidos.
4.3. COMPARAÇÃO ENTRE SOFTWARES DE COMPUTAÇÃO GRÁFICA 3D
Softwares de computação gráfica 3D, também conhecidos como computer-generated
imaginery (CGI) são, na atualidade, utilizados na área da comunicação social para produção
de efeitos visuais gráficos, de desenhos animados, videogames tridimensionais, entre outros
usos. No entanto o esforço de desenvolvimento dessa tecnologia vem ocorrendo de longa
240
Definidos por Ricardo Mazzini Bordini – disponíveis no website do Centro de Laboratórios Integrados de
Música (CLIM) disponível em: http://www.hugoribeiro.com.br/Curso_HTML/media/c02.htm Acesso em
15/10/08.
176
data, como relatam Eduardo Azevedo e Aura Conci, no livro Computação Gráfica: Teoria e
Prática (2003 p. 4), para quem “parece existir consenso entre os pesquisadores de que o
primeiro computador a possuir recursos gráficos de visualização de dados alfanuméricos foi o
Whirlwind I, desenvolvido pelo MIT241 […], em 1950, com finalidades acadêmicas e
militares.” Segundo os mesmos autores, embora o termo computação gráfica tenha sido criado
por Verne Hudson242 em 1959, uma das teorias fundamentais para o desenvolvimento da CGI
e que mais contribuiu com a adoção, em alta escala, desta tecnologia computacional foi
apresentada numa tese de pesquisa acadêmico-científica.
Em 1962, surgiu uma das mais importantes publicações da computação gráfica de
todos os tempos, a tese de Ivan Sutherland (Sketchpad – A Man-Machine Graphical
Communication System), introduzindo as estruturas de dados para armazenamento de
hierarquias construídas através da replicação de componentes básicos, bem como
técnicas de interação que usavam o teclado e caneta ótica das indústrias
automobilísticas e aeroespaciais americanas. Os conceitos de estruturação de dados,
bem como o núcleo de computação gráfica interativa, levaram a General Motors a
desenvolver em 1965 o precursor dos programas de CAD (Computer Aided Design).
Logo depois, diversas outras grandes corporações americanas seguiram esse exemplo
sendo que, no final da década de 1960, praticamente toda a indústria automobilística e
aeroespacial utilizava softwares de CAD (AZEVEDO e CONCI idem p.4-5).
A partir da década de 1980, o avanço das tecnologias de computação gráfica e da
ciência da computação possibilitou o surgimento de teorias e técnicas essenciais ao uso de
CGI tais como “iluminação global com o ray-tracing (1980) e a radiosidade (1984),
aproximando as imagens geradas por computador do fotorrealismo”. (idem, ibidem).
Explica Wilson Paula Filho (2000 idem p. 183) que a técnica de radiosidade
“considera as trocas de energia difusa entre os objetos de cena, que são calculados por
modelos termodinâmicos. O cálculo da radiosidade é extremamente pesado, porque as
superfícies têm que ser divididas em pequenas áreas elementares, e a influência mútua entre
cada par de áreas elementares tem que ser determinada. Entretanto, o cálculo independe da
posição do observador e, portanto, não precisa ser repetido quando este se move.” A técnica
de ray-tracing ou de rastreamento de raios, ainda hoje é uma das mais utilizadas e,
241
242
Massachusetts Institute of Technology.
Nessa época Verne Hudson coordenava um projeto de simulação de fatores humanos em aviões para a
Boeing.
177
diferentemente de modelos físicos de iluminação que consideram as propriedades físicas dos
objetos e das fontes de luz, consiste em modelo onde:
Os raios de luz são percorridos em sentido inverso, partindo do observador,
caminhando rumo às fontes de luz, obedecendo às leis da reflexão e refração. O
cálculo é complexo porque depende da computação das interseções de todos os raios
com todos os objetos em cena, e porque as refrações e reflexões multiplicam o número
de raios. (PAULA FILHO, ibidem).
Um outro fato importante para a computação gráfica foi o desenvolvimento do
software OpenGL em 1992, pela empresa americana Silicon Graphics.
OpenGL (Open Graphical Library) pode ser definida como uma interface de software
(API-Aplication Program Interface) para aceleração de programação de dispositivos
gráficos, com aproximadamente 120 comandos para especificação de objetos e
operações necessárias para a produção de aplicações gráficas interativas 3D. Na
verdade, podemos classificá-la como uma biblioteca de rotinas gráficas para
modelagem 2D ou 3D, extremamente portável e rápida, possibilitando a criação de
gráficos 3D com excelente qualidade visual e rapidez, uma vez que usa algoritmos
bem desenvolvidos e otimizados pela Silicon Graphics. (AZEVEDO e CONCI, idem
p. 4-5).
Não se trata, portanto, de uma linguagem de programação e sim de bibliotecas que
podem ser usadas por diversas linguagens de programação (C++, Java, Ada, Pyton, Pearl,
Delphi e Visual Basic entre outras) e que podem operar em diversos sistemas operacionais,
dentre eles Windows, Mac OS X e Linux. Com o OpenGL243 a tecnologia de computação
gráfica tornou-se altamente portável, escalável e é utilizada para as mais variadas aplicações,
como observaram Azevedo e Conci (idem p. 26).
Os principais fabricantes de PC e supercomputadores como SGI, Cray Research,
Compaq, Fujitsu, Hewlett-Packard, Hitachi, IBM, Intel, Microsoft, Mitsubishi, NEC,
243
A biblioteca OpenGL vai além do desenho de primitivas gráficas, tais como linhas e polígonos, dando suporte a
iluminação, sombreamento, mapeamento de textura e transparência. As diversas implantações das bibliotecas do
OpenGL (para Microsoft, Mac OS X e Linux, por exemplo) podem ser baixadas direta e gratuitamente do site oficial
www.opengl.org. Bibliotecas adicionais e documentação completa podem ser obtidas em reality.sgi.com
178
Samsung, Siemens-Nixdorf, Sony e Sun Microsystems adotaram OpenGL como uma
estratégia de padrão aberto para hardware gráfico. Suas aplicações variam de
ferramentas CAD a jogos e imagens médicas ou programas de modelagem usados para
criar efeitos especiais para televisão e cinema [...].
Outra tecnologia de software a destacar é a Realidade Virtual, que tem por objetivo
apresentar ambientes virtuais de modo que se assemelhem o mais possível a um ambiente
real.
Sistemas de realidade virtual levam ao extremo a tecnologia de multimídia: modelos
tridimensionais, animação e som especializados são combinados com tecnologias
avançadas de dispositivos gráficos de entrada e saída para aperfeiçoar a ilusão de
realidade. Os sistemas de realidade virtual mais avançados são imersivos, isto é,
envolvem completamente a visão, a audição e, possivelmente, o tato do usuário […].
(PAULA FILHO, idem p.183).
O formato de arquivo mais conhecido para representação de dados de Realidade
Virtual é o estabelecido pela VRML - Virtual Reality Modeling Language, anteriormente
conhecido por Virtual Reality Markup Language, desenvolvido em novembro de 1994
visando sua utilização na World Wide Web, e que é muito parecido com um formato de
arquivo definido pela Silicon Graphics.
Em 1997, foi lançada a versão VRML 97 (ou VRML 2) e esta versão foi adotada
como padrão pela ISSO - Internacional Standard Organization. Desde a década de 1990,
após o surgimento dos PC e das estações de trabalho, a ciência da computação e a indústria de
tecnologia da informação – TI têm desenvolvido constantemente inúmeros modelos
matemáticos e tecnologias com o objetivo de trazer cada vez mais recursos aos softwares de
computação gráfica 3D. Modelos matemáticos cada vez mais sofisticados e complexos
tornaram possível modelar objetos e cenas gráficas 3D com atributos variados de Coloração,
texturas, rugosidade, transparências, reflexos, sombras e outros.
Ainda na mesma década, a computação gráfica 3D extrapolou os campos da
aplicação Industrial e WEB e consolidou-se como tecnologia madura para uso na produção de
efeitos especiais visuais “com imagens impressionantes como no filme Jurassic Park, em
1993 […] nas cenas de movimentos dos dinossauros” (AZEVEDO E CONCI, idem p.5).
Outros marcos evolutivos importantes foram a utilização de um personagem
computadorizado no filme o Exterminador do futuro 2 e a produção de Toy Story, o primeiro
longa metragem totalmente produzido em desenho animado 3D, em 1995.
179
No limiar do século XXI, de filme em filme, novos desafios para tornar realistas
imagens gráficas 3D foram sendo vencidos. Conforme ressaltam Azevedo e Conci (idem p.56): “Em 2001, são lançados diversos sucessos de bilheteria, como Shrek (Dreamworks), com
novos métodos de síntese e animação de personagens, e Final Fantasy, o triunfo da
modelagem de personagens 3D; também não podemos deixar de citar Matrix Reloaded, com
personagens virtuais sendo usados, dentre outras coisas, para cenas de risco.”
Wayne Carlson, professor de computação gráfica da Ohio State University, em seu
curso A Critical History of Computer Graphics and Animation244 demonstra o envolvimento
de centenas de entidades e pessoas, norte-americanas, européias e asiáticas que contribuíram
com o desenvolvimento das tecnologias CGI. Em seu site, Carlson explicita o nome de
algumas das mais importantes universidades245, laboratórios de pesquisa246, produtoras de
filmes247, companhias248 e indivíduos249 - cientistas e artistas – espalhados por vários
continentes e que, de algum modo, contribuíram para que atingíssemos o atual estágio de
desenvolvimento tecnológico de CGI.
Se você puder imaginar algo, isso pode ser gerado com a computação gráfica. A
computação gráfica está a um passo de um mundo novo, repleto de aplicações, ainda
desconhecidas, e muitas oportunidades de trabalho para designers, modeladores,
animadores, iluminadores e programadores. […] Para isso, foram criadas […]
ferramentas SDK (Software Development Kit) capazes de simular fenômenos físicos,
244
Disponível em design.osu.edu/ carlson/history/ID797.html
245
Dentre as universidades encontram-se: Massachusetts Intitute of Technology, The Ohio State University,
University of Utah, New York Institute of Technology, Cornell University, California Institute of Technology,
Brown University, University of Illinois - Chicago Circle, Texas A&M University, Ringling School of Art and
Design , University of North Carolina - Chapel Hill, North Carolina State University, Hiroshima University,
Technical University of Berlin e dezenas de outras
246
Dentre os laboratórios foram destacados Bell Labs, Lawrence Livermore Labs, Jet Propulsion Laboratory,
National Research Council of Canada e Xerox PARC.
247
Dentre as Produtoras destacam-se MAGI, Robert Abel and Associates, III, Digital Effects, Cranston/Csuri
Productions, Digital Productions, Pacific Data Images (PDI), Industrial Light and Magic (ILM), Pixar, Bo
Gehring and Associates, Santa Barbara Studios, Universal Studios, Omnibus Computer Graphics, Metrolight,
JCGL, Rhythm and Hues, Sony Pictures Imageworks, R/Greenberg, Blue Sky, Xaos, Sogitec, Kroyer Films,
Rez.n8, Boss Films, Lamb & Co. e DeGraf/Wahrman.
248
Dentre as companhias estão Boeing, General Motors, Evans and Sutherland (E&S), Toyo LINKS (Japan),
Wavefront Technologies, Alias Research, Alias/Wavefront, Side Effects, Autodesk/Kinetix/Discreet, Softimage,
Ikonas Graphics Systems, Trancept Systems, Interactive Machines, Inc., Apple Computer, Microsoft e muitas
outras.
249
Dentre os indivíduos foram destacados John Whitney, Sr., Jim Blinn, Nelson Max, Turner Whitted, Loren
Carpenter, Yoichiro Kawaguchi, Melvin Prueitt, Chuck Csuri, Karl Sims, Chris Landreth, Wayne Lytle, Paul
Debevec, Larry Cuba, David Em, Craig Reynolds e Lillian Schwartz.
180
facilitar a criação de cenários, entre outros infinitos recursos que podem ser criados
por qualquer pessoa e acoplados à engrenagem do SDK sob a forma de plug-in.
(AZEVEDO E CONCI, idem p. 8).
Mesmo ao considerarmos somente os softwares CGI aplicados à criação de produtos
para televisão e cinema, ainda assim, é uma tarefa difícil fazer comparação entre eles porque,
independentemente de sua aplicação, todos esses softwares, utilizando-se de modelos e
técnicas variadas, disponibilizam recursos de computação gráfica para representação e
modelagem, cores, animação, realismo visual e iluminação, e simulação de física real –
esqueletos, partículas e fluídos. Uma dificuldade adicional é assegurar que os resultados das
comparações possam ser entendidos por pessoas que possuam pouco domínio de TI, embora
sejam usuários ou conheçam os softwares disponíveis no mercado. Com o objetivo de facilitar
a compreensão acerca da comparação feita entre os softwares estudados tomamos por base o
quadro comparativo publicado no site TD T3D The Dream Team, citado no início do capítulo
4. Um das justificativas para considerarmos o modelo do quadro comparativo de Benoît SaintMoulin confiável está no fato de o termo artista – que designa o artista da computação gráfica
– não ser o mesmo aplicado ao artista convencional, conforme explicam Azevedo e Conci
(idem p. 3):
A computação gráfica é matemática e arte. É uma ferramenta de concepção de arte,
assim como o piano ou o pincel. Esta ferramenta proporciona um maior poder de
abstração, ajudando na criação de imagens complexas e em muitos casos não
imaginadas. A relação entre luz, tempo e movimento constitui a base desta que poderia
ser classificada como uma arte tecnológica. A computação gráfica pode ser encarada
como uma ferramenta não convencional que permite ao artista transcender das
técnicas tradicionais de desenho ou modelagem. Imagens que exigiriam do artista o
uso de técnica apurada de desenho podem ser geradas mais facilmente com o auxílio
de softwares. As ilustrações que usam técnicas de radiosidade ou caustic são belos
exemplos. Nesses casos, as representações das sombras são extremamente difíceis de
serem desenhadas à mão. Com o uso do software, o artista precisa ter apenas a ideia e
deixar a parte complexa por conta da máquina. Contudo, esses softwares exigem certo
nível de conhecimento e treinamento que forçarão os artistas a uma complementação
do estudo das técnicas de desenho tradicional, com a teoria da computação gráfica e
matemática.
A credibilidade das informações publicadas no site TD T3D The Dream Team
aumenta na medida em que a filosofia do site está baseada em abertura (transparência) e
181
compartilhamento de informação com qualidade de conteúdo e acesso a todos. “Aberto, livre
e irrestrito, é um intercâmbio comunitário onde qualidade, conhecimento, aprendizagem,
críticas, amadores e profissionais estão chegando”, afirma seu fundador Benoît SaintMoulin250, que ao apresentar as conclusões das comparações que realizou e postou no site em
novembro de 2007251teceu os seguintes comentários acerca de seu problema, metodologia e
conclusões:
Se você quisesse começar na criação 3D hoje, você provavelmente precisaria saber
com qual pacote de aplicação 3D você se sentiria melhor e qual seria mais adequado
para seu negócio. Muitos artistas CG testam muitos softwares antes de efetivamente
iniciar seus negócios, essa é sem dúvida a melhor solução para experimentar e saber se
você se sente mais confortável com um que com outro, mas se você não puder
conhecer todos os aspectos de todos os softwares 3D quando iniciar… Aqui está uma
tabela comparativa com prós e contras para as mais conhecidas e principais aplicações
das principais indústrias 3D. Esta tabela não pretende estar completa com todas as
funcionalidades disponíveis, mas tenta envolver as tarefas comuns dos artistas 3D de
hoje. Todos os softwares foram profundamente testados durante um total de
aproximadamente 12 meses, durante 12 meses eu instalei todas as versões e pacotes de
serviço (educacional, aprendizagem pessoal (PLE) e completo) e procurei utilizar
todos os softwares listados para realizar o mesmo trabalho quando criei os projetos
para meus alunos, tais como (movimento, realtime, Mag.Print, arquitetura, lowpoly,
texturização, ...). Utilizei todas essas aplicações 3D quando trabalhei para empresas na
área de CG, hoje é relativamente fácil trocar de uma para outra e tenho um bom
sentimento com interfaces de software […] claro que é sempre uma tarefa longa e
dolorosa trocar, mas quando você aprendeu 2 ou mais pacotes de aplicações 3D as
funcionalidades técnicas são sempre as mesmas, o mais difícil é saber onde encontrálas! Como agora sou professor/ educador de CG, sempre digo aos meus alunos que o
mais importante não é o software, mas a compreensão técnica e que um triângulo
sempre terá … 3 vértices: -) como no Autodesk 3ds max, NewTek LightWave, Blender
[...] Cada aplicação 3D é boa [...], hoje todos os pacotes 3D podem realizar todos os
seus sonhos, você tem que ter ideias para fazer [...]252.
Em sua análise, Saint-Moulin confirma a participação de inúmeros outros artistas e
pesquisadores ao agradecer às colaborações recebidas.
Primeiro, agradeço a todos os profissionais e geeks 3D que releram meu trabalho e me
deram muitos feedbacks! Artistas que leram este artigo são de muitas áreas diferentes
de CG e de vários países diferentes (Bélgica, França, Alemanha, Suécia, USA,
Vietnam,...) e todos utilizaram mais de uma aplicação 3D antes de mergulhar em
250
www.bsm3d.com
251
Última atualização realizada em 27 de março de 2008.
252
Tradução livre.
182
negócios. Também mantive contatos (telefone ou e-mail) com pessoas (2 ou 3
normalmente) que trabalhavam em cada companhia do software listado para evitar
erros, Eu solicitei conhecimentos sobre funções, algumas vezes SDK, discuti sobre
problemas comuns de importação e exportação, ergonomia de interface, parâmetros,
ajustes finos… As aplicações testadas foram pacotes básicos com baixo custo para
iniciantes em 3D, evidentemente muitos softwares listados tem versões de produções
de maior nível disponíveis!
Saint-Moulin também informa com detalhe, no site253, quais critérios adotou para a
realização dos testes com os softwares 3D. Embora tenha apresentado resultados dos testes
para os softwares 3D Studio Max, Maya, Blender 3D, Luxology Modo 301, Cinema4D,
Lightwave e Softimage Foundation, reestruturamos os quadros apresentados por Saint-Moulin
em 6 novas tabelas, envolvendo somente as variáveis dos softwares relativos à nossa pesquisa,
ou seja, o Maya utilizado na UMESP e o Blender 3D na ESEEI. Conforme apresentadas a
seguir.
A primeira variável apresenta os dados gerais; a segunda, plataformas de operação; a
terceira variável, tipos de aplicação suportada pelos softwares; a quarta, funcionalidades
operacionais dos modeladores; a quinta, sistema de rendering; a sexta suporte a formatos de
arquivos vetoriais 3D (importação/exportação).
Tabela 1. Categoria 3. Dados Gerais
SOFTWARE TIPO DE LICENÇA
Maya
Blender 3D
Proprietária
GPL
MODALIDADE
FABRICANTE
OU
DESENVOLVE
DOR
VERSÃO
ANALISADA
CUSTO
Computação gráfica
3D
8.5
(2009)
U$ 1.925
Autodesk
Computação gráfica
3D
Comunidade
Blender. org
2.45
(2008)
Livre
O destaque da tabela 1 se refere ao custo dos softwares. O Blender pode ser livremente
instalado e utilizado, sem nenhum custo.
253
www.tdt3d.com/articles_viewer.php?art_id=99
183
Tabela 2. Categoria 3. Plataformas de Operação
SOFTWARES
WINDOWS
MAC OS X
UNIX254
Maya
Não
Sim
Sim
Blender
Sim
Sim
Sim
Quanto às variáveis plataformas de operação, a tabela 2 mostra a total portabilidade e
escalabilidade do software Blender 3D. Inclusive para o sistema Windows.
Tabela 3 – Categoria 3. Tipos de Aplicação Suportada pelo Software
SOFTWARE
APLICAÇÃO
MAYA
BLENDER
Visualização (VIZ)
Sim
Sim
Design
Sim
Sim
Filme
Sim
Sim
Efeitos /Movimento
Sim
Sim
Games
Sim
Sim
Web Design
Sim
Sim
3D Realtime / VR
Sim
Sim
A tabela 3 mostra que o Maya e o Blender apresentam funcionalidades equivalentes
quando se trata de aplicações de games e produção de filmes. Segundo Saint-Moulin o
Blender 3D possui recursos exclusivos para escultura 3D em tempo real e para edição de
vídeo. Como desvantagens são atribuídas ao Blender 3D pouca documentação sobre software.
Enquanto o tempo necessário ao aprendizado do Maya é apresentado como sua principal
desvantagem.
254
Unix – é nome da plataforma de sistema operacional a qual pertencem sistemas operacionais como Linux,
BSD, Irix (Silicon Graphis) entre outros.
184
Tabela 4. Categoria 3. Funcionalidades e Recursos dos CGI
SOFTWARE
ATRIBUTOS
AUTODESK MAYA
BLENDER 3D
Animation tools (Ferramentas de animação)
Sim
Sim
Uvtools (Recursos para CAD e Arquitetura)
Sim
Sim
Painting (pinturas)
Sim
Parcial
Modeling (modelagem)
Sim
Sim
Modifiers (modificadores)
Sim
Sim
( Non-uniform rational B-spline)
Sim
Parcial
Dynamics / Rigid bodies (corpos rígidos e
dinâmicos)
Sim
Sim
Soft bodies (corpos moles)
Sim
Sim
Hairs (cabelos)
Sim
Sim
Cloths (roupas)
Sim
Sim
Particles (partículas: fogo, neve, etc)
Sim
Sim
Fluids (fluídos)
Sim
Sim
Compositing (composição)
Não
Sim
Nodes-Based Workflow (fluxo de trabalho em
nós)
Sim
Não
Nodes-Based Materials (materiais em nós)
Sim
Sim
Nodes-Based Compositing (composição em nós)
Não
Sim
CG shader / Games (sombreamento)
Sim
Sim
Scripting (Linguagem de programação textual)
MEL, Python, C, C++
Python, C, C++
Vue 6 XStream (paisagens realistas)
Sim
Não
NURBS
255
Os dados da tabela 4 demonstram poucas diferenças entre os dois softwares. Ambos
possuem recursos para CAD e arquitetura; modelam corpos rígidos, dinâmicos e moles;
cabelos, roupas e fluídos. Tratam partículas; possuem recursos para iluminação e animação.
No quesito composição e escultura 3D em tempo real somente o Blender dispõe de tal recurso
baseado em nós – Nodes-Based Workflow. O Blender trabalha parcialmente com NURBS e
não disponibiliza plug-in para a produção de paisagens realistas criadas com a técnica Vue 6
XStream. No quesito pinturas é inferior ao Maya que possui o recurso exclusivo Paint FX.
Tanto o Maya quanto o Blender 3D permitem a inclusão de programas escritos em Python.
255
NURBS - Non-uniform rational B-spline é um modelo matemático usado em computação gráfica para gerar e
representar curvas e superficies irregulares.
185
Tabela 5. Categoria 3. Sistema de Rendering
SOFTWARE
FUNCIONALIDADES
AUTODESK MAYA
BLENDER 3D
Rendering interno
(processo de gerar uma imagem a partir de um
modelo)
Sim
Sim
Quality plug-in (plug-in de qualidade)
Vray256/ Mental Ray 257
Yafray258/Indigo259
Textures Baker (produtor de textura)
Sim
Sim
HDRI (High Dynamic Range Images)
Sim
Sim
O processo de rendering pode ser interpretado como um processo de converter
dados em imagem realística, ou, simplesmente um processo de sintetizar um objeto ou cena
até que ele tenha aparência de algo real, e não de forma criada inteiramente em computador.
Este processo envolve tanto aspectos de iluminação com aplicação de ray-tracing – técnica de
rastreamento de raios, quanto sombreamento e aplicação de texturas. No Blender 3D a
iluminação baseada em HDRI de imagens pode ser utilizada em conjunto com o Yafray para
armazenar a iluminação presente no momento da criação. Vray, Yafray/Índigo são plug-ins
incorporados aos respectivos softwares.
256
V-ray é um software de renderização desenvolvido pela Chaos Group. Este mecanismo de renderização é
dedicado a softwares proprietários de modelagem como o 3D Studio Max. Para o ambiente software livre existe
o YafRay, dedicado ao Blender. http://pt.wikipedia.org/wiki/V-Ray.
257
O Mental Ray foi produzido pela Mental Studios, e é disponibilizado com o software 3D Studio Max e outros
programas da área. Foi criado com o propósito de gerar renderizações capazes de simular perfeitamente efeitos
de luz, reflexões, caustica, utilizar shaders (texturas) especiais como o SSS skin que simula a pele humana e um
outro recurso especial que se chama scatter que traz mais realismo a textura. Disponível em
http://imasters.uol.com.br/artigo/4200/3dsmax/mentalray_occlusion/.: Juca Duarte, 13/06/2006. Seções
relacionadas: 3ds max.
258
YafRay (Yet Another Raytracer Livre) é um plug-in multiplataforma GPL desenvolvido por Alejandro Conty
para renderizar cenas. Foi recentemente integrado ao Blender e pode ser utilizado para desenhar cenas feitas
diretamente com este software, sem a necessidade de exportá-las. Disponível em: www.yafray.org.
259
Indigo Renderer é um renderizador GPL - gratuito para uso comercial e uso não-comercial, que emprega
recursos avançados de física, tais como simulação de luz espectral.
186
Tabela 6. Categoria 3. Suporte a Formatos de Arquivos Vetoriais 3D
(Importação/Exportação)
SOFTWARES
TIPO DE EXTENSÃO
AUTODESK MAYA
BLENDER 3D
Sim
Sim
COLLADA260
(padrão de exportação e importação de arquivos)
Sim
Sim
FBX
Sim
Sim
Sim
Sim
VRML / X3D261
(Linguagem para modelagem de realidade virtual)
VRML 2
VRML 1 E 97
Point Oven
Sim
Sim
Sim
Parcial
STL262
Sim
Sim
Composição de Saída
Sim
EXR
3D
(3 dimensões)
(Formato de arquivo .Fbx)
OBJ
(linguagem de programação)
(conjunto de plug-ins)
DXF
(Formato de intercâmbio de desenhos)
Os dados da tabela 6 demonstram portabilidade total entre os dois softwares, isso
significa que CGI 3D produzidos pelo Blender podem ser transportados para os mesmos
visualizadores ou softwares de computação gráfica 3D proprietários. A parcialidade
apresentada no formato DXF (formato de intercâmbio de desenhos) está relacionada ao fato
desta extensão contemplar arquivos CAD enquanto o Blender contempla mais arquivos para
computação gráfica de entretenimento, e não técnica. Concluímos está análise afirmando que,
principalmente nesta categoria de software, o Blender 3D é um ótimo recurso para produção
de CGI3D. É particularmente interessante para a produção de jogos em tempo real. Sua
260
COLLADA (abreviação do inglês para COLLAborative Design Activity) é um padrão de exportação e
importação de arquivos criado pela Sony e usado como padrão para o console Playstation 3. É suportado pelos
melhores editores 3D do mercado, como Blender (software livre), 3D Studio Max e Maya. O formato utiliza
XML como padrão e suporta além de modelos detalhados, animações e iluminação. Disponível em:
http://pt.wikipedia.org/wiki/COLLADA.
261
X3D é a norma ISO baseado em formato de arquivo XML para representar computação gráfica 3D, é o
sucessor do Virtual Reality Modeling Language (VRML).
262
STL é um formato de arquivo nativo à estereolitografia CAD, criado pela 3D Systems. Arquivos STL
descrevem apenas a superfície de uma geometria tridimensional do objeto, sem qualquer representação de cor,
textura e outros atributos comuns ao modelo CAD. Disponível em: en.wikipedia.org/wiki/STL_(file_format).
Acesso em 10/07/08.
187
interface adota enorme variedade de idiomas263, inclusive o português, que podem ser
trocados durante o uso do software. Embora a utilização do Blender 3D seja baixa a
tecnologia de base é bastante moderna e leve. Para ser ter uma ideia, o instalador do Blender
3D requer somente 8 mega-bytes e o produto instalado 27 mega-bytes, comparados com os 2
gigabytes utilizado pelo Autodesk 3D Smax.
O crescimento do Blender 3D está levando muitos artistas a publicarem suas
experiências e conhecimentos. A comunidade Blender 3D é muito ativa e prestativa no
esclarecimento de dúvidas e notificação de problemas. No sites de comunidades Blender 3D
os artistas encontram espaço para participação nos fóruns e postagem dos trabalhos e
experiências que realizam, a exemplo do que ocorre com o site Blender Brasil, mantido pelas
Faculdades ESEEI.
4.4. COMPARAÇÃO ENTRE SOFTWARES EDITORES DE IMAGEM MATRICIAL
OU RASTER
As imagens denominadas matriciais ou raster264 são aquelas imagens representadas
internamente por uma matriz de pixel. A palavra pixel significa a aglutinação de Pix –
abreviatura da palavra picture (imagem em inglês) – e Element. Um pixel é, portanto, o menor
elemento a compor uma célula de uma matriz de imagem. Na matriz de pixel estão
codificados os atributos da imagem tais como cor, brilho, contraste etc de cada célula da
matriz. O valor de um pixel, sua cor, por exemplo, pode ser representado por um ou mais bits
em um arquivo bitmap – mapa de bits em inglês. Caso o pixel seja representado por um único
bit, o conteúdo daquele ponto da matriz onde o pixel está localizado poderá ter somente os
valores branco ou preto. Para representar mais cores cada pixel é composto por um maior
número de bits de modo que a combinação dos bits forma cores variadas, por exemplo, caso o
263
Dentre as quais Inglês, Finlandês, Turco, Chinês, Tailandês, Sueco, Espanhol, Russo, Polonês, Japonês,
Italiano, Alemão, Francês, Checo, Português.
264
Imagens raster (ou bitmap, mapa de bits) são imagens que contêm a descrição de cada pixel, em oposição aos
gráficos vetoriais.
188
pixel seja composto por dois bits265 será possível representar até quatro cores.
Quanto maior for uma imagem, maior será o número de pixels necessários para
compô-la e, portanto, maior será o tamanho do bitmap. Entretanto, um dos problemas das
imagens matriciais é que quando são ampliadas na tela do computador perdem qualidade, pois
cada ponto da imagem – pixel – é transformado em blocos maiores o que distorce a imagem.
Wilson de Pádua Paula Filho (2000, p. 129) explica que no caso das imagens raster
“os formatos de imagens sempre partem da representação destas como um arranjo retangular
de pixels”, e que a quantidade de pixels utilizada em cada polegada da imagem, ou seja, a
resolução ou DPI – Dots Per Inch (pontos por polegada) – é determinante na qualidade da
imagem e na quantidade de espaço necessário para armazená-la em um arquivo digital.
Um modo de diminuir os requisitos de espaço das imagens raster em arquivos
digitais é utilizar formatos de arquivos que comportem codecs e compressores, pois imagens
de alta resolução e com ampla variedade de cores podem ocupar até vários megabytes de
espaço em arquivos digitais. Mas na maioria dos casos, afirma Paula Filho, (idem p. 136)
“pode-se conseguir grande redução do tamanho dos arquivos através das técnicas de
compressão de imagens estáticas.”
Portanto, a escolha de um formato de arquivo envolve um conjunto de variáveis,
entre elas o número de cores e a resolução que o formato suporta; o grau de compressão
utilizado e fatores de perda de qualidade; adequação aos dispositivos de representação nos
quais as imagens serão apresentadas; e, não menos importante, a aderência a codecs e
compressores com padrões estabelecidos, quer por negociação da indústria de software ou por
imposição comercial. Os processos de compressão podem ser de dois tipos: no primeiro não
existe perda de qualidade na imagem comprimida e no segundo a compressão dos arquivos é
feita com redução da qualidade das imagens. Portanto, a qualidade ideal das imagens está
condicionada às exigências da visão humana e pela capacidade técnica e viabilidade
econômica dos dispositivos que irão representar as imagens, como nos demonstra Paula Filho
(idem, p. 111):
O campo visual humano corresponde a uma matriz de cerca de 3.000 X 3.000 pixel.
265
No caso de dois bits cada bit pode representar duas variareis zero ou um, permitindo, portanto, 22. Se o pixel
for composto por 4 bits será possível representar 24 (2x2x2x2) ou seja 16 cores.
189
Os filmes fotográficos apresentam resoluções maiores do que isso, pois a ilusão de
participação requer a inclusão da visão periférica e da visão devida a movimentos de
cabeça. A resolução dos monitores de televisão e de computadores, por outro lado, tem
sido bem menor, devido aos custos elevados de sistemas de resolução mais alta. A
televisão comum (NTSC ou PAL-M) tem resolução aproximadamente equivalente a
512X480 pixel (512 colunas por 480 linhas). Os sistemas de televisão de alta definição
(HDTV) se situam em torno de 2.000 X 1.100.
Além da capacidade da visão humana o tamanho do dispositivo no qual a imagem
será exibida ou impressa, normalmente medida em polegadas (inch), e a quantidade de pontos
(preenchida com pixel) presentes em cada polegada são outras variáveis essenciais para
definição do tamanho e da qualidade das imagens. Nesse sentido, a qualidade de uma imagem
será tanto maior quanto maior forem os números de pontos por polegada, por permitir maior
gradação dos atributos da imagem.
Nos pixels são apresentadas as cores e, portanto, o sistema empregado para
representar as cores nos pixels adquire grande importância. Os sistemas de cores, por sua vez,
envolvem dois aspectos: os sistemas de representação das cores e os sistemas de codificação
de cores. Paula Filho (idem p. 111) explica que as cores representadas nos sistemas são
resultados de composições de luzes que enxergamos como resultado de processos de emissão,
reflexão, refração, difusão e absorção de luzes com variadas freqüências espectrais. Por outro
lado, observa o autor, nem toda a faixa espectral é visível ao olho humano, pois:
A visão humana enxerga a luz de comprimento de onda situado entre 400 e 700
nanômetros266. As luzes desta faixa são percebidas como cores espectrais, ou cores do
arco-íris. Tradicionalmente, diz-se que as cores espectrais vão do violeta ao anil, azul,
verde, amarelo, alaranjado e vermelho embora essa variação na realidade seja
contínua. As faixas de maior sensibilidade do olho humano correspondem
aproximadamente ao verde (principal), ao vermelho (um pouco menos) e ao azul (bem
menos). (PAULA FILHO, ibidem).
Assim, explica o pesquisador (ibidem), todas as cores que enxergamos “são
percebidas de forma quase equivalente à mistura de no máximo três cores básicas” –
vermelho (red), verde (green) e azul (blue) – e é por esse motivo que a representação de cores
em imagens digitais exige especificações rigorosamente estabelecidas em sistemas ou
266
1 nanômetro = 10 -9 m.
190
modelos de cores, de modo a assegurar sua constância. Para representar as cores em imagens,
tanto digitais como analógicas, são utilizados basicamente quatro sistemas de cores: Aditivo;
Subtrativo; HLS acrônimo de hue-luminance-saturation, ou seja, sistema de composição de
cores com base em matiz, luminosidade e saturação de uma ou várias imagens de uma vez; e,
CIE – Commission Internationale d'Eclairage.
O sistema aditivo é um dos mais utilizados principalmente em sistemas que projetam
imagens, tais como monitores de televisão e computadores, como explicam Eduardo Azevedo
e Aura Conci na obra Computação Gráfica (2003 p. 191):
É o sistema usado nos monitores de vídeo e televisão, no qual a cor é gerada pela
mistura de vários comprimentos de onda luminosa provocando uma sensação de cor
quando atinge e sensibiliza o olho. As cores primitivas aditivas do sistema RGB são:
vermelho, verde e azul. No processo aditivo, o preto é gerado pela ausência de
qualquer cor, indicando que nenhuma luz está sendo transmitida; o branco é a mistura
de todas elas, o que indica que uma quantidade máxima de vermelho, verde e azul está
sendo transmitida.
No sistema RGB, portanto, outras cores podem ser obtidas pela adição de
combinações proporcionais das luzes primárias, e isso o torna adequado à representação de
imagens em dispositivos que operam por emissão de luzes por raios catódicos, como é o caso
dos monitores de televisão e de computadores.
O segundo sistema – subtrativo – faz uso das cores secundárias, ou seja, o cian
(turquesa), o magenta (púrpura) e o yellow (amarelo) que são as complementares das cores
primárias RGB, e é conhecido como CMY (cian-magenta-yellow).
É um processo usado nas impressoras e pinturas. Uma é diferente de um monitor que
por ser uma fonte de luz, pode criar cores. As cores primárias do sistema CMY para
objeto sem luz própria são: ciano; magenta e amarelo; são cores primárias subtrativas,
pois seu efeito é subtrair, isto é absorver alguma cor da luz branca. Quando a luz
branca atinge um objeto ela é parcialmente absorvida pelo objeto. A parte que não é
absorvida é refletida, e eventualmente atinge o olho humano, determinando assim a
cor do objeto. O processo subtrativo altera a cor através de uma diminuição (da luz
incidente) dos comprimentos que são absorvidos. No processo subtrativo, o branco
corresponde à ausência de qualquer cor. E o preto é a presença de todas. (AZEVEDO
e CONCI 2003, p. 192).
Paula Filho (idem, p. 114) complementa a explicação sobre o funcionamento da
191
formação de cores secundárias, a partir da mistura de pigmentos para processos Coloridos de
impressão e fotografia:
Cada pigmento reflete apenas a cor que não absorve; assim um pigmento vermelho
será aquele que reflete apenas o vermelho e, portanto, absorve apenas o verde e o azul.
A combinação de pigmentos é subtrativa, porque a mistura de dois pigmentos reflete
apenas a luz que não é absorvida por nenhum deles. Os pigmentos básicos absorvem
apenas uma cor, cada um: o pigmento cian absorve a luz vermelha, o pigmento
magenta absorve a luz verde e o pigmento amarelo absorve a luz azul.
Na computação gráfica, particularmente, as imagens criadas ou editadas para
posterior impressão em impressoras Coloridas os sistemas RGB e CMY se complementam,
mas não permite transposição exata e precisa das cores. Para resolver este problema foi criado
o modelo CMYK, como esclarecem Azevedo e Conci (idem, p. 195):
O modelo CMYK é um modelo complementar ao modelo RGB, porém destinado a
produtos e dispositivos não emissores de luz, tais como impressoras. A composição da
cor ocorre similarmente ao modelo RGB, porém emprega as cores complementares
Ciano (C), Magenta (M), Amarelo (Y) e Preto (K). As cores complementares atuam na
luz incidente subtraindo desta as componentes RGB criando assim cores equivalentes
às produzidas por dispositivos emissores de luz.
O sistema HLS – hue-luminance-saturation se utiliza de três qualidades distintas das
cores matriz-luminância-saturação, propriedades da luz mais perceptivas e quantificáveis, do
ponto de vista da percepção humana.
A intensidade ou luminância mede a amplitude da vibração luminosa e, portanto, a sua
energia. A intensidade nula corresponde ao preto. [...] O matiz (hue) mede a qualidade
que distingue o azul do verde, do vermelho etc. Para cores espectrais, o matiz mede a
frequência dominante da vibração luminosa. [...] A saturação mede o grau de pureza
em relação à contaminação por outras cores. A mistura perfeita de cores é o branco,
que tem saturação zero. Para outras cores, a saturação pode ser entendida como a
quantidade de branco presente. Tons muito saturados são “brilhantes”, e tons pouco
saturados são 'pastel’. (PAULA FILHO, idem p. 115).
O sistema CIE complementa os três sistemas anteriores à medida que o RGB
funciona por emissão de luz, o CMYK por absorção de luz e o HLS é orientado para o
usuário humano, e em todos esses casos torna-se difícil definir com precisão as cores. O
192
sistema CIE é baseado em propriedades físicas de modo a possibilitar definição
fisicamente rigorosa. Conforme explica Ana Paula Ferreira de Carvalho267 (2001 p.
1228):
O Sistema CIE (Commission Internationale d’Éclairage) é um sistema de cores
proveniente de um consenso internacional e que tem sido empregado em estudos
radiométricos que visam à caracterização de solos. As equações de cores para dados
radiométricos em termos de vermelho, verde e azul para a visão humana envolvem
valores negativos, o que dificulta o seu modelamento. Com a adoção do sistema CIE
elimina-se a ocorrência de valores negativos. No entanto, é gerado um sistema virtual que
não traduz fidedignamente o comportamento do olho humano.
Paula Filho (idem p. 117-119) também explica que este é um sistema baseado em
três cores imaginárias e invisíveis, chamadas de X, Y e Z:
Estas cores são definidas de tal modo que qualquer cor visível possa ser expressa
como combinação linear268 dessas cores básicas. O espaço das cores é representado por
um sólido de aparência complexa. [...] O conjunto de cores que pode ser produzido a
partir de determinadas primárias é a gama do sistema. Quanto mais saturadas as
primárias, maior a gama. [...] A gama dos monitores profissionais é maior que a da TV,
o que significa que as cores mais saturadas produzidas em um sistema de computação
gráfica não serão aceitáveis pelos padrões de televisão, e poderão ser reproduzidos
como cores distorcidas. A gama da fotografia é maior que a gama dos monitores, que
por sua vez é maior do que a gama das várias técnicas de impressão.
Quanto à codificação de cores nos computadores, trata-se de utilizar bit's (Binary
Unit) para armazenar informações que permitam aos softwares tratar as imagens importadas e
exportá-las de modo adequado. O sistema de codificação de cores implica definir e empregar
uma quantidade adequada de bits para representar digitalmente a cor presente em cada pixel,
com base nas definições requeridas pelo sistema de cores escolhido. Uma boa explicação nos
267
Funcionária do INCRA Brasília, DF, Brasil. Docente do Departamento de Ecologia da Universidade de
Brasília (UnB)- Campus Universitário Darcy Ribeiro, Brasília, DF, Brasil em artigo intitulado Medição de Cor
de Imagens Hiperespectrais Aviris pelo Sistema CIE (Commission Internationale D’Éclairage). Anais X SBSR,
Foz do Iguaçu, 21-26 de abril de 2001, INPE, p. 1225-1232, Sessão Técnica Oral – Workshops. (mimeo).
Disponível: http://marte.dpi.inpe.br/col/dpi.inpe.br/lise/2001/09.20.17.35/doc/1225.1232.091.pdf Acesso em
10/10/08.
268
Soma ponderada com coeficientes positivos.
193
é apresentada por Paula Filho (2000 p. 119):
Em sistemas de cores primárias, é preciso prever a possibilidade de imagens formadas
por pontos que se distinguem apenas pela luminância, quaisquer que sejam a matiz e a
saturação. Isso ocorrerá em imagens onde existe predominância de matizes próximos;
em uma cena de floresta, por exemplo, predominam cores verdes de diferentes
luminâncias. Por isso é preciso prever 8 bits para a codificação de cada primária,
correspondendo à sensibilidade do olho humano, que pode distinguir 256 níveis
diferentes de luminância. Para um sistema de três primárias, isso dá um total de 24 bits
por pixel. Esses sistemas, chamados cor verdadeira, podem reproduzir cerca de 16
milhões de cores.
Atualmente, quase não encontramos dispositivos digitais ou analógicos capazes de
reproduzir imagens com a qualidade descrita acima. Para evitar problemas de representação,
por exemplo, ao deixar sem cor determinados pontos da matriz cujos pixels não possam ser
representados, os sistemas de códigos se valem do conceito de paleta.
Nestes sistemas, o conteúdo do pixel não é enviado diretamente ao monitor, e sim
como índice para uma tabela armazenada em uma memória especial. Dessa tabela é
retirado o valor que irá alimentar os monitores. Essa tabela é chamada paleta (palette)
ou tabela de cores (color look-up table). Com o uso da paleta, pode-se reduzir a
profundidade (tamanho em bits) do pixel, usando menos memória para o
armazenamento das imagens. (PAULA FILHO, idem p. 121).
Independentemente da profundidade do pixel ou da paleta, entretanto, a qualidade da
imagem sempre ficará condicionada aos recursos dos dispositivos de representação, e de
modo a minorar o impacto das diferenças pode ser empregado o recurso de dithering269 pontilhamentos que permitem criar transição de cores gerando imagens mais realistas em
diferentes modos de vídeo, e com diferentes paletas de cores.
269
Trata-se da técnica de simular as cores que não estão presentes na paleta de uma determinada imagem.
Funciona combinando pixels de diferentes cores que geram uma outra cor substituindo as ausentes. Disponível
no Glossário Hospedenet: www.hospedenet.com.br/info/Dithering.html - 17k. Acesso em 10/10/08.
194
Um caso comum é o de modos gráficos com pixels de 8 bits, que é o caso de
determinados VGA e superVGA270. Estes modos são capazes de reproduzir apenas 256
cores simultâneas. Essa limitação é aceitável em muitas aplicações de arte gráfica, de
projeto assistido por computador e de interface homem-máquina. As imagens
produzidas em sistemas de pixel de 8 bits normalmente não são realistas. Pode-se,
entretanto trocar resolução espacial por resolução de cores, representando-se cada
ponto da imagem por um grupo de pixels vizinhos (dithering). Essa técnica é
semelhante à representação utilizada nos textos impressos. Aproveita-se a limitação de
resolução espacial do olho humano, que tende a misturar as cores de pontos muito
próximos. (PAULA FILHO idem p. 120-121).
A profundidade do pixel, ou seja, a quantidade de bits utilizados para especificar sua
cor, também pode ser aproveitada para indicar níveis de transparência permitidos para a
imagem, recurso muito útil em processos de composição, como observou Paula Filho (2000 p.
121):
Numa composição com bit de transparência, se a imagem A for colocada sobre a
imagem B, cada pixel da imagem composta copiará o pixel correspondente de A, se
este for opaco, ou o pixel de B, se o pixel de A for transparente. Nos sistemas de 24
bits, quando usamos pixels de 32 bits, sobra um canal alfa de 8 bits, que permite
especificar 256 gradações de transparência. Isto permite realizar efeitos sofisticados de
combinação de imagens, muito utilizados em processamento de vídeo: títulos de alta
qualidade, misturas de imagens ao vivo com computação gráfica e efeitos de transição
entre imagens.
As imagens matriciais, formadas por arranjos de pixels distribuídos em uma matriz
de duas dimensões, podem representar somente imagens 2D. Com um número maior de bits a
representar um pixel, os sistemas de cores RGB, CMYK, HLS e CIE podem ser empregados
para representar milhões de cores do espectro visual humano.
Por último, a comparação entre softwares gráficos requer uma melhor compreensão
do papel dos dispositivos de entrada271 e saída, afinal, sem os mesmos, não teríamos como
270
Vídeo Graphics Adapter. Padrão de vídeo que suportava resolução de 640 x 480, com a exibição de 256 cores
simultaneamente, que podiam ser escolhidas em uma palheta de 262.000 cores. Super VGA, o padrão de vídeo
utilizado atualmente. Uma placa de vídeo SVGA é capaz de exibir 24 bits de cor, ou seja, vários milhões. Isto é o
suficiente para o olho humano não conseguir perceber diferença nas cores de uma imagem exibida no monitor e
de uma foto colorida, por exemplo. Justamente por isso, as placas de vídeo SVGA são também chamadas de
"true-color" ou "cores reais". Disponível em: http://www.guiadohardware.net/termos/s.html#super-vga-svga.
Acesso em 10/10/08.
271
Segundo Valverde (2008), são dispositivos típicos de entrada gráfica os teclados, posicionadores (mouse),
scanners, captador de quadros de imagens em movimento (frame grabber), capacetes (helmets) e luvas sensoras
(gloves) entre outros.
195
importar imagens analógicas para dentro dos computadores ou exportar e visualizar os
resultados das edições e modelagens das imagens digitais. As câmeras de TV e os VCR's são
importantes dispositivos para entrada de imagens em movimento, mas para isso devem estar
conectadas a frame grabbers – captador de quadros – capazes de converter sinais analógicos
de vídeo em sinais digitais. De acordo com Paula Filho (idem, p. 128-129):
Estes dispositivos requerem diversos tipos de circuitos de alta velocidade. Circuitos de
sincronização com a fonte do sinal de vídeo (genlock), para iniciar a amostragem do sinal
no instante correto. Conversor digital-analógico bastante rápido para cada canal de cor.
Devem ser de preferência de 8 bits, para melhor reprodução de cores. Circuitos de acesso
à memória de imagem, com velocidade suficiente para preenchê-la durante o tempo de
conversão de um quadro.
Os dispositivos de saída gráfica possibilitam ao ser humano ver as imagens criadas
ou modificadas no computador, e podem ser agrupados como dispositivos interativos ou
dispositivos de cópia permanente (hardcopy). Fazem parte dos primeiros os monitores de
tubos de raios catódicos para computadores e televisores; matrizes de dispositivos de cristal
líquido (LCD's); matrizes de diodos eletroluminescentes (LED's) e painéis de plasma.
Cada uma dessas tecnologias apresenta vantagens e desvantagens com relação às
outras, como mostra Paula Filho (idem, p. 122) ao afirmar que as tecnologias LCD, LED e
Plasma “apresentam a vantagem de peso e volume menores do que a dos tubos de raios
catódicos. No caso dos LCD’s apresentam, também, baixo consumo de energia. Para um
determinado nível de qualidade gráfica, entretanto, seu custo é bem superior, e há limitações
na reprodução de cores.”
Na categoria de dispositivos hardcopy – cópia permanente – encontramos as
impressoras; plotters; películas fotográficas; fitas magnéticas, discos magnéticos e óticos,
entre outros.
A partir das explicações apresentadas, para fazer a comparação entre os softwares
proprietários e livres de edição de imagens matriciais ou raster (bitmap) utilizados nos
cursos de Radialismo da UMESP e da ESEEI foram criadas cinco tabelas que apresentam,
cada uma, algumas variáveis fundamentais de cada software, são elas:
A primeira variável – Dados Gerais – descreve as características gerais dos
produtos de softwares. A segunda variável – Plataformas de Operação – se refere às
196
plataformas de sistemas operacionais nas quais os softwares podem ser operados. A terceira
variável – Funcionalidades Operacionais – mostra quais as operações os softwares
realizam, ou seja, quais funções ele desempenha quando se pretende processar imagens
matriciais ou raster em computadores. Sistemas de Cores é a quarta variável – e mostra a
capacidade dos softwares para Colorir, enriquecer ou melhorar as cores das imagens
matriciais ou raster. Por fim, a quinta variável – Suporte a formatos de arquivos (rasters) –
mostra os formatos nos quais os softwares podem salvar os arquivos de imagens matriciais
ou raster.
197
Tabela 1. Categoria 4. Dados Gerais
SOFTWARE
TIPO
LICENÇA
FABRICANTE OU
DESENVOLVEDOR
Adobe
Photoshop
Proprietário
Adobe Systems
Adobe.com
Color
Proprietário
GIMP
Livre
CinePaint
Livre
Apple.com
Apple Color
Comunidade GIMP
GIMP.org.
Comunidade CinePaint
Team
cinepaint.org
TIPO
VERSÃO
ANALISADA
CUSTO
Editor de
imagens
raster.
CS4 (11.0)
(2008)
US$ 699,00272
ou R$ 892,39
Editor de
vídeo e
tratamento de
cores
1.0.4
(2008)
Incluso no custo
do Final Cut
Editor de
imagem e
desenho
gráfico
2.6.2
(2009)
Livre
Editor de
vídeo
0.23
(2008)
Livre
As informações da tabela 1 da categoria quatro podem ser encontradas nos websites
dos desenvolvedores, fabricantes, distribuidores ou nas próprias embalagens dos softwares
citados. Como pode ser constatado, todos os softwares livre analisados têm versões
atualizadas e disponíveis para emprego em atividades de processamento de imagens
matriciais ou raster.
Quanto à questão relacionada ao pagamento de licenças, também podemos constatar
que por serem distribuídos com licença GPL estes softwares livres podem ser obtidos
diretamente da Internet através de download sem nenhum custo.
É importante novamente ressaltar que, muitas vezes, mesmo depois do pagamento da
licença para aquisição os usuários de softwares proprietários são chamados a pagar pelas
atualizações que utilizam para se beneficiar de sua evolução. No caso do Adobe Photoshop a
atualização de versão (upgrade) para quem já adquiriu uma versão anterior custa US$ 199,00
nos EUA conforme pode ser verificado no site do fabricante, citado na coluna custo da
referida tabela.
272
Disponível em: https://store1.adobe.com/cfusion/store/index.cfm. Acesso em 10/01/09.
198
Tabela 2. Categoria 4. Plataformas de Operação
SISTEMAS OPERACIONAIS
SOFTWARES
WINDOWS
MAC OS X
UNIX
Adobe
Photoshop
Sim
Sim
Não
Color
Não
Sim
Não
GIMP
Sim
Sim
Sim
CinePaint
Sim
Sim
Sim
Como pode ser observado na tabela 2, todos os softwares livres rodam nas
plataformas apresentadas. Esta informação nos permite concluir que não existe nenhuma
desvantagem para uso de tais softwares em relação aos proprietários analisados.
Esta variável é importante porque mostra as possibilidades de portabilidade e
escalabilidade dos softwares livres de processamento de imagens matriciais ou rasters.
Conforme já dissemos a portabilidade se refere à liberdade de escolha de se operar o software
em determinado sistema operacional, ou seja, de ‘rodar’ o software em qualquer das três
plataformas citadas na tabela. A escalabilidade está diretamente relacionada com a
portabilidade, ou seja, permite que um usuário de PC/Windows, por exemplo, possa ‘rodar’
um software com o qual já está acostumado (treinado) em máquinas maiores e com sistemas
diferentes.
O Color é o único que não roda na plataforma Windows, porém assim como o
Photoshop também não roda em UNIX. Para resolver este problema a comunidade GIMP
desenvolveu o GIMPShop com interface semelhante a do Photoshop, mas o GIMPshop tem a
vantagem de ser gratuito.
199
Tabela 3. Categoria 4. Funcionalidades Operacionais
SOFTWARES
FUNCIONALIDADES
LICENÇA PROPRIETÁRIA
LICENÇA LIVRE
ADOBE
PHOTOSHOP
COLOR
GIMP
CINE
PAINT
Selection editing
(edição seletiva)
Sim
Sim
Sim
Sim
Layers
(camadas)
Sim
Sim
Sim
Sim
Histogram
(Histograma)
Sim
Sim
Sim
Sim
Scripting
(texto com instruções para
computador)
Sim
Sim
Sim
Sim
HDRI
(High dynamic range imaging)
Sim
Sim
Sim
Sim
Retouching
(retoque)
Sim
Sim
Sim
Sim
Resizing
(redimensionar)
Sim
Sim
Sim
Sim
Sized Printing
(impressão sob medida)
Sim
Sim
Sim
Sim
Noise removal
(remoção de ruído)
Sim
Sim
Sim
Não
Lens correction
(correção de lentes)
Sim
Sim
Sim
Não
Sharpening
(eliminação de arestas)
Sim
Sim
Sim
Sim
Color correction
(correção de cores)
Sim
Sim
Sim
Sim
Plug-in support
(suporte a plug-ins)
Sim
Sim
Sim
Sim
Pressupondo que algumas funcionalidades descritas na tabela 3 sejam pouco
conhecidas por pessoas que não utilizam regularmente os softwares analisados, optamos por
explicar os conceitos das funcionalidades apresentadas com o objetivo de facilitar a
compreensão dos interessados.
A funcionalidade Selection editing – edição seletiva – mostra, segundo Gordon e
Gordon (2003 p. 202), como um objeto é ligado por linhas, ou seja, quando “[...] um
programa bitmap tem algumas ferramentas de base vetorial para permitir ao utilizador realizar
seleções muito precisas e suaves com a ajuda de paths.” Este tipo de ferramenta de base
vetorial, continuam os pesquisadores (idem p. 200):
200
[...] descreve a forma de um objeto com uma série de pontos estrategicamente
localizados, ligados por linhas controladas por fórmulas matemáticas – um pouco
como a imagem de ‘unir os pontos’ com o beneficio acrescido de que as ligações entre
pontos podem ser descritas com precisão como linhas retas ou curvas. A essa linha é
chamado paths ou vetor. Os paths podem ter espessura e cor e as forma ou objetos que
criam também podem ser preenchidos com uma cor, gradação, texturas e por ai
adiante.
Os Layers ou camadas existem para ajudar o designer gráfico a criar trabalhos de
montagem, bem como, para facilitar a realização de alterações de numa imagem sem destruir
o trabalho já existente. Gordon e Gordon (idem p. 210) explicam que “[...] a imagem original
pode ser vista através da layer e, se não gostar do que criou na layer, pode apagar ou deita-las
fora.” Alguns softwares podem também “aplicar opacidades diferentes (e muitas outras
propriedades) a cada layer a níveis controláveis, dando a impressão de imagens que se
fundem uma na outra.”
Histogram - histograma: Milani (2005 p. 53) esclarece que “o histograma representa
a quantidade de pixels que utiliza cada nível de intensidade de cor presente na imagem. A
partir de sua análise, é possível identificar se a imagem é uma composição muito escura ou
muito clara, ou se possui a distribuição de cores equilibrada. Em outras palavras, é montado
um mapa com a qualidade de pixels que utiliza cada nível de cor (em escala de cinza, ou em
um canal de cor específico) na imagem.”
Scripintg – texto com instruções para computador – recursos que permitem
programar a execução de diversas operações que o programa é capaz de fazer, ou seja,
permite automatizar uma sequência de operações desejadas evitando-se, desse modo, a
necessidade de se repetir manualmente um determinado conjunto de tarefas. André Milani
(2005 p. 257) explica que há uma maneira fácil de compreender a importância dos scripts,
qual seja:
Suponha que existam 10 fotografias, de tamanhos variados, que necessitem estar do
mesmo tamanho (640 x 480, por exemplo) e que sejam criadas bordas laterais de cor
branca com espessura de 10 pixels em cada uma. Realizar todas essas operações uma
dezena de vezes seguidas, além de cansativo demora. Construir um script seria uma
maneira de automatizar as tarefas de redimensionamento e criação de borda,
executado a partir de um clik de mouse para cada fotografia, diminuindo o tempo de
trabalho muito significativamente. E ainda: um nível mais avançado, automatizar para
que este script seja executado em todas as fotografias que estiverem dentro de
determinada pasta no computador, necessitando apenas de um clik e na seleção do
diretório dos arquivos, diminuindo tempo de trabalho para praticamente zero.
201
HDRI - High dynamic range imaging – é um conjunto de técnicas que permite
uma maior abrangência dinâmica de luminância entre áreas iluminadas e escuras de uma cena.
A intenção é representar com mais precisão a ampla variedade de níveis de intensidade
encontrados em cenas reais, desde a presença direta da luz do sol até sombras. Azevedo e
Conci (2003 p. 325) descrevem o uso dessa funcionalidade afirmando que:
[...] geralmente ao se criar uma cena 3D os objetos distantes como montanhas, nuvens,
lagos, árvores e todo cenário de fundo não são modelados para não sobrecarregar
inutilmente o software/hardware deixando-o lento e travado. Nesses casos, são usadas
imagens como fundo (back grounds), essas imagens são incorporadas à cena, mas não
interagem com os objetos, ou seja, não contribuem na iluminação. Os arquivos de
extensão .HDR representam propriedades de energia passando ao programa a
definição de quais regiões da imagem são fontes de luz. O que ocorre é que as
imagens HDR possuem informações além dos canais de cores (RGB). Essas
informações adicionais dizem quais são os pixels da imagem que contém atributos de
energia luminosa.
Retouching ou retoque envolve uma gama completa de ferramentas para a criação de
desenhos e diversos tipos de pintura. São recursos tais como balde de tinta para Colorir
regiões da imagem; mistura com degradê para realizar efeitos de 3 dimensões e iluminação;
lápis e pincel para desenhos à mão livre; borracha para remoção de cores e realização de
acabamentos; aerógrafo, um spray cujo jato de tinta é formado por um canal de tinta e um
canal de sob pressão; caneta tinteiro; clonagem etc.
Resizing ou redimensionar – ferramenta utilizada para fazer “o redimensionamento
do tamanho de vetor, imagem ou regiões selecionadas para outros tamanhos.” (Milani, idem
p. 107). Trata-se de componente de um conjunto maior de ferramentas de transformação,
dentre as quais a de movimentação de partes da imagem para outro local mantendo intactos
tamanho e propriedade de cor ou possibilitando a rotação, a inclinação, perspectiva ou
espelhamento.
A funcionalidade Sized Printing ou impressão sob medida diz respeito à
disponibilidade de recursos que assegurem ao designer a impressão em sistemas gráficos das
imagens projetadas no computador. Dentre estes recursos Gordon e Gordon (2003, p. 66-75)
destacam alta resolução; controle de bleed (sangria da cor ou de imagens da página);
compatibilidade das fontes de criação e impressão; imposição (documento com mais de duas
páginas visualizado no ecram, como uma série de planos de duas páginas, mas impresso num
documento de páginas múltiplas); gestão de cor (utilização de cores especiais – pantoni – e
202
conversão e separação CMYK).
A Adobe introduziu o PDF (Portable Document Format) como um tipo de arquivo
universal para transmissão e impressão de documentos profissionais. É agora o
formato standard para distribuir manuais em várias plataformas, desenhos técnicos,
informação de marketing e provas. Os PDFs têm sido aclamados como a chave para o
futuro de pré-impressão, elimando os fotolitos, chapas e ateliers reprográficos
(GORDON e GORDON, ibidem).
Noise removal ou remoção de ruído. Conforme Milani (idem, p. 179) “ruídos nada
mais são do que pixel ou pontos que literalmente sujam a imagem. Mas porque alguém iria
querer sujar imagens?” Existem diversas aplicações que utilizam os ruídos como base de
efeitos. Por esse motivo também existem várias maneiras de adicioná-los em seu conteúdo
gráfico. Desde “a criação de nuvens de pontos, onde se podem construir nuvens no céu de
imagens, passando por suavização de cores, chegando à confecção de manchas e texturas (de
aço escovado, por exemplo).”
Lens correction – correção de lentes. Trata-se de filtros para correção de imagens,
tais como, distorções provocadas em fotografia feita com lente grande angular ou como o
abaulamento do nariz de uma pessoa numa fotografia muito próxima da lente.
Sharpening – eliminação de arestas. É um recurso que permite tornar mais nítidos os
contornos de componente de uma imagem. Milani (idem, p. 184) explica que “o recurso de
detecção de bordas pode ser muito útil quando se necessita destacar ou recortar um
determinado objeto da imagem. [...] é possível criar uma borda uniforme nos limites do
contorno do objeto da imagem, desde que identificada pelo filtro de detecção selecionado.
Utilizado em conjunto com ferramentas de seleção por cor, região ou outras esse recurso pode
facilitar a captura de determinados objetos da imagem ao separá-los de seu fundo original.
Além desta facilidade, os filtros de detecção de borda podem ser utilizados para aplicações de
efeitos [...]”.
Color correction ou correção de cores envolve um conjunto de ferramentas para
manipulação de cores, dentre elas equilíbrio de cores, ajuste de matriz – saturação,
Colorização, brilho e contraste, limites para preenchimento de cores, níveis de claridade de
cada pixel da imagem, ajuste da curva de cores, posterização (redução do número de cores de
uma imagem) e outros.
Plug-in support ou suporte a plug-ins. Rabaça e Barbosa (2001 p. 576) explicam que
plug-in é um “Acessório de software que só funciona em conjunto com outro programa.” O
203
recurso de incorporação de Plug-ins possibilita que determinadas funcionalidades que não
estavam previstas num determinado programa, como, por exemplo, a gravação em um
determinado formato de arquivo, possa ser incluída no referido programa. Um exemplo
interessante é o uso do plug-in free type. “Nas primeiras versões do GIMP, após um texto ser
inserido na imagem, ele não poderia mais ter seus atributos alterados (tamanho, fonte, estilo),
o que se tornou possível com o uso deste plug-in que é um renderizador de fontes.” (MILANI,
idem p. 319).
A computação gráfica trata da síntese de imagens através do computador. Sintetizar
uma imagem não é mostrá-la no computador digitalmente a partir da captura de algo
existente. Isso é tratado no Processamento de Imagens. Sintetizar uma imagem (uma
cena ou um objeto) é criá-la em termos da definição dos dados dos objetos que a
compõem. Isso se faz a partir da geometria da cena, das informações sobre os
materiais de que são feitos os objetos (suas cores e suas texturas), das condições de
iluminação ambiente; e da posição de observação da cena. Nesse processo de criação
sintética, é denominado rendering a fase de introdução nas cenas, do realismo
fotográfico (AZEVEDO e CONCI 2003 p. 249).
As explicações feitas até o momento nos levam a pressupor que os dados descritos na
tabela 4 contribuem para demonstrar que os softwares livres realizam todas as funcionalidades
necessárias para o tratamento de cores. Portanto, os softwares livres GIMP e Cine Paint não
apresentam nenhuma desvantagem funcional quando comparados com os softwares
proprietários.
Tabela 4. Categoria 4. Sistema de Cores
SISTEMAS DE CORES273
SOFTWARE
RGB
CMYK
CIE LAB
HLS
Adobe Photoshop
Sim
Sim
Sim
Plug-in
Color
Sim
Sim
Sim
Sim
GIMP
Sim
Plug-in
Sim
Sim
CinePaint
Sim
Sim
Sim
Sim
No início deste capítulo discorremos sobre os sistemas de cores existentes e
utilizados como modelos nos sistemas de computação gráfica. Conforme apresentado na
273
Glossário.
204
tabela 4, a análise comparativa demonstra que todos os softwares livres são capazes de utilizar
os sistemas de cores descrios, portanto são adequados à criação de imagens digitais, pois
permitem sua nítida visualização em telas de computadores e em papel, imagens impressas.
Tabela 5. Categoria 4. Suporte a Formatos de Arquivos Raster
SOFTWARES
FORMATOS274
ADOBE
PHOTOSHOP
COLOR
GIMP
CINE
PAINT
RAW imports
(importação bruta)
Sim
Sim
Sim
Sim
BMP
Sim
Sim
Sim
Sim
GIF
Sim
Sim
Sim
Sim
JPEG
Sim
Sim
Sim
Sim
JPEG 2000
Sim
Sim
Sim
Não
HD Photo
Sim
Sim
Não
Não
PNG
Sim
Sim
Sim
Sim
TIFF
Sim
Sim
Sim
Sim
PSD
Sim
Sim
Sim
Parcial
PSP
Não
Sim
Sim
Não
XCF
Não
Sim
Sim
Sim
PCX
Sim
Sim
Sim
Sim
OpenEXR
Sim
Sim
Não
Sim
Suporte a Formatos de Arquivos Raster, assim como feito com relação ao sistema de
cores, foi já explicado. A quantidade de formatos apresentada na tabela 5 varia em função,
principalmente, do uso de determinados codecs e compressores.
Como já pontuamos os compressores podem ser agrupados em duas categorias, com
perdas e sem perdas, com o propósito básico de reduzir o tamanho dos arquivos de imagem.
Quanto aos codecs, os idealizadores das teorias matemáticas empregadas o fizeram visando
atender às necessidades de qualidade e precisão das imagens, tanto nos processos de
importação (scanning) quanto de exportação (printing).
Alguns formatos de arquivos já podem ser considerados obsoletos, como, por
274
As siglas da tabela 5 estão descritas no glossário.
205
exemplo, o BMP (bitmap da Microsoft) – um formato de arquivo com baixa compressão e,
portanto, que ocupa muito espaço físico –, porém ainda são mantidos para possibilitar o
processamento de arquivos gerados no passado.
Como resultado da análise, constatamos que somente em alguns casos existem
diferenças de suporte a determinados formatos de arquivos. Como é o caso do HD Photo, que
não é suportado pelo GIMP e Cine Paint. Entretanto, isso não significa que estes dois
softwares não possam processar conteúdos originalmente gravados em um determinado
formato, HD Photo, por exemplo.
Ocorre que há muitos programas freeware e shareware disponíveis e capazes de
converter os arquivos cujo formato não é tratado diretamente pelo software para outro que o
software possa manipular. Por exemplo, converter o HD Photo para Raw sem perda de
qualidade. Nos casos de instalações que demandem uso intensivo de formatos que não são
suportados pelos softwares utilizados lembramos que é possível escrever scripts, como é o
caso do GIMP e Cine Paint que suportam esta funcionalidade de modo a automatizar essa
importação.
Para concluir, entendemos que os softwares livres analisados podem suportar os
mesmos formatos de arquivos suportados pelos softwares proprietários citados na tabela 5.
Portanto, não há desvantagem acerca do uso deste tipo de tecnologia em processos de criação
de imagens que envolvam a questão de suporte a formatos de arquivos raster.
4.5. COMPARAÇÃO ENTRE SOFTWARES DE DESENHO VETORIAL
Os softwares para desenho vetorial são ferramentas utilizadas na criação de desenhos
que podem ser armazenados na forma de dados geométricos, em arquivos com formatos mais
compactos que os arquivos de imagens raster. Paula Filho (2000 p. 143) explica que os
desenhos com formato geométrico ou vetorial são “[...] figuras na forma de coleções de
entidades geométricas, ou seja, do ponto de vista do computador, registro de dados que
descrevem conceitos de geometria. Dada a importância que os vetores da geometria têm na
descrição computacional dos desenhos, esses arquivos são chamados de arquivos vetoriais.”
Um desenho vetorial em 2D é um desenho feito em duas dimensões (bidimensional)
com dois eixos cartesianos onde o eixo X representa a largura ou comprimento (horizontal) e
206
o eixo Y representa a altura (vertical). As imagens de três dimensões ou tridimensionais – 3D
são aquelas imagens que além de largura e altura (2D) têm também profundidade, o eixo
cartesiano Z. Segundo Menegotto e Araújo (2000 p. 82) “No desenho bidimensional
trabalhamos com as entidades sobre o plano XY definido pelos eixos X e Y. Para modelar a
realidade tridimensionalmente, devemos incorporar a coordenada Z do sistema cartesiano.
Com a incorporação do eixo de coordenadas Z, ficam delimitados 3 planos que serão
denominados com os nomes dos eixos correspondentes: assim temos os planos XY, XZ, YZ.”
Os softwares WordArt275 e Adobe Illustrator276 podem ser tomados como exemplo de
programas proprietários adequados para a criação de desenhos vetoriais, pois, geralmente são
utilizados em projetos que contemplam desenhos circulares ou arcos em formas
trigonométricas. Tais desenhos são conhecidos por curva de Bézier277 ou curva cúbica simples
– tipos de curvas que têm a propriedade de conservar a curvatura nas ampliações expressas
por alguns pontos representativos chamados de pontos de controle. Sue Plumley (1995 p. 13 21) explica que quando desenhos circulares são feitos com o Illustrator é possível se
conservar a curvatura ou os pontos de controle da curva de Bézier, pois “[...] regularmente
você usa as ferramentas seleção, mão livre, caneta e zoom, enquanto trabalha desenhos.”
O WordArt, por exemplo, permite a criação de textos com efeitos visuais, tais como
texturas e linhas, conforme explica Roger C. Parker278 (1995 p. 26-29).
Muitos processadores de texto contêm módulos de desenho, como o WordArt do
Microsoft Word. [...] Esses módulos, ou mini-aplicativos (applets), que
frequentemente são ignorados, podem ter recursos surpreendentes. Eles permitem que
você movimente letras como objetos independentes e os agrupe, para que você possa
manipulá-los com uma só unidade. Isso permite que você crie logotipos ou títulos para
publicações, incorporando texto e elementos gráficos com linhas horizontais e fundos
sombreados. [...] Há muitos programas especializados em desenho disponíveis no
275
WordArt - gênero editor gráfico. Disponível para os sistemas operacionais Microsoft Windows, Mac OS X
sob licença comercial - proprietária.
276
A versão 1.0 do Illustrator foi rapidamente substituída pela versão 1.1. A seguir foi lançada a versão 88, por
coincidir com o ano de 1988. Última versão é a CS3 (13.0) lançada em abril de 2007. Website oficial do
desenvolvedor: www.adobe.com.
277
Na obra Multimídia: conceitos e aplicações (p. 149) Paula Filho apresenta desenho que exemplifica a Curva
de Bézier.
278
Parker é considerado um dos mais renomados especialistas em projetos de editoração eletrônica. Além de
colaborador freqüente em diversas publicações sobre o assunto, entre elas, Grafphic Solutions, Publisch,
Techinique, e x-heigt. É autor de diversos livros, como Desktop Publishing & Desing para Leigos (1995).
207
mercado, destinados aos tipos específicos de desenhos e ilustrações. [...] A necessidade
é o que determina o software necessário para a criação de diferentes desenhos.
Quanto ao Illustration, Sue Plumley (1995 p. 13 -21) esclarece que “[...] Você
também pode ver a arte-final no modo Preview Illustration, que mostra o desenho como ele
será impresso.” Também se pode criar trabalhos artísticos simples ou complexos com
Illustrator. Seja “[...] um mapa mostrando o caminho até a loja em frente ou o diagrama
esquemático de uma placa eletrônica, você utiliza as mesmas ferramentas e técnicas básicas.”
Também existem programas livres (Open Source) para edição de desenhos vetoriais,
como já foi dito. O Inkscape é um exemplo de tecnologia livre e que tem funcionalidades
semelhantes aos softwares proprietários Illustrator e CorelDRAW. Suporta muitas
características avançadas do formato SVG – Scalable Vectorial Graphics ou gráficos vetoriais
escaláveis (marcadores, clones, mistura alpha, etc) e é fácil de ser usado. Conforme matéria
de Marco Aurélio Zanni – intitulada Software livre faz desenhos de primeira (2008) –
disponível no portal da Revista Info - seção tecnologia279:
O Inkscape é rápido e tem os principais recursos avançados dos programas de desenho
vetorial. A versão 0.46, ainda em fase de testes, tem algumas novidades importantes,
como a possibilidade de abrir arquivos do CorelDRAW e uma ferramenta para esculpir
objetos. Com ela, basta arrastar uma espécie de borrão sobre a imagem e distorcê-la
aos poucos. Outra vantagem do software é a interface simples. O Inkscape tem poucas
ferramentas de desenho, mas elas permitem fazer a maior parte dos efeitos
manualmente, e não pelo uso de objetos pré-definidos. Isso abre o leque de
possibilidades de criação.
Por serem somente representação geométrica de desenhos, para serem exibidos em
telas de computador ou impressos, os conteúdos dos arquivos vetoriais precisam ser antes
convertidos em imagens matriciais, ou seja, formadas por arranjos de pixels. Por esse motivo,
a representação de desenhos vetoriais nos dispositivos analógicos de apresentação requer mais
tempo de processamento porque terá que ser transformada em matricial antes da apresentação.
Paula Filho (2000, p. 144) explica que:
As imagens matriciais também podem ser geradas por programa de computador, a
279
Revista Info. Editora Abril. São Paulo, Brasil. 13 de fevereiro de 2008. Disponível em:
http://info.abril.com.br/aberto/infonews/022008/13022008-1.shl.
208
partir de descrições de uma cena em termos geométricos. A passagem do modelo
geométrico, que se situa no espaço de objetos, para o modelo matricial, situado no
espaço de imagem, é chamada de conversão de varredura (scan conversion),
rastelação (rasterization), elaboração (rendering) ou síntese. As imagens artificiais
geradas são também arranjos de pixels, e são representadas pelos mesmos formatos
para imagens naturais.
Por serem formadas por arranjos de pixels as imagens rasters demandam mais
espaço de memória no computador. Neste contexto, uma vantagem importante do arquivo de
imagem vetorial sobre o arquivo de imagem matricial é que este tipo de imagem permite o
armazenamento de figuras sintéticas em formatos muito mais compactos, porque no lugar dos
bitmaps esses arquivos contêm somente informação textual necessária à reconstrução das
imagens 2D e 3D pelo computador. Assim, uma forma para aperfeiçoar o processamento de
imagens vetoriais é transformá-las em imagens matriciais e vice-versa. Bob Gordon e Magie
Gordon, na obra Design Gráfico Digital: o guia completo (2003, 202), cita softwares que
exemplificam está afirmação: “O Adobe Illustration e o Macromedia FreeHand, ambos os
programas de desenho, têm a capacidade de modificar imagens bitmap importadas através de
vários filtros de efeitos especiais e são também capazes de converter (rasterizar) objetos
vetoriais em bitmaps [...]. Por oposição, o photoshop, um programa bitmap tem algumas
ferramentas de base vetorial para permitir ao utilizador realizar seleções muito precisas e
suáveis [...].”
Neste estudo, para comparar os softwares de desenho vetorial proprietários e livres
foram criadas quatro tabelas que apresentam, cada uma, suas variáveis fundamentais. Quais
sejam: A primeira – Dados Gerais – como nas categorias anteriores descreve as características
gerais dos produtos de softwares. A segunda variável – Plataformas de Operação – também se
refere às plataformas de sistemas operacionais nas quais os softwares podem ser operados. A
terceira variável – mostra os formatos de arquivos vetoriais importados pelos softwares.
Formatos de arquivos vetoriais, a quarta variável – mostra os formatos de arquivos vetoriais
exportados pelos softwares, conforme descrito a seguir.
209
Tabela 1. Categoria 5. Dados Gerais
SOFTWARE
TIPO DE
LICENÇA
Adobe Illustrator
Proprietária
CorelDRAW
Proprietária
Inkscape
Livre
FABRICANTE
TIPO
VERSÃO
ANALISADA
CUSTO280
Adobe
Desenho
vetorial 2D
CS4 (14)
R$ 756,85
Corel
Desenho
vetorial 2D
X34 (14)
R$ 497,42
Comunidade
inkscape.org
Desenho
vetorial 2D
0.46
(2008)
livre
As informações da tabela 1 mostram que os softwares livres analisados têm versões
atualizadas e disponíveis para emprego em atividades de criação de desenho vetorial. Quanto
à questão das licenças, por serem distribuídos com licença GPL estes softwares livres podem
ser obtidos sem nenhum custo.
Tabela 2. Categoria 5. Plataformas de Operação
SISTEMAS OPERACIONAIS
SOFTWARES
TIPO DE
LICENÇA
WINDOWS
MAC OS X
UNIX
Adobe Illustrator
Proprietária
Sim
Sim
Não
CorelDRAW
Proprietária
Sim
Não
Não
Inkscape
Livre
Sim
Sim
Sim
Conforme informam os dados da tabela 2, o software livre Inkscape opera em todas
as três plataformas. O software proprietário Adobe Illustrator em apenas duas e o CorelDRAW
em apenas uma. Isto mostra uma vantagem do software livre sobre os proprietários
analisados.
280
Valores extraídos dos sites dos fornecedores.
210
Tabela 3. Categoria 5. Formatos de Arquivos Vetoriais: Importação
FORMATOS DE ARQUIVOS281
SOFTWARES
AI
CDR
ODG
PS/EPS
PDF
SVG
SWF
DXF
Adobe Illustrator
Sim
Sim
Não
Sim
Sim
Sim
Não
Sim
CorelDRAW
Sim
Sim
Não
Sim
Sim
Sim
Não
Sim
Inkscape
Sim
Sim
Não
Sim
Sim
Sim
Não
Não
Os dados da tabela 3 mostram que os softwares proprietários abrem a maioria dos
formatos de importação de arquivos vetoriais. Com exceção dos formatos ODG e SWF282 que
não são compatíveis com nenhum dos três softwares pesquisados. Neste quesito o Inskscape
tem uma desvantagem em relação ao Illustrator e ao CorelDRAW, é o único que não tem
capacidade para abrir três tipos de formatos, ou seja, além dos ODG e SWF também não abre
o DXF (AutoDesk Drawing Interchange format, um arquivo de intercâmbio para modelos de
CAD).
Tabela 4. Categoria 5. Formatos de Arquivos Vetoriais: Exportação
FORMATOS DE ARQUIVOS283
SOFTWARES
AI
CDR
ODG
PS/EPS
PDF
SVG
SWF
DXF
Adobe Illustrator
Sim
Sim
Não
Sim
Sim
Sim
Sim
Sim
CorelDRAW
Sim
Sim
Não
Sim
Sim
Sim
Sim
Sim
Inkscape
Sim
Sim
Não
Sim
Sim
Sim
Sim
Sim
Os dados da tabela 4 mostram que apenas o formato ODG não é suportado pelos três
softwares. Logo, o Inskscape pode ser uma alternativa interessante para realiza o processo de
exportação de arquivos vetoriais.
281
Os significados das siglas da tabela 3 da categoria 5 são descritos no glossário.
282
OpenDocument format ou ODF, é um formato de arquivo desenvolvido pelo consórcio OASIS e usado para
armazenagem e troca de documentos de escritório, como textos, planilhas, gráficos, apresentações etc). SWF
desenvolvido pela Adobe Flash - antigamente pelo Macromedia Flash - para animações multimídia ou
aplicações.
1.283 No glossário apresentamos os significados das siglas da tabela 4.
211
CONCLUSÃO
Esta pesquisa analisou possibilidades de uso de tecnologias de microcomputadores e
softwares em processos de criação de produtos comunicacionais para rádio e televisão pelas
faculdades brasileiras, no contexto de cursos de comunicação social. Para contextualizar o
estado da arte acerca do uso de microcomputadores e softwares discorremos sobre alguns
fatos históricos que possibilitaram a evolução, até o estágio atual, de algumas outras
tecnologias de comunicação. Utilizamos a metáfora de Ondas proposta por Alvin Toffler para
caracterizar as fases dessa evolução e para precisar as mudanças culturais e sociais que se
sucederam, inclusive nos cursos de comunicação social do Brasil.
Notadamente a partir do final do século XX, o aparecimento de inovadores
dispositivos tecnológicos que propiciaram novas possibilidades para a comunicação,
entretenimento e trabalho entre os humanos provocou, também, mudanças nos sistemas
educacionais, pois, o crescimento do uso desses novos dispositivos em atividades
profissionais trouxe novos desafios para as faculdades no sentido de prepararem pessoas cada
vez mais qualificadas para atuarem nos meios de comunicação, especialmente em áreas
relacionadas à criação de produtos para RTV.
Tal preparação também se fez necessária para que houvesse maior aproximação e
integração entre as universidades e o mercado de trabalho, pois, conforme expressam as
Diretrizes Curriculares Nacionais na nova economia do conhecimento os estudantes devem
ser capazes de aprender a aprender durante toda a vida para, assim, poderem interagir no
mundo e conquistarem espaço num ambiente profissional tecnológico de rápidas e constantes
mudanças.
Considerando a importância de as novas gerações serem preparadas para utilizar
profissionalmente novos dispositivos tecnológicos, uma vez que sua utilização competente
tem sido requisito importante para aumentar a geração de empregos e o acesso ao mercado de
trabalho, postulamos que os sistemas educacionais devem privilegiar o aprendizado para uso
das novas tecnologias de software, pois os processos atuais de comunicação, veiculação de
mensagens e símbolos através do rádio, televisão, Internet, telefone etc se tornaram muito
dependentes destas tecnologias.
De modo geral, os softwares são desenvolvidos por companhias que comercializam,
entre outros, programas de aplicação popular como processadores de textos, planilhas
212
eletrônicas e outros produtos especializados, como softwares para processamento de som e
vídeo, imagens e desenho, modelagem e animação 2D e 3D. Geralmente tais softwares,
popularmente conhecidos por softwares proprietários, são registrados como propriedade
intelectual dos seus produtores para proteger os direitos autorais dos fabricantes e são
fornecidos ou comercializados a partir de pagamento de licenças, ou seja, o usuário não
compra o produto, mas o direito de utilizá-los dentro dos limites da licença.
Em síntese, neste estudo caracterizamos software proprietário aquele protegido por
direito autoral; com código fechado; que não pode ser modificado; e que é comercializado
mediante o pagamento de licença. Do ponto de vista econômico, na maioria das vezes, as
empresas usuárias deste tipo de software além arcarem com pagamentos de licenças,
assistência e manutenção são obrigadas a realizar investimentos contínuos para atualizar
versões anteriores destes produtos, pois as licenças que os acompanham definem as regras
estabelecidas pelos fabricantes para seu uso, isto é, quais ações são, durante o uso, autorizadas
ou proibidas. A utilização de cópias não licenciadas de softwares proprietários é considerada
crime de pirataria.
Uma outra característica deste tipo de software é que os fabricantes ou companhias
vendem os programas de aplicação popular para computadores pessoais, por exemplo, em
lojas e pela internet e este tipo de comercialização facilita o acesso pelos usuários a tais
produtos, fator que contribui para sua popularização uma vez que ficam mais expostos aos
olhos dos consumidores.
No final da década de 1990 um novo tipo de software, conhecido como software livre
ou com código aberto, começou a se apresentar como alternativa natural de mercado ao
software proprietário e a despertar a atenção da comunidade técnica, acadêmica e de negócios
em todo o mundo. Essa nova tecnologia permite que qualquer programador possa ler,
entender e modificar um software, bem como ter acesso ao seu código fonte, a chave para
adaptá-lo a realidades específicas de países, empresas e pessoas. Neste contexto, um software
livre pode ser compreendido como um software que é distribuído com código aberto – Open
Source; é gratuito e permite que os usuários saibam como foi construído, que possam
modificá-lo ou redistribuí-lo livremente.
Os softwares livres são desenvolvidos por comunidades de especialistas e empresas
que têm entre seus objetivos compartilhar conhecimentos sobre inovações tecnológicas e
diferentemente dos softwares proprietários a maioria dos produtos livres não é comercializada
em lojas, mas copiada da internet, portanto o usuário precisa fazer download dos programas,
213
mas sem pagamento de licenças e com a vantagem de que uma única cópia pode ser instalada
em qualquer quantidade de computadores, pois tanto o código executável como o código
fonte podem ser obtidos através de download.
No caso do código executável a instalação é simples e direta desde que o usuário
escolha a versão do software aplicativo, do Blender 3D, por exemplo, compatível com o
sistema operacional no qual irá utilizá-lo. Embora, geralmente, o processo de download seja
simples para algumas pessoas essa necessidade é vista como uma desvantagem dos softwares
livres, pois muitas ainda sentem desconfiança ou insegurança para realizar tal procedimento,
fator que parece contribuir para a preferência dessas pessoas pelos softwares proprietários.
Reconhecendo a importância de os profissionais de comunicação aprenderem a
utilizar tecnologias de software, especialmente para criarem produtos para rádio e televisão,
realizamos este estudo comparativo com o objetivo de tornar evidentes as qualidades de
alguns softwares proprietários e livres, seus custos, rendimentos e possibilidades de adoção
pelas faculdades de comunicação do país. Para tanto, comparamos as experiências de uso
destas tecnologias nos cursos de Radialismo da Universidade Metodista de São Paulo –
UMESP e das Faculdades ESEEI de Curitiba. Os cursos de Radialismo destas entidades foram
objetos de estudo nesta pesquisa porque a primeira utiliza somente softwares proprietários em
plataforma MAC OS X e a segunda, exclusivamente, softwares livres em plataforma Linux em
processos de criação de produtos audiovisuais.
Para facilitar a compreensão sobre a referida análise e para ordenar o processo de
comparação os dois tipos de softwares foram agrupados em cinco iguais categorias: a primeira
categoria detalha as variáveis fundamentais dos softwares para processamento de audiovisual;
a segunda dos softwares de processamento digital de som; a terceira dos softwares de
computação gráfica 3D; a quarta dos softwares editores de imagens matricial ou raster; e a
quinta dos softwares de desenho vetorial.
Os softwares proprietários utilizados na UMESP e agrupados nas cinco categorias
descritas são: categoria 1 – processamento de audiovisual, Final Cut Pro HD, Vegas e After
Effects; categoria 2 – processamento digital de som, Sound Forge, Pro ToolsTools; categoria 3
– computação gráfica 3D, Maya; categoria 4 – editores de imagem matricial ou raster,
Photoshop CS3 e Color; categoria 5 – desenho vetorial, Illustrator e CorelDRAW X3.
Os softwares livres utilizados na ESEEI e também agrupados em cinco iguais
categorias são: categoria 1 – Cinelerra, Jahshaka; categoria 2 – Ardour, Audacity,
Rosegarden e Hydrogen; categoria 3 – Blender 3D; categoria 4 – GIMP e CinePaint;
214
categoria 5 – Inkscape.
A análise comparativa entre os dois tipos de softwares foi feita com base no modelo
de um quadro comparativo elaborado por Benoît Saint-Moulin, fundador e administrador do
site TD T3D The Dream Team284, que apresenta as conclusões das pesquisas comparativas que
realizou sobre softwares computação gráfica. Outros modelos de quadros comparativos
disponíveis na Wikipedia também foram importantes nesse processo de análise dos softwares.
Para finalizar o processo de comparação consideramos a importância de três
macrofunções denominadas – Entrada => Processamento => Saída – que permitiram
comparar os recursos disponíveis em alguns dos softwares para importar (digitalizar)
conteúdos para dentro do computador; para tratá-los digitalmente; e para exportar os
resultados em formatos e resoluções de arquivos e dispositivos de representação adequados.
Os resultados das referidas análises, apresentados nas tabelas do capítulo 4, nos
permitiram constatar que nas cinco categorias todos os softwares livres analisados dispunham
de recursos similares aos dos proprietários para entrada, processamento e saída de conteúdo,
ou seja, importação de material bruto, processamento e exportação de resultados. Isso
significa dizer os softwares livres estudados podem ser utilizados em processos de criação de
produtos para rádio e televisão, pois apresentam o mesmo nível de qualidade que os softwares
proprietários com quais foram comparados, logo, são uma alternativa confiável e podem
trazer benefícios ou vantagens para as escolas de comunicação e empresas de mídia que
adotarem este tipo de tecnologia.
Uma primeira e interessante vantagem dos softwares livres em relação aos softwares
proprietários, constatada nesta pesquisa, se refere ao fato de os softwares livres poderem estar
presentes em praticamente todos os artefatos tecnológicos digitais da atualidade, porque além
de poderem ser copiados diretamente da Internet podem ser adaptados às necessidades
específicas dos usuários. O fato de serem disponibilizados com código aberto permite que
conhecimentos sobre suas funcionalidades deixem de ser propriedade econômica de algumas
pessoas ou empresas para serem compartilhados universalmente, assim, o usuário que se
interessar e tiver capacidade pode saber como o software foi construído ou adaptado para
atender suas necessidades. Um exemplo é a possibilidade de um usuário poder escolher a
língua que o software deve adotar na interface de comunicação com ele, isso pode ser feito
por todos os softwares livres que analisamos e significa que uma mesma cópia instalada pode
284
www.bsm3d.com
215
rodar 'falando' português, francês ou outras dezenas de línguas.
O fato de os softwares livres poderem ser instalados em qualquer quantidade de
computadores vai ao encontro dos fundamentos do Paradigma Libertário, que defende de
forma intransigente a liberdade para troca de conhecimentos e uso dos softwares livres como
um valor supremo, especialmente em prol da realização de trabalhos colaborativos entre
membros das comunidades de usuários ou desenvolvedores. Pessoas que trabalham para
melhorar cada vez mais a tecnologia, considerando, inclusive, as contribuições dos usuários
comuns, pois tais contribuições não são tratadas exclusivamente como um assunto técnico
pelos desenvolvedores, no mundo do software livre os usuários finais também são bem vindos
com suas experiências e sugestões. Muitas vezes as ideias divulgadas nos sites da Internet são
implantadas rapidamente nos softwares pelos desenvolvedores e trazem benefícios
surpreendentes aos usuários.
As facilidades decorrentes da popularização da Internet e de acesso à informação têm
favorecido a constante formação de comunidades virtuais colaborativas envolvidas com o
desenvolvimento de free software. Assim, pela rede, os membros destas comunidades
promovem encontros entre pessoas dos mais diversos pontos do planeta no ciberespaço,
geralmente, com o objetivo de discutir soluções ou apresentar novos projetos para a
tecnologia de código aberto, atividade impossível de ser realizadas sem acesso aos códigos
fontes dos programas. Neste contexto, o desenvolvimento de tecnologia com padrões de
código fechado tem sido muito discutido por fabricantes de software, comunidades e
governos, pois, manter conteúdos armazenados em arquivos de formato proprietário prejudica
o processo de inovação tecnológica, ajuda a formação de monopólio e dificulta, sobremaneira,
a interoperabilidade entre softwares.
O fato de existirem inúmeras comunidades de desenvolvedores, compostas por um
universo fascinante de voluntários que prestam suportes técnicos e orientações genéricas
sobre atualizações, reparos de bug (acertos de erros) e demais serviços é outro ponto positivo
do software livre. Pois, diferentemente dos softwares proprietários, além das empresas
tradicionais, conforme comprova o anexo – Linux.local – as pessoas podem contar com o
apoio técnico das comunidades de desenvolvedores pela Internet.
Outra vantagem dos softwares livres está na constatação de que a quase totalidade
dos softwares estudados funciona em diferentes plataformas de hardware e sistemas
operacionais, ou seja, estes softwares rodam tanto em sistemas operacionais PC/Windows,
como MAC OS X e PC/Linux. Portanto, os usuários podem instalá-los gratuitamente no
216
hardware de um dos três sistemas operacionais, com o qual já estão acostumados a trabalhar,
por exemplo, e, assim, preservarem seus arquivos e investimentos anteriores.
A possibilidade de uma interface de software livre poder ficar parecida com a de um
software proprietário é também uma outra vantagem, pois ajuda os iniciantes no uso dessa
tecnologia a se adaptarem com seus comandos, como é o caso do GIMP que tem uma
interface semelhante a do Adobe Photoshop.
Quando analisamos os valores das licenças dos softwares proprietários nos site
oficiais dos desenvolvedores ou distribuidores, bem como em lojas que vendem estes
produtos constatamos nova vantagem da tecnologia de código aberto, pois os valores
praticados pela indústria de software proprietário para a cessão de licenças podem representar
um alto investimento para as entidades educacionais.
Para esclarecer o que dissemos imaginemos a seguinte situação: para adquirir uma
cópia do software Final Cut Studio 2 uma entidade educacional precisa desembolsar em
média R$ 3.699,00, por licença. Esta licença é valida por um ano e para uma máquina apenas.
Se considerarmos a necessidade de a entidade adquirir 10 cópias desse software teria que
investir aproximadamente R$ 36.990,00 em licenças. Para algumas instituições de ensino este
valor pode inviabilizar a instalação do software em quantidade necessária de máquinas para
uso durante atividades de aprendizado por todos os alunos ao mesmo tempo.
Podemos fazer outro cálculo para aprofundar tal raciocínio acerca dos custos com
licenças. Supondo que uma faculdade tenha 5 ilhas de edição de vídeo (Workstations)
profissionais com interfaces para conexão de VCRs e câmeras, e outras 100 máquinas em
laboratórios de informática com interface de rede, DVD e áudio, e que seja necessário ter os
mesmos softwares nos dois ambientes, para instalar o Final Cut Studio nas máquinas das ilhas
e dos laboratórios seria necessário um investimento aproximado de R$ 388.395,00.
Se a referida faculdade precisasse ainda instalar nas mesmas máquinas o Adobe
Photoshop CS4, ao preço de R$ 837,77 cada licença, e o After Effect 6.5 por R$ 1.620,68
cada, teria que fazer investimento adicional de R$ 258.137,25. Esse valor total de R$
646.532,25, somente para esses três softwares, não contabiliza as despesas com atualização
(upgrade) de cada nova versão liberada pelo fabricante. Da mesma forma investimentos
somente nestes três softwares não são seriam suficientes para permitir que alunos e
professores pudessem realizar todos os processos necessários para a criação de produtos para
rádio e televisão, por exemplo, pois, como dito nesta pesquisa, na UMESP outros softwares
são disponibilizados para a realização das atividades de criação de produtos audiovisuais.
217
Por outro lado, se uma entidade educacional optasse por instalar o software livre
Cinelerra, equivalente ao Final Cut Studio, nas 5 ilhas de edição de vídeo e nas 100 máquinas
dos laboratórios de informática não desembolsaria nenhum centavo, pois o Cinelerra, bem
como o Jahshaka e GIMP são softwares livres. O mesmo ocorre se substituísse o CorelDRAW
X3, cujo custo médio de cada cópia é de R$ 297, 34, ou o Adobe Illustrator 10 para MAC, que
custa em média R$ 1. 250,01 por cópia, pelo Inkscape que é aberto e sem custo. Portanto,
ainda que sejam poucos conhecidos pelas instituições de ensino ou empresas de comunicação
brasileiras os resultados desta pesquisa mostram que a adoção, mesmo complementar, dos
softwares livres analisados pode trazer considerável economia com o pagamento de licenças
para as escolas de comunicação. Além dos benefícios econômicos com o pagamento de
licenças, tais resultados também mostram que nas cinco categorias os softwares livres
analisados apresentaram qualidade equivalente ou até superiores as dos softwares
proprietários para importar e exportar os principais formatos de arquivos.
Por fim, sem a intenção de reduzir a importância da indústria de microcomputadores
e da indústria do software proprietário, pois foram elas que popularizam o uso das tecnologias
da informática entre os cidadãos comuns, esperamos que este estudo contribua para estimular
o uso de softwares livres pelas faculdades e empresas de comunicação do Brasil, para o
desenvolvimento de novas pesquisas sobre este tema, formação de novas comunidades
interessadas em compartilhar conhecimentos sobre inovações tecnológicas, novos códigos
éticos de colaboração e novas formas interativas de comunicação digital, pois todos os dias
novas oportunidades profissionais surgem na área da comunicação e do Radialismo (RTV),
mas, geralmente, tais oportunidades estão associadas à capacidade que os estudantes têm para
se relacionar, comunicar e utilizar os novos aparatos tecnológicos em processos de criação,
produção, desenvolvimento e interpretação de materiais audiovisuais.
218
REFERÊNCIAS
ALCANTARA, Paulo Roberto. Tecnologia multimídia na escola regular e especial. Revista
Educação e Tecnologia – Centro Federal de Educação Tecnológica do Paraná. Ano 2, No. 4,
Curitiba, 1999.
AZEVEDO Eduardo. CONCI Aura. Computação Gráfica. Rio de Janeiro: Elsevier, 2003.
BARBOSA FILHO, André. COSETTE, Castro. TOME, Takashi (Org) Mídias Digitais:
Convergência tecnológica e inclusão social. São Paulo: Paulinas, 2005.
BARBOSA, Denis Borges. Registro do Programa na Nova Lei de Software (mimeo).
http://nbb.com.br/english/publications/intellectual_04.html Acesso em 12/12/08.
___________________Tipos de Software, contratos de software e sua tributação
(mimeo). Disponível em http://nbb.com.br/english/publications/intellectual_04.html Acesso
em 12/12/08.
BATTEZZATI. Silma C.C. Os Desafios da Internet para os profissionais de Comunicação.
INFOCOM - Semana Acadêmica de Comunicação Social e Tecnologia da Informação.
Curitiba. Faculdades ESEEI, 2008.
__________________. Estratégias de Gestão e Modernização Tecnológica In: ENDECOM
2006 – Fórum Nacional em Defesa da Qualidade do Ensino de Comunicação,. ECA/USP, São
Paulo, 2006.
___________________. A Aprendizagem Colaborativa em Ambientes de CMC. 4º
Encontro de Educação a Distância da Universidade Metodista de São Paulo. UMESP – São
Bernardo do Campo, 2005.
___________________. Mídia e Tecnologia na área educacional. Revista do Instituto
Superior de Educação da América Latina - ISAL. Curitiba, 2005.
___________________. Vencer a ruptura entre teoria e prática: um desafio para os
Cursos de Comunicação Social no Brasil. Revista InterMAIS - INTERFACES Amazonas,
Universidade Federal do Amazonas (Ufam). Ano 1, n. 1, jan./jun. 2005. Disponível em:
http://www.interfaces.ufam.edu.br/revista/ruptura_4.html.
____________________. BORTOLOZZI, Flávio. O Ambiente AMANDA: uma referência
para intensificar a interatividade em fóruns com mediação automatizada. Revista
Diálogo Educacional, Curitiba, v. 4, n.12, p.189-204, maio/ago. 2004.
____________________. A Aprendizagem Colaborativa em Fóruns com Mediação
Automatizada: O Ambiente Amanda. Dissertação de Mestrado. Pontifícia Universidade
Católica do Paraná. Curitiba, 2003.
BEHRENS, Marilda Aparecida. O Paradigma Emergente e a Prática Pedagógica. Curitiba:
Champagnat, 2º edição, 2000.
BRITO, Allan. Blender 3D: guia do usuário. São Paulo: Novatec Editora, 2006.
219
BORDINI, Ricardo Mazzini. Introdução à Multimídia na Web. Laboratório Multimídia de
Materiais Didáticos Aplicados à Música – Tutoriais. Centro de Laboratórios Integrados de
Música (CLIM). Universidade Federal da Bahia / Salvador.
http://www.hugoribeiro.com.br/Curso_HTML/media/c01.htm
BOTELHO, Antonio José Junqueira. Práticas de Proteção de PI de Software nas Empresas
Brasileiras Produtoras de Software. INPI, Rio de Janeiro, 29 de agosto de 2008.
www.inpi.gov.br/menu-esquerdo/academia-da-propriedade-intelectual-e.../PIemQuestao_2908-08_AntonioJunqueira.pdf
BOUQUET, Michele. 3D Studio: dicas técnicas: versões 3 e 4. São Paulo: Makron Books,
1995.
CADENA, Nelson. 200 Anos de Imprensa no Brasil: O curso de jornalismo da ABI que
não decolou. http://www.abmp.com.br/falemercado/ColNelson_SobreOAutor.asp. Acesso em
20/06/2007.
CAETANO, Fagundes. LISHA - O Laboratório de Integração Software e Hardware
(2002). Disponível em: http://www.lisha.ufsc.br/~caetano /
http://epos.lisha.ufsc.br/wpkg/stb.pdf http://www.lisha.ufsc.br. Acesso em 18/08/08.
CAMPOS, Augusto. O que é software livre. BR-Linux. Florianópolis, março de 2006.
Disponível em http://br-linux.org/linux/faq-softwarelivre.
CARLSON, Wayne A Critical History of Computer Graphics and Animation. Ohio State
University. http://www.design.osu.edu/ carlson/history/ID797.html
CASTELLS, Manuel. A Galáxia da Internet: reflexões sobre a Internet, os negócios e a
sociedade. Rio de Janeiro: Jorge Zahar Ed. 2003.
________________. A Sociedade em Rede - A Era da Informação: economia, sociedade e
cultura; v.1. 3. ed. São Paulo: Paz e Terra, 1996.
_________________. Fim de Milênio. São Paulo: Paz e Terra, 1998.
_________________. O Poder da Identidade. 2ª edição Coleção. A Era da Informação:
Economia, Sociedade e Cultura. Volume 2. São Paulo: Paz e Terra, 1997.
CASTRO, Álvaro. Propaganda e Mídia Digital: a Web a grande mídia do presente. Rio
de Janeiro: Qualitymark Editora, 2000.
CASTRO, Cláudio de Moura. SCHWARTZMAN Simon. Reforma da Educação Superior:
uma visão crítica. Brasília: Funadesp, 2005.
CARVALHO, Ana Paula Ferreira de. Medição de Cor de Imagens Hiperespectrais Aviris
pelo Sistema CIE (Commission Internationale D’Éclairage ). Anais X SBSR, (mimeo). Foz
do Iguaçu, 21-26 de abril de 2001, INPE, p. 1225-1232, Sessão Técnica Oral – Workshops.
CEBRIÁN, Juan Luis. A Rede: como nossas vidas serão transformadas pelos novos meios
de comunicação. v. 59. São Paulo: Summus, 1999.
CERQUEIRA, Tarcísio Queiroz. Software, Direito Autoral e Contratos. Editora Polar,
Fotomática Editora/Adcoas: Rio de Janeiro, 1993.
CHANTLER, Paul. HARRIS Sim. Radiojornalismo. São Paulo: Summus,1998.
220
CNE - Conselho Nacional de Educação. Diretrizes Nacionais para a Educação Nacional.
Parecer CNE/CES 1.363/2001 – Homologado. Despacho do Ministro em 25/1/2002, Diário
Oficial da União 29/1/2002, Seção 1.
CORELDRAW user’s Manual (mimeo). Ontário, Canadá: Corel Corporation, 1994.
COHEN Peter. Apple adquire Silicon Color. Revista MacWorld de 16 out. de 2006.
http://en.Wikipedia.org/wiki/Color
CYSNEIROS, P.G. Professores e máquinas: Uma concepção de informática na educação.
III Congresso da RIBIE - Rede Iberoamericana de Informática Educativa, Barranquilla,
Colômbia, 1996 (Anais). Reunião Anual da Anped, 1997 (Anais). Universidade Federal de
Pernambuco, Recife, NIE/NPD. 1999. Disponível em www.npd.ufpe.br
DEFLEUR,Melvin. BALL-ROKEACH, Sandra. Teorias da Comunicação de Massa. Jorge
Zahar Editor. Rio de Janeiro, 1989.
DIZARD, Wilson JR. A Nova Mídia. Rio de Janeiro: Jorge Zahar Editor, 2000.
DUARTE, Jorge. BARROS, Antônio. Métodos e Técnicas de Pesquisa em Comunicação.
São Paulo: Atlas, 2005.
ECO, Humberto. Como se Faz Uma Tese. São Paulo: Perspectiva, 2004.
FALCÃO, Joaquim e outros. Estudo sobre o Software Livre (mimeo). Escola de Direito da
Fundação Getulio Vargas. Rio de Janeiro: Licença Creative Commons, 2005.
FALLEIROS, Dario Pimentel. O Mundo Gráfico da Informática: Editoração eletrônica,
Desing Gráfico & Artes Digitais. São Paulo: Futura, 2003.
FREIRE, Paulo. Aprendendo com a própria história. Rio de Janeiro: Paz e Terra. 1987.
FREE SOFTWARE FOUNDATION. Software Livre e o Paradigma Libertário.
http://www.fsf.org/ Acesso: 20/06/2007.
FRIEDMAN, Thomas L. O Mundo é Plano: uma breve história do século XXI. Rio de
Janeiro: Editora Objetiva Ltda, 2005.
GAMBA JUNIOR, Nilson Gonçalves. Computação Gráfica para Designer: dialogando
com as caixinhas de dialogo. Rio de Janeiro: 2AB, 2003.
GATES, Bill. A Estrada do Futuro. São Paulo:Companhia das Letras,1995.
GIACOMINI FILHO, Gino. Consumidor versus Propaganda. São Paulo: Summus, 1991.
GIACOMANTONIO, Marcelo. O Ensino Através dos Audiovisuais. São Paulo:
Summus,1981.
GIL, Antônio Carlos. Métodos e Técnicas de Pesquisa Social. 5ª ed. São Paulo: Atlas, 1999.
GORDON, Bob. GORDON, Maggie. Design Gráfico Digital: o guia completo. The Ilex
Pess Limited. Cambridge: England. Versão portuguesa Lisboa: Central Livros, 2003.
GUIA LIVRE. Referência de Migração para Software Livre do Governo Federal. Grupo
de Trabalho Migração para Software Livre. Brasília: mimeo, 2005. Disponível em:
http://www.governoeletronico.gov.br/acoes-e-projetos/guia-livre/?searchterm=guia%20livre
HARTLEY,Robert F. Erros de Marketing. São Paulo: Editora Manole, 2001.
221
INTERCOM – Revista Brasileira de Ciências da Comunicação. São Paulo, v.30, n.2,
julho/dezembro de 2007. v.30, n.1, janeiro/junho de 2007.
INTERCOM – Revista Brasileira de Ciências da Comunicação. São Paulo, v.29, n.1,
janeiro/junho de 2006. V.29, n.2, julho/dezembro de 2006.
JANUÁRIO Marcelo. Costa Rego. Dicionário PJ:Br – Jornalismo Brasileiro.Disponível em:
www.eca.usp.br/pjbr/arquivos/dic_c6.htm. Acesso em 12/12/2007.
JOURDAIN, Robert. Múscia, Cérebro e Êxtase: como a música captura nossa
imaginação. Rio de Janeiro: Objetiva 1998.
JOSGRILBERG, Fabio. Inclusão Digital: educação e desenvolvimento econômico: alguns
marcos do debate. Revista FAMECOS: Porto Alegre, no. 33. Agosto de 2007.
KUNSCH, Margarida M. Krohling. (org.): Ensino de Comunicação: Qualidade na
Formação Acadêmico-Profissional. São Paulo: ECA- USP: Intercom, 2007.
________________________ O Ensino de Comunicação: análises, tendências e
perspectivas. São Paulo: ABECOM, 1992.
_________________________Universidade e Comunicação na Edificação da Sociedade.
São Paulo: Loyola, 1992.
LDB - Lei de Diretrizes e Bases da Educação Nacional - Lei 9394/96. Disponível em
www.planalto.gov.br/ccivil_03/LEIS/l9394.htm - 141k - Acesso em 10/ 04/07.
LEMOS, André. PALACIOS, Marcos. Janel@s do Ciberespaço: comunicação e
cibercultura. Porto Alegra: Sulina, 2001.
LÉVY. Pierre. Cibercultura. Trad. Carlos Irineu da Costa. São Paulo: Ed. 34 Ltda, 1999.
LÉVY, Pierre. O Que é Virtual. Trad. Paulo Neves. São Paulo: Editora 34 Ltda, 1996.
LÉVY, Pierre. As Tecnologias da Inteligência - O futuro do pensamento na era da
informática. São Paulo: Editora 34, 1993.
Lindstrom, Robert L. Guia Business Week para Apresentações em Multimídia. São Paulo:
MAKRON Books, 1995.
MAUSS Marcell. Ensaio sobre a Dádiva. São Paulo, Cosac & Naif, 2003.
MARQUES DE MELO, José. (org). O Campo da Comunicação no Brasil. São Paulo:
Editora Vozes, 2008.
___________________. Pedagogia da Comunicação: Matrizes Brasileiras. 1º. Ed. São
Paulo: Angellara, 2006.
___________________. O Ensino de Comunicação e os Desafios da Modernidade, In:
Comunicação e Modernidade. São Paulo: Loyola, 1991.
___________________. História do Pensamento Comunicacional. Editora Paulus. 2003.
___________________. Teoria e Comunicação: paradigmas Latino-Americanos.
Petrópolis, Editora VOZES, 1998.
____________________. Para uma Leitura Crítica da Comunicação. São Paulo: Edições
Paulinas, 1985.
222
____________________.Comunicação Social: Teoria e Pesquisa. 6a ed. Petrópolis: Editora
Vozes, 1978.
____________________.Contribuições para uma Pedagogia da Comunicação. São Paulo:
Edições Paulinas, 1974.
MEDITSCH, Eduardo. O Rádio na Era da Informação – Teoria do Novo Radiojornalismo
Florianópolis; Insular - Editora da UFSC, 2001.
MENEGOTTO José Luis. ARAÚJO Tereza Cristina Malveira de. O Desenho Digital Técnica
e Arte. Rio de Janeiro: Interciência, 2000.
MILIES. Cesar Polcino. A Matemática dos Códigos de Barras. Universidade de São Paulo.
mimeo: São Paulo, 2006.
MILANI. André. GIMP: Guia do Usuário. São Paulo: Novatec Editora Ltda. 2005
MORAN, José Manuel. Novas Tecnologias e Mediações Pedagógicas. José Manuel Moran,
Marcos T. Masetto, Marilda Aparecida Behrens. Campinas, SP: Papirus, 2000.
__________________. Leituras dos Meios de Comunicação. São Paulo, Ed. Pancast, 1993.
MCLUHAN, Marshall. Os Meios de Comunicação como Extensões do Homem. São Paulo.
Editora Cultrix Ltda, 1964.
NAISBITT, John. High Tech High Touch: a tecnologia e a nossa busca por significado.
São Paulo: Editora Cultrix, 1999.
OLIVEIRA, Rômulo Silva de. CARISSIMI, Alexandre da Silva. TORCANI, Simão Sirineo.
Sistemas Operacionais. Porto Alegre: Bookman: Instituto de Informática da UFRGS, 2008.
O’SULLIVAN, Tim et.al. Conceitos-chave em Estudos de Comunicação e Cultura.
Piracicaba: Editora UNIMEP, 2001.
PAULA FILHO,Wilson de Pádua. Multimídia Conceitos e Aplicações. Rio de Janeiro: LTC Livros Técnicos e Científicos Editora S.A., 2000.
PARKER. Roger C. Desktop Publishing & Desing para Leigos. São Paulo: Berkeley, 1995.
PERUZZO, Cicília M. K. SILVA, Robson B. da. (org). Retrato do Ensino da Comunicação
no Brasil: analises e tendências. São Paulo: INTERCOM, Taubaté: UNITAU, 2003.
PERUZZO Cicilia M. Krohling. Manual de Metodologia para Elaboração de Relatório de
Qualificação, Dissertação de Mestrado e Tese de Doutorado (mimeo). Universidade
Metodista de São Paulo. Faculdade de Comunicação Multimídia. Programa de Pós-Graduação
em Comunicação Social (Póscom). São Bernardo do Campo, 2005.
PISSUTO, Camila de Lima. O Trânsito e as Crianças: Aprendizagem Interativa em 3D.
Trabalho de Conclusão de Curso - TCC. mimeo. Curitiba: Faculdades ESEEI. Curso de
Comunicação Social: Habilitação Editoração Mídia Digital, 2006.
PLUMLEY, Sue. Adobe Illustrator 4 for Windows Técnicas Avançadas. São Paulo:
Berkeley, 1995.
PPC. Projeto Pedagógico de Curso (mimeo). Curitiba: Faculdades ESEEI, 1999.
RABAÇA, Carlos Alberto. BARBOSA, Gustavo Guimarães. Dicionário de Comunicação.
Nova Edição Revista e Atualizada. Rio de Janeiro: Elsebier, 2002.
223
RANDELL, Brian, ed. As Origens dos Computadores Digitais: Tradução Paul Roger
Selected Papers, 3 ª ed. (NY, NY: Springer-Verlag) 1982.
RAYMOND. Eric S. A Catedral e o Bazar. Tradução Erik Kohler (2004). Cópia e
redistribuição permitida - livre. Disponível em The Linux Logic Home. Disponível em:
http://www.geocities.com/CollegePark/Union/3590/pt-cathedral-bazaar.html.
REVISTA COLEÇÃO GUIA FÁCIL INFORMÁTICA. Edição Especial. no. 009 – Editora
On-line. São Paulo. Nov/2007.
REVISTA ÉPOCA. Ciência e Tecnologia. Ed. 489426. Editora Globo S.A. 01 de Nov. 2007.
Disponível em:http://revistaepoca.globo.com/Revista/Epoca/0,,EDG79322-6010-489,00.html
REVISTA EXAME. Cisco Systems. Edição 927. Ano 42. No. 18 – 24/09/2008. Editora Abril.
São Paulo, Brasil.
REVISTA EXAME. Como o Software Livre está Ajudando as Empresas Brasileiras a
Cortar Custos. Edição 857. Ano 39. No. 24 Editora Abril. São Paulo, Brasil. 7 de dez. de
2005.
REVISTA EXAME. O Poder da Geração Digital. Edição nº 875. Ano 40. No. 17 Editora
Abril, São Paulo. 30/08/ 2006.
REVISTA INFO. Software Livre Faz Desenhos de Primeira. Editora Abril. São Paulo,
Brasil 13 de fevereiro de 2008. http://info.abril.com.br/aberto/infonews/022008/130220081.shl.
REVISTA INFO - Plantão Info, seção tecnologia. Revista Info. Editora Abril. São Paulo,
Brasil . 13 de fevereiro de 2008. http://info.abril.com.br/aberto/infonews/022008/130220081.shl.
REVISTA LINUX MAGAZINE. Qualidade em Software. Agosto de 2004. Disponível em:
http://www.proqualiti.org.br/revista/revista_ProQualiti_maio2005.pdf.
REVISTA MEIO-DIGITAL. A Revolução dos Sistemas de Busca e Vídeos On-line a TV do
Futuro. No. 4 . São Paulo. Gráfica Aquarela. Grupo M&M. Março e Abril de 2008.
REVISTA SUPERINTERESSANTE. Educação Digital: aprender é muito divertido.
Edição Especial 162-A. São Paulo: Editora Abril. Abri de 2001.
REVISTA SUPERINTERESSANTE. Edição de colecionador. 14 Tecnologias que vão fazer
parte da sua vida daqui a 14 anos. Edição Especial 168. Editora Abril. Setembro de 2001.
REVISTA VEJA. Fábrica de Maus Professores. Edição 2088. Editora Abril, São Paulo. 26
de novembro de 2008.
REVISTA VEJA. Em apenas 3 Segundos. Edição especial 2078. Ano 41. Editora Abril, São
Paulo. Set/2008.
REVISTA VEJA. As 10 Tecnologias que estão Transformando o Mundo. Edição Especial
de Natal 2036. Ano 40 . Editora Abril, São Paulo. Dez. de 2007.
REVISTA da PoloTICs. A Hierarquia das Redes de Internet e os Custos para o Usuário
Final: rede de informações para o terceiro setor. Rio de Janeiro. NUPEF/RITS. Julho de
2008 (www.rits.org.br).
224
REVISTA PROQUALITI. Qualidade na Produção de Software. Núcleo de Estudos
Avançados em Engenharia e Qualidade de Software (mimeo). Volume 1 – No.1 – Maio 2005.
Lavras: Universidade Federal de Lavras,2005.
http://www.proqualiti.org.br/revista/revista_ProQualiti_maio2005.pdf
RUBIN, David M. O Músico Desktop. São Paulo: Makron Books, 1996.
SHARP, Peter. Da Lâmina de Barbear ao Desktop: uma história de edição de vídeo
http://www.netribution.co.uk/content/view/590/304/
www.netribution.co.uk/content/view/1236/277/
SIEGFRIED, Tom. O Bit e o Pêndulo. Rio de Janeiro: Editora Campus, 2000.
SILVA, Rafael Peregrino. Opção do Governo pelo Software Livre Começa a Incomodar:
Microsoft X Governo. Revista Linux Magazine. Edição n. 1. p. 8-9, agosto - 2004.
SILVA, Denise Bandeira. GRANVILLE, Lisandro Z. IV Workshop sobre Software Livre –
WSL2003. Porto Alegre, RS: Sociedade Brasileira de Computação, 2003.
SILVA, Marcelo Rocha da. Apostila de Informática Básica. (mimeo s/d). Associação
Educacional Sul-Rio-Grandense. Faculdade Porto-Alegrense – FAPA - Porto Alegre – RS.
http://www.wisesolutions.com.br/notasdeaula/apostila%20-%20ib.pdf
SILVEIRA, Sérgio Amadeu da. Introdução de Comunicação Digital e a Construção dos
Commons: redes virais, espectro aberto e as novas possibilidades de regulação. São
Paulo: Editora Fundação Perseu Abramo, 2007.
_______________. A Mobilização Colaborativa e a Teoria da Propriedade do Bem
Intangível. Tese de Doutorado - Universidade de São Paulo, USP. São Paulo: mimeo, 2005.
________________. Inclusão Digital, Software Livre e Globalização Contra-hegemônica.
Seminários temáticos para a 3ª Conferência Nacional de C,T&I. Revista Parcerias
Estratégicas. mimeo. Edição 20. Junho de 2005. http://www.cgee.org.br/parcerias/p20.php
http://www.cidadefutura.org.br/meulugar/arquivos/inclusao_digital.pdf
________________. Software Livre: a luta pela liberdade do conhecimento. São
Paulo:Editora: Fundação Perseu Abramo Páginas: 2004.
_________________. Software Livre e Inclusão Digital. São Paulo: Conrad Editora. 2003.
________________. Exclusão Digital Miséria na Era da Informação. São Paulo: Editora:
Fundação Perseu Abramo Páginas: 2001.
________________. Software Livre Representa Avanço na Sociedade Democrática.
Revista Com Ciência - Revista Eletrônica de Jornalismo Científico.
http://www.comciencia.br/200406/entrevistas/entrevista1.htm
______________. Commons: a revolução na produção simbólica (2007).Observatório da
Imprensa.cultura.gov.br/foruns_de_cultura/cultura_digital/na_midia/index.php?p=26056&mo
re=1&c=1&pb=1
STALLMAN Richard - Cultura Hacker. http://gustgr.freeshell.org/theGNUproject.pt.html
STALLMAN, Richard. Free Software Free Society: selected essays. Edited by Joshua Gay.
USA, Boston: GNU Press, 2002.
STALLMAN Richard. Cultura Hacker- http://gustgr.freeshell.org/theGNUproject.pt.html
225
STRAUBHAAR, Joseph D. Comunicação, Mídia e Tecnologia. São Paulo: Pioneira
Thomson Learning, 2004.
SQUIRRA, Sebastião Carlos de Morais. A tecnologia, a sociedade do conhecimento e os
comunicadores (mimeo). Intercom. SP. Santos 2007.
______________ Sociedade do Conhecimento. In: José Marques de Melo; Luciano Sathler.
(Org.). Direitos à comunicação na Sociedade da Informação. mimeo, São Bernardo do
Campo/SP: 2005.
______________ Jorn@lismo online. São Paulo: Editora Arte e Ciência. CJE/ECA/USP.
1998.
_____________ Telejornalismo Memórias 1. São Paulo: Universidade Metodista de São
Paulo. Escola de Comunicação e Artes. 1997.
______________ O Século Dourado: a comunicação eletrônica nos EUA. São Paulo:
Summus, 1995.
_____________O Telejornalismo Brasileiro num Cenário de Competitividade. São
Paulo. ECA/USP: mimeo. 1994.
_____________ Boris Casoy: O Âncora no Telejornalismo Brasileiro. Petrópolis. Vozes,
1993.
_____________ Leitura de Imagens. (mimeo) Capítulo do livro Sociedade midiática –
Significação, mediações e exclusão. Editora Universitária Leopoldianum, Santos, 2000, v.1,
p.105-127.http://www.metodista.br/poscom/cientifico/publicacoes/ultimas-publicacoes/atct_
topic_view?b_start:int=30.
TARNAS, Richard. A Epopéia do Pensamento Ocidental: para compreender as ideias que
moldaram nossa visão de mundo. 8o. ed. - Rio de Janeiro: Bertrand Brasil, 2008.
TAURION. Cezar. Software Embarcado: a nova onda da informática. Rio de Janeiro:
Brasport, 2005.
TAURION. Cezar. Software Livre: Potencialidades e Modelos de Negócios. Rio de Janeiro:
Brasport, 2004.
_______________. Etiqueta Eletrônica. 2004. Disponível em:
Disponível em: http://www.ibm.com/br/services/articles/author/a05.shtml
______________. O Avanço da Mobilidade. 2003. Disponível em: Disponível em:
http://www.ibm.com/br/services/articles/author/a05.shtml
______________. O que são Web Services? 2003. Disponível em: Disponível em
http://www.ibm.com/br/services/articles/author/a05.shtml
______________. O Futuro Bate a sua Porta. 2003. Disponível em:Disponível em:
http://www.ibm.com/br/services/articles/author/a05.shtml
TOFFLER Alvin. A Terceira Onda: a morte do industrialismo e o nascimento de uma
nova civilização. 26ª. Ed. Rio de Janeiro: Editora Record, 2001.
TOFFER Alvin. Heidi THOFFLER. A Riqueza Revolucionaria. São Paulo: Futura, 2007.
226
TOMAS, Venetianer. Desmistificando o Desktop Publishing. São Paulo: McGraw-Hill,
1990.
________________ A Revolução Inacabada. São Paulo: Editoria Futura, 2002.
TRIVIÑOS, Augusto Nibaldo Silva. Introdução à Pesquisa em Ciências Sociais: a
pesquisa qualitativa em educação. São Paulo: Atlas, 1987.
VALVERDE . Joaquim, M.M. Proposta de Modelo Transdisciplinar para Comunicação
com Mídias Digitais, (mimeo). Tese de doutorado. São Bernardo do Campo. São Paulo.
UMESP, 2008.
_________________ Impacto das Mídias Impressa, Audiovisual e Hipermídia nos
processos de Aprendizagem. Dissertação de Mestrado. (mimeo), São Bernardo do Campo.
São Paulo.UMESP, 2003.
WACHOWICZ Marcos. A Complexidade do Domínio Público Relativamente ao Software
(mimeo). Universidade Federal de Santa Catarina. Santa Catarina, 2008. Disponível em:
www.cultura.gov.br/site/wp-content/uploads/2008/12/texto_marcos_wachowicz_mesa7.pdf
WEBER, Raul Fernando. Arquitetura de Computadores Pessoais. Porto Alegre: Bookman:
UFRJS, 2008.
WEN, Howard. Editando no Linux Professional Vídeo com Cinelerra.
www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html - 41k
WHITTAKER, Ron. Television Production do CyberCollege.
http://www.cybercollege.com/tvp057.htm
WURMAN, Richard Saul. Ansiedade de Informação: como transformar informação em
compreensão. São Paulo: Cultura Editores Associados, 1991.
SITES
ACORDO TRIPS. Acordo Relativo aos Aspectos do Direito da Propriedade Intelectual
(ADPIC). http://www.cultura.gov.br/site/wp-content/uploads/2008/02/ac_trips.pdf.
ADOBE http://www.adobe.com/br/products/aftereffects
ADOBE PHOTOSHOP: http://www.adobe.com
ADOBE STORE: https://store1.adobe.com/cfusion/store/index.cfm
ALAIC: Asociación Latinoamericana de Investigadores de la Comunicación
http://sistemas.usp.br/atena/atnCurriculoLattesMostrar?codpes=51860
ALMANAQUE DA COMUNICAÇÃO
http://www.almanaquedacomunicacao.com.br/blog/?p=514
AMPEX MARK IV http://www.vtoldboys.com
APPLE http://www www.Apple.com/quicktime/
APPLE http://www www.Apple.com/br/imprensa.
227
APPLE http://www.Apple.com/finalcutstudio.
ARDOUR http://Ardour.org/node/976
ASSOCIAÇÃO NACIONAL PARA O SOFTWARE LIVRE - PT - http://www.ansol.org/
APPLE INC. Disponível em: http://pt.Wikipedia.org/wiki/Apple.
AUDACITY http://www Audacity.sourceforge.net
AVID www.avid.com/
BBC RESEARCH www.bccresearch.com/
BBC VThttp://www.vtoldboys.com
BBC – www.bbc.co.uk - http://broadcastengineering.com/hdtv/digital_file_formats_0203/
BBC VT http://www.vtoldboys.com
BLENDER http://studioz.multiply.com/links/item/408 ou Blender.org
CINEPAIN www.cinepaint.org.
CINEPAINT. http://www www.cinepaint.org
CINELERRA.http://www.cinelerra.org
CINELERRA www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html - 41k
__________ www.linuxdevcenter.com/pub/a/linux/2003/12/30/cinelerra.html
COLOR http://en.Wikipedia.org/wiki/Color
COLOR http://en.Wikipedia.org/wiki/C
COLLADA. http://pt.Wikipedia.org/wiki/COLLADA.
CORELDRAW www.corel.com.br/pt/
CULTURA COMUNITÁRIA VIRTUAL. https://gestao.idbrasil.gov.br/menu_interno/03projeto_comunitario.
COMUNIDADE GNU/LINUX DO BRASIL. http://www.lsi.upc.es/~kyller/pt/links-2.html
_________________www.comlinux.com.br/docs/comofazer/hsp56.shtml
_________________www.comunidadelinux.com.br/
COMTEC. Disponível em: http://www.mundodosfilosofos.com.br/comte.htm
COMUNICATION RIGHTS IN THE INFORMATION SOCIETY. www.crisinfo.org
CREATIVE COMMONS. www.creativecommons.org.br
CNPq. http://www.cnpq.br/servicos/propriedadeintelectual/oqueepatenteavel.htm
DECLARAÇÃO DE BARCELONA PARA O AVANÇO DO SOFTWARE LIVRE
http://www.softwarelivre.org/news/2297
DEMASY, Carole. www.artkm.be
228
DIGIDESIGN http://www www.digidesign.com
DIGITAL CORPO.RATION. http://www.sssm.com/editing/museum/ampex/ampex.html
DREAMWORKS. http://www.dreamworks.com
DUARTE, Juca. Seções relacionadas 3ds max.
http://imasters.uol.com.br/artigo/4200/3dsmax/mentalray_occlusion/
EECO – http://www.screeneditors.com/forums/archive/index.php/t-21.html:
ELECTRONIC ENGINEERING COMPANY OF CALIFONIA.
http://www.screeneditors.com/forums/archive/index.php/t-21.html
ESCOLA SUPERIOR DE ESTUDOS EMPRESARIAIS E INFORMÁTICA – ESEEI.
http://www.eseei.edu.br - www.eseei.edu.br
EXECUTIVA NACIONAL DOS ESTUDANTES DE COMUNICAÇÃO SOCIAL
http://www.enecos.org.br/
FACULDADES ESEEI www.spet.br – www.eseei.edu.br
___________________http://www.spet.br/institucional.html
___________________http://www.spet.br/tecnologia/agencias.html
___________________http://www.spet.br/pesquisa_e_extensao.html
___________________http://www.spet.br/responsabilidade_social.html
FLOGAO http://www.flogao.com.br/linuxbh/foto/12/36782947
GIMP www.GIMP.org
GIMP.br http://www.GIMP.hpg.ig.com.br/index.htm
GOOGLE TRANSLATE http://translate.google.com/translate_t?hl=pt#
GUIA DO HARDWARE http://www.guiadohardware.net/termos/s.html#super-vga-svga
GRUPOLINUX (GIL). Disponível em: http://www.grupolinux.org/
GUL – UCDB. Disponível em: http://www.glug.ucdb.br/
GLOSSÁRIO HOSPEDENET. www.hospedenet.com.br/info/Dithering.html - 17k
HYDROGEN http://hydrogen-music.org/
HEROINE http://heroinewarrior.com/cinelerra.php3
HISTORY OF TAPE RECORDING TECHNOLOGY
http://www.tvhandbook.com/History/History_recording.htm
IBM-Internacional Buziness Machines Corpotation.http://pt.Wikipedia.org/wiki/IBM http://www-306.ibm.com/software/br
INKSCAPE http://www.inkscape.org
INTERACTIVE UNIX System. http://en.Wikipedia.org/wiki/INTERACTIVE_UNIX
JAHSHAKA http://superdownloads.uol.com.br/download/23/jahshaka http://jahshaka.org/
229
KERNEL http://en.Wikipedia.org/wiki/Kernel_%28computer_science%29.
LINUX DEVICES www.linuxdevices.com
LINUX4.TV www.linux4.tv
LINUX – UFSC. http://linux.lcmi.ufsc.br/
LISHA Laboratório de Integração Software e Hardware http://www.lisha.ufsc.br.
MAYA http://usa.autodesk.com
MICROSOFT CORPORATION. http://pt.Wikipedia.org/wiki/Microsoft.
MUSEU VIRTUAL: MUSEU DE TÉCNICAS E EQUIPAMENTOS DE EDIÇÃO
ANTIGOS. http://www.sssm.com.html http://www.sssm.com/editing/museum/ampex/ampex.html.
OBSERVATÓRIO DA IMPRENSA http://www.observatoriodaimprensa.com.br/artigos.
O GLOBO ON-LINE
http://oglobo.globo.com/economia/mat/2008/09/18/Internet_chega_20_2_dos_lares_brasileiro
s_segundo_pnad_2007-548274951.asp
PODCASTING http://pt.Wikipedia.org/wiki/Podcasting
PROJETO TWIKI http://twiki.org
PRO TOOLS http://www.digidesign.com
RED DIGITAL CINEMA CAMERA COMPANY: www.red.com
ROSEGARDEN rose http:// www.gardenmusic.com
SAINT-MOULIN Benoît www.bsm3d.com
SAINT-MOULIN, Benoît www.tdt3d.com/articles_viewer.php?art_id=99-www.bsm3d.com
SILICON GRAPHICS INC http:// www.usa.autodesk.com
SOCIAL SCIENCES CITATION INDEX (SSCI).http://scientific.thomson.com/products/ssci/
SOCIEDADE PARANAENSE DE ENSINO TECNOLOGIA – SPET. http://www.spet.br
SONY http://www.sonycreativesoftware.com/products/product.asp?pid=431|
SONIC FOUNDRY/ http://www.Sonysonycreativesoftware.com/products/vegasfamily
SOUND FORGE http://www.sonycreativesoftware.com/products/product.asp?pid=431|
SONY VEGAS www.sonycreativesoftware.com
SLACKWARE – ES.: http://www.eslack.org/
STL en.Wikipedia.org/wiki/STL
TD T3D The Dream Team http://www.tdt3d.be
TELEVISION PRODUCTION DO CYBERCOLLEGE www.cybercollege.com/tvp057.htm
THE FREE DICTIONAR. http://encyclopedia2.thefreedictionary.com/workstation
230
TORVALDS, Linus. http://wikimediafoundation.org/wiki/Home- GNU Free Documentation
License.
TONBAND MUSEUM. http://www.useddlt.com/ampex-story-teil2.html
THE FREE DICTIONARY http://encyclopedia2.thefreedictionary.com
TV LINUX ALLIANCE www.tvlinuxalliance.org
UNIVERSIDADE METODISTA DE SÃO PAULO. http://www.metodista.br
_________________http://www.metodista.br/sobre-a-metodista/historia
_________________http://www.metodista.br/comunidade/comunidade/agencias
_________________http://www.metodista.br/bkp/rtv/agencia-de-comunicacaomultimidia/agencia-de-comunicacao-multimidia/?searchterm=agencia%20de%20RTV.
_________________http://www.metodista.br/focat/cursos-da-facet/agenda/historico/
_________________www.metodista.br/poscom/informacoes-gerais/sobre-o-programa
_________________http://www.metodista.br/consun/camaras-permanentes.pdf/sobre-oconsun
_________________http://www2.metodista.br/unesco/catedra.htm
_________________http://www.metodista.br/siga-2.0
_________________http://www.metodista.br/rtv/noticias/rtv/módulos
_________________http://www.metodista.br/rtv/rtv/curso
_________________http://www.metodista.br/radio
UNIVERSIDADE DE NOVA GALES DO SUL.
www.netribution.co.uk/content/view/590/304/
VÍDEO GRAPHICS Adapter.http://www.guiadohardware.net/termos/s.html#super-vga-svga
V-RAY http://pt.Wikipedia.org/wiki/V-Ray
WRAPPER http://broadcastengineering.com/hdtv/digital_file_formats_0203/
WRAPPER http:// www.broadcastengineering.com/hdtv/digital_file_formats_0203
WIKIPEDIA. http://pt.Wikipedia.org
WORLD SUMMIT ON THE INFORMATION SOCIETY. ONU /ITU://www.esis.org in
Josgrilberg.
YAFRAY. http://pt.Wikipedia.org/wiki/V-Ray
XEXIX http://pt.Wikipedia.org/wiki/Xenix
3M CORPORATION. Disponível em: http://www.bbc.co.uk site
2D e 3D http://www.tdt3d.be
Download

comunicação social com software livre